Engenheiro de Dados
Cloudster
Inscrições até 31/03/27
Regime de contratação
CLT ou PJ
Modelo de trabalho
Remoto
Carga horária
40 horas semanais
Descrição
Sobre a Cloudster
Somos uma empresa líder em consultoria em nuvem, focada em criar soluções inovadoras e personalizadas que fazem os negócios decolarem! Nossa equipe é formada por especialistas comprometidos em entregar excelência e superar expectativas. Em um mundo cada vez mais digital, nossa missão é ajudar empresas de todos os tamanhos a otimizar seus processos e infraestrutura na nuvem, garantindo segurança, escalabilidade e eficiência.
Missão do Cargo
Projetar, construir, operar e otimizar pipelines de dados, arquiteturas analíticas e soluções de IA na AWS, garantindo ingestão, processamento, qualidade, confiabilidade, governança e eficiência de custos.
Atuar com pensamento de engenharia, automação, escalabilidade e boas práticas modernas de DataOps, MLOps e FinOps, sustentando ambientes produtivos com alto SLA.
O que você vai fazer
- Criar e otimizar pipelines ponta a ponta (ingestão → transformação → consumo).
- Implementar ETL/ELT com AWS Glue (PySpark), Lambda, DMS e Step Functions.
- Trabalhar com S3, Athena, Redshift, IAM, CloudWatch em ambiente produtivo.
- Implementar e manter infraestrutura como código com Terraform ou CloudFormation.
- Garantir qualidade e governança de dados (Lake Formation, Glue Data Quality, controle de schema).
- Implementar práticas de DataOps e CI/CD (Git, PR, versionamento, rollback).
- Atuar com observabilidade e operação, realizando RCA e reduzindo MTTR.
- Otimizar custos em workloads de dados (Glue, Athena, Redshift).
- Projetar pipelines que suportem Machine Learning e GenAI em produção.
- Trabalhar com Amazon SageMaker (pipelines, endpoints, batch inference, Model Registry).
- Integrar modelos fundacionais e soluções com AWS Bedrock.
- Aplicar conceitos de RAG, embeddings e avaliação de respostas em GenAI.
Requisitos
- Experiência prática em AWS (S3, Glue, Athena, Redshift, IAM, CloudWatch).
- ETL/ELT em escala (Glue com PySpark).
- SQL avançado (joins complexos, window functions, otimização).
- Python para engenharia de dados.
- Modelagem dimensional (Kimball) e Data Lake/Lakehouse (Iceberg).
- Infraestrutura como Código (Terraform ou CloudFormation).
- Data Quality e Governança (Lake Formation, controle de acesso).
- DataOps e automação de deploy.
- FinOps aplicado a dados.
- Segurança em nuvem (IAM avançado, criptografia, PII).
- Experiência com ML na prática (treino, validação, deploy).
- SageMaker e MLOps.
- Experiência com GenAI (prompting, embeddings, RAG).
- Integração Dados + IA em produção.
Diferenciais
- Apache Iceberg avançado.
- Streaming com Kinesis + Flink.
- Experiência real com GenAI em produção.
- Data Mesh ou governança federada.
Formação & Certificações
- Graduação em Ciência da Computação, Engenharia de Dados, Sistemas de Informação ou áreas correlatas.
- Certificações recomendadas:
AWS Data Analytics – Specialty
AWS Machine Learning – Specialty
AWS Solutions Architect – Associate
O que oferecemos
- Atuação em projetos desafiadores com clientes nacionais.
- Ambiente colaborativo e aprendizado contínuo.
- Oportunidade de evolução técnica e de carreira em Cloud.
- Modelo de trabalho remoto.
Para colaboradores CLT:
- Salário competitivo e pacote de benefícios.
- VR R$ 35,00/dia (Cartão Flash).
- Plano de saúde e odontológico SulAmérica (sem desconto).
- Seguro de vida SulAmérica.
- Gympass.
- Auxílio Educação.
- Treinamentos e Certificações AWS.
- Auxílio Creche.
- Assistência Cesta Natalidade.
- Day off no aniversário.
- Presente personalizado.
- Programa de indicação premiada (Indicou/Ganhou).
Para colaboradores PJ:
- Salário competitivo.
- Treinamentos e Certificações AWS.
- Férias remuneradas.
- Gympass.
- Day off no aniversário.
- Presente personalizado.