Logo da Candidata AI
Ícone de Pesquisa
Ícone de Localidade

Filtros

Regime

    Modelo de Trabalho

      Salário

      Data de Publicação

      Limpar Filtros

      Engenheiro de Dados Sr.

      Digisystem

      Nova
      R$ 12.000,00 / Mês
      São Paulo - SP

      Regime de contratação

      Pessoa Jurídica

      Modelo de trabalho

      Não Informado

      Carga horária

      Não Informado

      Habilidades

      • Python
      • PySpark
      • GCP
      • Azure
      • AWS
      • Data Mesh
      • Big Query
      • Dataflow
      • PubSub
      • Data Lake

      Descrição

      Descrição:

      Estamos em busca de um(a) Engenheiro(a) de Dados com sólida experiência em ambientes de nuvem, especialmente na Google Cloud Platform (GCP). Procuramos alguém com forte conhecimento técnico para estruturar, operar e evoluir Data Lakes de forma eficiente.

      O(a) profissional será responsável por projetar, desenvolver e manter pipelines de dados robustas e escaláveis, garantindo a ingestão, o processamento e a disponibilização de dados por meio das camadas Bronze, Prata e Ouro. Esperamos alguém que atue com foco em performance, qualidade dos dados e boas práticas de arquitetura em nuvem.

      Atuação híbrida na Av. Paulista / SP (2x na semana)

      Responsabilidades:

      • Projetar e implementar a arquitetura de um Data Lake em múltiplas camadas (Raw/Staging, Trusted/Refined e Curated/Business Layer).
      • Desenvolver, orquestrar e monitorar pipelines de dados usando ferramentas como Apache Spark, PySpark, Airflow ou equivalentes.
      • Trabalhar com GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub) para construção de soluções escaláveis e seguras.
      • Criar processos eficientes de ingestão de dados em batch e streaming, integrando múltiplas fontes.
      • Garantir o versionamento, segurança e catalogação dos dados.
        Atuar na otimização de performance, controle de custos e boas práticas em ambientes cloud.

      Requisitos:

      • Experiência comprovada com Google Cloud Platform (GCP).
      • Experiência na construção de Data Lakes com arquitetura Medallion.
      • Domínio em Python, SQL, Big Query e frameworks como Spark / PySpark.
      • Conhecimento em DataOps e CI/CD para pipelines de dados.
      • Experiência com ferramentas de orquestração de pipelines (Airflow, Cloud Composer).
      • Familiaridade com ferramentas de versionamento de código (Git, GitHub/GitLab).
      • Boas práticas de governança, qualidade e segurança de dados.

      Diferenciais:

      • Certificações em GCP e/ou AWS.
      • Conhecimento em Data Mesh e arquiteturas orientadas a domínio.
      • Experiência com lakehouse architectures.

      Requisitos Comportamentais:

      • Visão sistêmica e foco em performance e escalabilidade.
      • Boa comunicação com áreas técnicas e de negócio.
      • Proatividade e espírito colaborativo.
      • Capacidade de atuar em ambientes ágeis e com múltiplas prioridades. 

      7359 Vagas de emprego

      Nova

      Agile Master SR.

      DOMVS iT

      Pessoa Jurídica
      Híbrido
      São Paulo - São Paulo
      Publicada há 4 horas
      Nova

      Agile Master PL

      DOMVS iT

      Pessoa Jurídica
      Híbrido
      São Paulo - São Paulo
      Publicada há 4 horas
      Nova

      Auxiliar de Produção PCD

      Grupo Ourho

      CLT
      Presencial
      R$ 2.328,00 / Mês
      São José dos Campos - SP
      Publicada há 4 horas
      Inscrições até 30/06/25
      Nova
      PCD

      Executivo(a) Comercial - SaaS com IA

      C2S Contact2sale

      CLT
      Híbrido
      São Paulo - SP
      Publicada há 4 horas
      Inscrições até 04/06/25
      Nova

      Técnico de Suporte em Campo

      3AM IT Services

      Pessoa Jurídica
      Presencial
      São Paulo - SP
      Publicada há 4 horas
      Nova

      Coordenador(a) de Suporte e Monitoramento

      Presencial
      Publicada há 4 horas