Modelo de trabalho
Híbrido
Carga horária
40 horas semanais
Descrição
Responsabilidades
- Implementar e gerenciar catálogos de dados, assegurando organização, documentação e conformidade com as políticas de governança.
- Construir, manter e otimizar pipelines de dados, utilizando arquitetura Lakehouse e boas práticas de performance.
- Definir arquitetura de dados em conjunto com arquitetos e engenheiros, garantindo eficiência, segurança e escalabilidade.
- Aplicar práticas de versionamento e automação (CI/CD), com foco em qualidade e integridade das entregas.
- Apoiar a governança de dados, incluindo classificação, metadados, controle de acesso e políticas de segurança.
- Colaborar com diferentes áreas na definição de soluções modernas em dados e analytics.
Requisitos
- Domínio em ferramentas essenciais como Databricks, Unity Catalog e IDMC Data Catalog.
- Proficiência em Python e SQL, além de experiência com ingestão de dados,
- arquitetura Lakehouse e ferramentas de versionamento como Git.
- Conhecimentos em ETL (Informatica, databricks) e em serviços de nuvem (Azure) são importantes para atuação no ambiente proposto.
Conhecimentos Desejáveis
- Experiência em computação em nuvem Azure, incluindo DataBricks, Data Fabric, Data Lake e Spark.
- Conhecimento em Inteligência Artificial aplicada a Analytics, com foco em aprendizado de máquina e automação de processos analíticos.
- Familiaridade com arquiteturas escaláveis para armazenamento e processamento de grandes volumes de dados.
- Experiência com otimização de performance em processamento distribuído e boas práticas de governança
- de dados, segurança da informação e noções sobre LGPD são valorizadas.