Engenheiro de Dados II
Lello
Inscrições até 18/12/25
Regime de contratação
CLT ou PJ
Modelo de trabalho
Não Informado
Carga horária
44 horas semanais
Benefícios
- Auxílio Creche
- Plano Odontológico
- Plano de Saúde
- Seguro de Vida
- Vale Refeição
- Vale Transporte
- Parceria com Universidades
- Parceria com PetShops
- Parceria com Colégios
- Premiação por indicação de candidatos para vagas
Habilidades
- Data Warehouse
- Databricks
- OpenAI
- SQL
Descrição
Sobre Nós:
Com mais de 70 anos de história e o olhar voltado para o futuro, somos movidos pelo propósito de construir jeitos mais humanos e prazerosos de viver coletivamente nas cidades. Na Lello, acreditamos que viver é um ato coletivo, por isso colocamos as pessoas no centro da jornada e usamos a tecnologia com empatia para simplificar processos e fortalecer conexões. Mais do que administrar imóveis e condomínios, cultivamos vínculos que transformam o cotidiano e regeneram a vida nas cidades. Se você busca um ambiente que valoriza o bem-estar, a colaboração, a diversidade e a inovação com propósito, aqui é o seu lugar. Lello. Viver une.
Requisitos e Habilidades:
- Projetar, desenvolver e manter pipelines de dados escaláveis e de alta performance no Databricks.
- Apoiar a modelagem de dados para Datalake e Data Warehouse.
- Integrar e transformar dados de múltiplas fontes, garantindo rastreabilidade e governança.
- Trabalhar em conjunto com analistas, engenheiros e cientistas de dados para entregar soluções ponta a ponta.
- Otimizar modelos de dados e fluxos de processamento, garantindo eficiência e disponibilidade.
- Monitorar, investigar e corrigir gargalos de performance.
- Dar sustentação às soluções já existentes, incluindo pipelines críticos, dashboards e modelos de Machine Learning em produção.
- Documentar pipelines, padrões técnicos e arquiteturas quando necessário.
Competências Comportamentais
- Organização e atenção aos detalhes.
- Comunicação clara com equipes multidisciplinares (assíncrona e síncrona).
- Capacidade analítica e foco em resultados.
- Proatividade na solução de problemas.
-Aprendizado contínuo.
Requisitos Técnicos
- Experiência sólida em Databricks (Spark, Delta, notebooks, Jobs/Workflows, Genie, Model Serving).
- Conhecimento conceitual em arquitetura e governança de dados.
- Proficiência em Python para manipulação, integração e automação.
- Experiência com Git e práticas de CI/CD.
- Forte domínio de Spark (PySpark) e SQL avançado.
- Capacidade comprovada de lidar com grandes volumes de dados e arquiteturas distribuídas.
- Familiaridade com Power BI (suporte e sustentação).
-Experiência prévia em projetos de Machine Learning ou Inteligência Artificial usando Databricks.
O que oferecemos no ambiente
- Ambiente moderno com tecnologias atuais (Databricks, OpenAI, Gemini)
- Autonomia para propor melhorias e evoluir soluções.
- Atuação direta em projetos reais de dados, ML e IA.
- Colaboração próxima com um time técnico de alto nível.
Jornada:
- Seg à Sexta, 08h30 às 18h com 1h00 de intervalo;
- 100% remoto.