Responsabilidades:
• Desenhar, desenvolver e manter pipelines de dados escaláveis utilizando Azure Data Factory.
• Realizar transformações de dados e análises avançadas em Databricks, com Python e Spark.
• Escrever, otimizar e manter consultas SQL complexas para processos de ETL (Extração, Transformação e Carga).
• Garantir qualidade, integridade e consistência dos dados entre múltiplos sistemas e fontes.
• Colaborar com equipas multidisciplinares para resolver problemas operacionais e otimizar fluxos de dados.
• Contribuir para a documentação técnica de arquiteturas, fluxos de dados e procedimentos operacionais.
Requisitos Obrigatórios:
• Experiência comprovada em SQL (nível avançado).
• Forte domínio de Azure Data Factory
• Experiência prática com Databricks
• Sólidos conhecimentos de Python aplicado a engenharia de dados