Engenheiro de Dados
">
Nossa empresa busca um profissional experiente para desempenhar o papel de Engenheiro de Dados. Nesta função, você terá a oportunidade de criar e implementar arquiteturas de dados e pipelines que apoiem operações globais em finanças e logística.
">
O objetivo é projetar e desenvolver soluções escaláveis para analisar as finanças comerciais, controlar a exposição ao crédito, os fluxos de trabalho de pagamento e o desempenho logístico.
">
Aqui estão alguns dos requisitos para o cargo:
">
">
1. A mais de 4 anos de experiência enquanto engenheiro de dados, idealmente em finanças, comércio ou logística;
">
2. Experiência sólida e prática com Apache Spark (processamento em lote), Apache Flink (streaming) e Kafka (streaming de eventos e integração de dados);
">
3. Conhecimento avançado de Python (scripts ETL, processamento de dados) e SQL (modelagem e consulta de dados estruturados);
">
4. Proficiência na criação de visualizações de dados e dashboards utilizando Apache Superset ou ferramentas de BI semelhantes;
">
5. Familiaridade com plataformas de financiamento do comércio, ERPs ou sistemas de controlo logístico;
">
6. Experiência com infraestruturas de dados baseadas na cloud (AWS, GCP ou Azure).
">
7. Fluência em inglês.
">
8. Disponibilidade para regime híbrido, trabalhando 2 dias por semana no escritório do cliente, no Porto.
">
Ao assumir esta posição, você contribuirá diretamente para a evolução da nossa capacidade de tomar decisões informadas e aumentar a eficiência das nossas operações.
">
Você será responsável por:
">
">
9. Arquitetar e implementar pipelines de dados em tempo real para processar documentos comerciais, transações financeiras e eventos de expedição;
">
10. Desenvolver modelos de dados escaláveis para apoiar a análise das finanças comerciais, o controlo da exposição ao crédito, os fluxos de trabalho de pagamento e o desempenho logístico;
">
11. Incorporar dados de diferentes sistemas, incluindo ERPs, plataformas bancárias, redes de remessa e fontes de dados alfandegários usando Kafka e APIs;
">
12. Otimizar o processamento de dados distribuído com Apache Spark e Flink para fornecer informações precisas e atempadas sobre dados comerciais;
">
13. Criar dashboards interativos e análises operacionais utilizando Apache Superset para as partes interessadas em finanças, conformidade e logística.
">
Também oferecemos retribuição ajustada à tua experiência e performance. Acesso ilimitado a formação tecnológica em modalidade livre.
">
No nosso ambiente, os valores são responsabilidade e compromisso com a qualidade do trabalho. Se te reconheces nestes valores, está aqui a sua chance!