Referência centenária no setor automóvel e da mobilidade, o Grupo JAP representa 20 marcas automóveis, em mais de 60 pontos de venda e reparação CARBY, detém a MATRIZAUTO (maior megastore de viaturas seminovas e usadas do país) e o master franchise da rent a car SIXT em Portugal.
Nacionalmente é, também, uma referência no mercado das máquinas agrícolas e industriais e de movimentação de cargas, com o Entreposto Máquinas, representante oficial de mais de 10 marcas do setor.
Em África, o Grupo está presente em Angola, Quénia, Uganda e Tanzânia, onde é uma força em crescimento no mercado dos veículos pesados (MAN) e das máquinas agrícolas e industriais. Já em Moçambique, com a marca Entreposto, é uma referência de soluções de mobilidade, com viaturas ligeiras e pesadas, máquinas agrícolas e industriais e outros serviços adjacentes.
Fazer parte do universo JAP é um compromisso com a evolução e a diversidade de mercados, clientes, geografias, pessoas e equipas.
Se procura um desafio profissional aliciante, este projeto é para si!
Responsabilidades:
• Desenho e implementação de arquiteturas de dados em Microsoft Fabric, com foco em lakehouse e organização em camadas.
• Gestão de dados em OneLake com otimização de performance, custo e governação.
• Desenvolvimento de pipelines de ingestão e orquestração para integrar dados de múltiplas fontes (batch e streaming).
• Tratamento e transformação de dados em scale, garantindo qualidade, consistência e preparação para consumo analítico.
• Suporte a analytics em tempo real e integração de dados operacionais.
• Preparação de dados para soluções de inteligência artificial e machine learning.
• Implementação de práticas de DevOps, CI/CD e gestão de ambientes.
• Monitorização contínua, resolução de problemas e otimização de performance em toda a plataforma de dados.
Perfil:
• Habilitações ao nível Mestrado/Licenciatura em Engenharia Informática, Ciências de Informação ou similares;
• +3 anos de experiência em data engineering, ETL e plataformas de dados
• Forte domínio de Python (valorizado PySpark) e conhecimentos sólidos de Spark e computação distribuída
• Experiência com plataformas cloud: Microsoft Fabric, Azure Data Lake Gen2, Databricks, Synapse, ecossistema Microsoft Fabric e serviços Azure (ADLS, Event Hubs, Key Vault)
• Elevada proficiência em T-SQL e KQL, incluindo otimização de queries
• Conhecimento nos serviços do Microsoft Fabric: Data Lakehouse, Data Warehouse e Real-Time Intelligence
• Conhecimento de ETL/ELT, modelação de dados e arquiteturas lakehouse (Medallion)
Oferecemos:
• Integração num Grupo sólido e credível, tendo em curso a implementação de vários projetos de crescimento;
• Formação e possibilidade de desenvolvimento profissional e pessoal;
• Oportunidade real de progressão de carreira, de acordo com o desempenho e as competências demonstradas;
• Boas condições de trabalho e regalias sociais em vigor na empresa (Seguro de Saúde e Seguro de Vida).
INFORMAÇÃO ADICIONAL:
A ARPA ajuda empresas modernas a gerar dados a uma escala sem precedentes, mas a maioria enfrenta dificuldades com sistemas fragmentados, data lakes isolados e processos de ETL frágeis. Precisam de parceiros que consigam construir plataformas de dados resilientes e escaláveis, capazes de suportar tanto as análises de hoje como as ambições de IA de amanhã.
A área de Data & Analytics da ARPA oferece exatamente isso. Utilizando o Microsoft Fabric como plataforma unificada, concebemos data lakehouses modernos que consolidam os dados empresariais, permitem obter insights em tempo real e preparam as organizações para análises potenciadas por IA. A nossa missão é tirar partido dos dados como uma vantagem competitiva central, para apoiar a tomada de decisões e impulsionar agentes de IA.
Como Data Engineer de nível intermédio, irá conceber e construir as bases modernas de dados que suportam análises à escala empresarial. Será responsável por arquitetar e implementar ambientes de lakehouse e data warehouse escaláveis, permitir o processamento de dados em tempo real e em batch, e orquestrar pipelines de dados e notebooks de ponta a ponta. Terá também um papel fundamental na definição de práticas robustas de gestão, governação e qualidade de dados — garantindo que clientes de diversos setores possam confiar, aceder e operacionalizar os seus dados para análises avançadas, reporting e insights orientados por IA. Valorizamos a certificação DP-700.