
Leão Ingenioso
Engenheiro de Dados (Intermédio/Sénior)
November 1, 2025
Tempo integral
60000 EUR
Somos Nós
Ingenious Lion é um Hub de Tecnologia Digital projetado exclusivamente para o Publicis Groupe, uma das principais agências de marketing do mundo.
À medida que a indústria do marketing continua a impulsionar a transformação digital, o Publicis Groupe capacita os seus clientes com soluções de dados inovadoras e ecossistemas de media. O Ingenious Lion tem uma missão: colaborar com as equipas globais do Publicis na criação de produtos inovadores de dados e tecnologia digital que moldarão o futuro.
O que nos torna bem-sucedidos? Dois ingredientes chave: perseguimos a excelência e aspiramos ao melhor, o que significa que cultivamos uma cultura empresarial próspera. Focamo-nos em criar um ambiente onde as pessoas não apenas trabalham; elas crescem, desafiam-se, esforçam-se por excelência e são reconhecidas pelo seu imenso valor para a equipa.
Se está curioso para saber mais sobre nós, aqui estão quatro coisas que deve saber:
- A nossa cultura de empresa está ancorada em cinco valores poderosos: Alegria, Honestidade, Conectividade, Own Challenger e Um Mundo Melhor. Estes valores ressoam consigo?
- Estamos comprometidos com a diversidade e inclusão porque acreditamos que as nossas diferenças únicas nos tornam mais fortes.
- Encorajamos a comunicação aberta e criamos um ambiente onde a voz de todos é ouvida e cada contribuição é valorizada.
- Finalmente, estamos de certa forma “obcecados” pela qualidade. Acreditamos na aprendizagem contínua e na partilha de conhecimentos; quando encontramos um obstáculo, não apenas reclamamos—criamos soluções para o superar.
Em uma frase, somos um grupo de pessoas com uma aptidão invulgar para gerar grandes ideias, conceitos inovadores e infundi-los com energia positiva e boa disposição.
Já se sente Ingenioso?
Uma Pré-visualização do Seu Futuro Papel
Como Engenheiro de Dados, a sua missão é desenhar, construir e otimizar soluções de dados que suportem a transição para uma arquitetura moderna de Lakehouse. Trabalhará na criação de workflows de dados eficientes, assegurando que a informação é fiável, estruturada e pronta para impulsionar a tomada de decisão em toda a organização.
Este papel foca-se em possibilitar o movimento e a transformação de dados de forma fluida, combinando a flexibilidade de um data lake com o desempenho de um armazém de dados. Você desempenhará um papel fundamental na modelagem da plataforma, fortalecendo as fundações de dados e desbloqueando oportunidades de análises avançadas.
Você assumirá a responsabilidade das soluções de dados de ponta a ponta, desde a modelagem e transformação até a automação de workflows, assegurando desempenho e qualidade. Colaborando com uma equipa internacional, alinhará a entrega técnica com as prioridades de negócios, promovendo as melhores práticas em escalabilidade, governança e fiabilidade.
Aqui Estão as Tarefas Principais em Que Trabalhará Todos os Dias
- Desenhar, construir e otimizar workflows de dados que suportem migrações e transformações em grande escala, assegurando precisão, fiabilidade e desempenho em diferentes ambientes.
- Desenvolver e manter processos que orquestrem operações de dados de ponta a ponta, permitindo o movimento e a integração eficaz de conjuntos de dados para fins analíticos e operacionais.
- Contribuir para a evolução de uma plataforma de dados moderna que combine a escalabilidade de um data lake com a estrutura e governança de um armazém de dados, suportando a arquitetura Lakehouse.
- Colaborar com colegas em um ambiente ágil, alinhando a entrega técnica com as prioridades de negócios e assegurando que as soluções sejam adequadas ao propósito.
- Assumir a responsabilidade pelo monitoramento, resolução de problemas e melhoria dos workflows de dados, aprimorando continuamente os processos para eficiência, escalabilidade e resiliência.
Estamos Entusiasmados em Ter Você Considerando Juntar-se à Nossa Equipa. Aqui Estão as Qualificações Que Estamos à Procura
- Pelo menos três anos de experiência com Bases de Dados e criação de pipelines de dados escaláveis.
- Experiência em projetar e manter pipelines de dados escaláveis com Databricks, incluindo notebooks e jobs para suportar processos ETL.
- Proficiência em SQL, Python (com PySpark) e Databricks.
- Experiência prática com AWS Redshift, incluindo proficiência em Redshift SQL.
- Sólido entendimento das arquiteturas modernas de dados, particularmente o modelo Delta Lakehouse.
- Conhecimento de conceitos de armazém de dados e data lake, com experiência prática na preparação e gestão de tabelas de dados.
- Fortes habilidades de comunicação em inglês, tanto escritas como faladas.
Competências Que o Tornariam Ainda Mais Brilhante!
- Você está familiarizado com Terraform, incluindo automação de workflow e configuração (baseada em YAML).
- Você conhece conceitos de infraestrutura como código e gestão estruturada de workflows.
- Você teve envolvimento anterior com Airflow e Dagster.