Engenheiro(a) de Dados Sênior – Databricks | Airflow | AWS | ETL

Remuneração mensal:

CLT R$ 0,00 - R$ 15.000,00 / mês

|

PJ R$ 0,00 - R$ 15.000,00 / mês

Híbrido

São Paulo

Sênior

Requisitos

5+ anos de experiência na carreira

Databricks

Engenharia de dados

ETL

Tarefas e Responsabilidades

Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para integrar nosso time e atuar na construção, otimização e governança de pipelines de dados em escala. O(a) profissional terá papel fundamental no desenvolvimento de soluções de dados resilientes e de alto desempenho, apoiando decisões estratégicas de negócio por meio de uma arquitetura robusta, segura e escalável.



Responsabilidades

  • Projetar, desenvolver e otimizar pipelines de dados utilizando ferramentas de ETL/ELT modernas;
  • Implementar fluxos de orquestração de dados com Airflow e integrações entre múltiplas fontes;
  • Trabalhar em ambientes de Data Lake / Data Warehouse na AWS (S3, Redshift, Glue, Athena, entre outros);
  • Utilizar Databricks para processamento distribuído e criação de pipelines escaláveis;
  • Definir boas práticas de versionamento, testes e monitoramento de pipelines de dados;
  • Atuar na governança de dados, garantindo qualidade, consistência, segurança e compliance;
  • Colaborar com times de engenharia, produto e analytics para viabilizar soluções orientadas a dados.

Requisitos Técnicos

  • Experiência sólida em engenharia de dados em ambientes de grande escala;
  • Proficiência em Databricks (Spark, Delta Lake, notebooks colaborativos);
  • Conhecimento em orquestração de workflows com Airflow;
  • Experiência em ETL/ELT e integração de dados de múltiplas fontes;
  • Sólida vivência com AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions);
  • Domínio de SQL e Python para manipulação e transformação de dados;
  • Experiência com modelagem de dados (relacional, dimensional e big data)

Diferenciais

  • Conhecimentos em streaming de dados (Kafka, Kinesis, Spark Streaming);
  • Experiência em observabilidade e monitoramento de pipelines (Datadog, CloudWatch, Prometheus);
  • Vivência com infraestrutura como código (Terraform, AWS CDK);
  • Noções de machine learning pipelines integrados em ambientes de dados;
  • Experiência em ambientes de alta disponibilidade e grande volume transacional

Soft Skills

  • Capacidade de trabalhar em ambientes colaborativos e multidisciplinares;
  • Boa comunicação para traduzir requisitos de negócio em soluções técnicas;
  • Perfil analítico, com atenção a detalhes e foco em qualidade de dados;
  • Mentalidade de automação e busca por eficiência contínua.

O que oferecemos

  • Ambiente inovador, com autonomia e foco em resultados;
  • Projetos desafiadores com dados em larga escala;
  • Oportunidade de crescimento em um time altamente qualificado e orientado a dados.

Compartilhar vaga:

Phone

Somente arquivo pdf com o tamanho máximo de 3mb.

Compartilhar vaga: