Engenheiro(a) de Dados com foco em Arquitetura de Dados e Cloud

Remuneração mensal:

R$ 18.000,00 a R$ 23.000,00 / PJ

Remoto

(Qualquer lugar)

Sênior

Requisitos

4+ anos de experiência na carreira

Python

Apache

SQL

Google Cloud

GoodData

ETL

API REST

Tarefas e Responsabilidades

Estamos em busca de um(a) Engenheiro(a) de Dados com habilidades em arquitetura de dados e cloud para integrar nosso time. O(a) profissional será responsável por projetar, implementar e otimizar pipelines de dados em ambientes cloud, além de contribuir com a definição de arquiteturas escaláveis e robustas para atender às necessidades estratégicas de dados da empresa.


Responsabilidades:

  • Projetar e implementar arquiteturas de dados escaláveis e seguras em ambientes cloud-first (Google Cloud Platform).
  • Desenvolver e gerenciar pipelines de ETL/ELT para processamento de grandes volumes de dados estruturados e não estruturados.
  • Orquestrar fluxos de dados utilizando Apache Airflow (Google Cloud Composer).
  • Criar soluções eficientes de processamento de dados com PySpark, Python e BigQuery.
  • Definir padrões e boas práticas para pipelines de dados, armazenamento, segurança e acesso.
  • Criar e otimizar consultas SQL para suporte a análises de dados e relatórios.
  • Conectar diferentes fontes de dados por meio de APIs RESTful e integrações customizadas.
  • Colaborar com equipes multidisciplinares para integrar os dados em ferramentas de BI (Google Data Studio) e outras plataformas de visualização.
  • Garantir a governança dos dados, com foco em qualidade, confiabilidade e rastreabilidade.
  • Participar da definição e implementação de estratégias de monitoramento e alertas para pipelines e sistemas de dados.
  • Contribuir para decisões estratégicas sobre arquitetura e escolha de tecnologias cloud.



Requisitos:

  • Experiência em arquitetura de dados e design de sistemas escaláveis em cloud.
  • Conhecimento em Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub, Google Composer, IAM, entre outros).
  • Experiência em arquiteturas orientadas a eventos (event-driven) com Pub/Sub ou Kafka.
  • Domínio de Apache Airflow (Google Cloud Composer) para orquestração de workflows de dados.
  • Experiência sólida com Python, PySpark e desenvolvimento de pipelines robustos.
  • Conhecimento avançado em SQL para consultas e modelagem de dados.
  • Experiência com consumo e integração de dados via APIs RESTful.
  • Familiaridade com conceitos de governança de dados, como segurança, privacidade e controle de acesso.
  • Capacidade de projetar e implementar soluções para ambientes de alta disponibilidade e escalabilidade.
  • Conhecimento em ETL/ELT e práticas modernas de engenharia de dados.
  • Experiência com ferramentas de BI, como Google Data Studio ou outras.
  • Habilidade em criar documentação técnica clara e detalhada sobre soluções implementadas.


Compartilhar vaga:

Phone

Somente arquivo pdf com o tamanho máximo de 1mb.

Compartilhar vaga: