Estamos em busca de um(a) Engenheiro(a) de Dados Sênior com sólida experiência em plataformas de dados em nuvem, especialmente no ecossistema Google Cloud Platform (GCP). Este(a) profissional será responsável por projetar, construir, manter e monitorar pipelines de dados escaláveis e resilientes, garantindo alta performance, governança e confiabilidade das informações em ambientes analíticos.
Principais Competências Técnicas
- Experiência sólida em engenharia de dados em nuvem com foco em Google Cloud Platform (GCP), utilizando serviços como BigQuery, Cloud Storage, Dataflow, Dataproc, Pub/Sub, Cloud Functions e Composer.
- Experiência no desenvolvimento e otimização de pipelines de ingestão, transformação e processamento de dados em larga escala.
- Vivência com Databricks ou Spark para processamento distribuído de dados.
- Implementação de observabilidade em pipelines de dados, utilizando ferramentas de monitoramento, logging, métricas e alertas para garantir qualidade e confiabilidade das informações.
- Experiência na criação de frameworks e templates reutilizáveis para orquestração e padronização de pipelines de dados.
- Práticas de CI/CD aplicadas a projetos de dados, incluindo versionamento de código, automação de deploys e integração contínua.
- Aplicação de boas práticas de engenharia de dados, como modelagem de dados, particionamento, governança, catalogação e segurança da informação.
- Experiência com arquitetura e otimização de performance em Power BI, incluindo modelagem de dados, DAX, governança de workspaces e boas práticas para ambientes corporativos.
- Gestão de acessos, identidade e integração entre ambientes (IAM, políticas de segurança e governança de dados).
Diferenciais Desejáveis
- Certificações Google Cloud (GCP), como Professional Data Engineer ou Professional Cloud Architect.
- Experiência com grandes volumes de dados (Big Data) e arquiteturas orientadas a eventos.
- Conhecimento em ferramentas como Apache Airflow / Cloud Composer, dbt, Spark ou outras soluções de orquestração e transformação de dados.
- Experiência com arquiteturas modernas de dados (Data Lake, Lakehouse, Data Mesh).
- Mentalidade DevOps/DataOps, com foco em automação, qualidade e confiabilidade de pipelines.