Geekhunter Logo

Soluções

Casos de uso

Por que a Geekhunter?

Recursos

Login

Português

PT

Avanade


São Paulo - SP, Brasil

Consultor(a) Data Engineer Senior | Snowflake

Remoto na cidade

São Paulo - SP

Faixa de Remuneração

Não informada

Nível de Experiência

Líder/Coordenador

Requisitos

4+ anos de experiência na carreira
Snowflake
DBT
Embulk
Meltano
SQL
Python

Tarefas e Responsabilidades

A posição de Consultor(a) Sênior Data Engineer (Snowflake) tem papel essencial na construção de soluções de dados modernas, escaláveis e seguras, apoiando projetos estratégicos e contribuindo diretamente para decisões mais inteligentes, operações otimizadas e experiências digitais avançadas. Esta pessoa será fundamental para fortalecer nossa capacidade analítica e acelerar a adoção de tecnologias de ponta no ecossistema de dados.


Responsabilidades:

  • Projetar, desenvolver e manter pipelines de dados robustos, escaláveis e de alta performance.
  • Implementar e otimizar modelos e estruturas de dados na plataforma Snowflake, garantindo eficiência, governança e segurança.
  • Construir processos de ingestão, transformação e integração de dados usando ferramentas como DBT, Snowpipe, Embulk, Meltano ou similares.
  • Assegurar a qualidade dos dados por meio de testes, validações e monitoramento contínuo dos pipelines.
  • Otimizar consumo, armazenamento e performance no Snowflake (warehouses, clustering, caching, micro-particionamento, access control).
  • Apoiar iniciativas de arquitetura de dados e evolução da plataforma analítica.
  • Implementar métricas e processos eficazes de monitoramento e observabilidade.
  • Expor dados para usuários finais por meio de ferramentas como Power BIAzure API Apps ou outras plataformas modernas de visualização.

.

Habilidades e experiências: 

  • Experiência sólida com Snowflake (warehouses, databases, schemas, roles, Snowpipe, streams, tasks, optimizações). 
  • Forte conhecimento em SQL (otimização, modelagem, análise). 
  • Experiência com linguagens como Python ou Scala para pipelines e orquestração. 
  • Experiência comprovada em ferramentas de ETL/ELT e transformação de dados, preferencialmente DBT
  • Experiência com pipelines em nuvem (Azure, AWS ou GCP). 
  • Conhecimento em versionamento (Git) e práticas de CI/CD. 
  • Experiência com modelagem de dados (dimensional, relacional e data lakes). 
  • Experiência com ferramentas de ingestão como EmbulkMeltano ou similares. 

Compartilhar vaga:

Phone

Somente arquivo pdf com o tamanho máximo de 3mb.

Compartilhar vaga:

Geek Logo

Rod. José Carlos Daux - SC 401, 4120 - km 4, Bairro Saco Grande - Florianópolis - SC - CEP 88032-005,

PARA DEVS

Blog de TIArrow Square Out
People First Badge