Projetar e manter pipelines de ingestão e transformação de dados em larga escala (batch e streaming).
Garantir a qualidade, confiabilidade e integridade dos dados ao longo de todo o ciclo (testes, versionamento, monitoramento).
Implementar e evoluir arquitetura de dados em GCP (BigQuery, Cloud Storage, Pub/Sub, Composer).
Colaborar com equipes de Analytics, Produto e Engenharia para definir necessidades de dados e traduzir requisitos de negócio em soluções técnicas.
Participar da evolução das boas práticas de engenharia de dados e padronização interna de modelos, nomenclaturas e monitoramentos.
Requirements
Experiência sólida com Python e SQL (preferencialmente também Java ou Scala).
Vivência com Airflow, Airbyte ou frameworks equivalentes de orquestração e replicação.
Conhecimento de modelagem de dados e boas práticas de design (Kimball, Data Vault, Medallion).
Experiência em GCP (BigQuery, Cloud Storage, Pub/Sub, Composer, IAM).
Familiaridade com streaming (Kafka, Dataflow ou Beam) é diferencial.
Experiência com infraestrutura como código (Terraform) e pipelines de CI/CD.
Mentalidade orientada a produto e colaboração multidisciplinar.
Tech Stack
Airflow
BigQuery
Cloud
Google Cloud Platform
Java
Kafka
Python
Scala
SQL
Terraform
Vault
Benefits
Esta é uma vaga afirmativa para pessoas com deficiência (PCDs). Acreditamos que times diversos são mais fortes, criativos e representativos da sociedade. Por isso, buscamos intencionalmente atrair e incluir profissionais com deficiência em nosso time, promovendo um ambiente acessível, respeitoso e com oportunidades reais de desenvolvimento.