Desenvolver, implementar e manter pipelines de dados robustos, escaláveis e confiáveis em ambiente AWS;
Atuar na migração segura e eficiente de grandes volumes de dados e workloads de GCP e On-Premise para AWS, garantindo integridade, segurança e mínima indisponibilidade;
Construir e orquestrar pipelines utilizando Apache Airflow e DBT, apoiando processos de transformação, validação e governança dos dados;
Utilizar serviços e tecnologias como Amazon S3, AWS Lambda, Kubernetes, Snowflake e ferramentas de orquestração;
Monitorar continuamente a performance dos pipelines, realizando otimizações para melhoria de desempenho e redução de custos;
Trabalhar de forma colaborativa com arquitetos, engenheiros e áreas de negócio, garantindo alinhamento com requisitos funcionais, não funcionais e de compliance.
Requirements
Experiência em AWS e migração de dados para cloud;
Vivência com GCP e/ou ambientes On-Premise;
Domínio de pipelines ETL/ELT, orquestração e automação;
Experiência com Apache Airflow, DBT e Python;
Conhecimento em arquiteturas de dados modernas (Data Lake, Lakehouse);
Experiência com bancos de dados analíticos como Snowflake;
Conhecimento em governança, segurança e boas práticas de engenharia de dados.