Diseñar, desplegar y operar plataformas de datos escalables y seguras (Data Warehouse/ Data Lake/ Lakehouse), con pipelines batch y streaming, orquestación, repositorio de código y gestión de secretos y ejeccuón de contenedores.
Definir y desplegar Data Lake / Data Warehouse / Lakehouse (por ejemplo: S3, Redshift/BigQuery/ClickHouse) Modelado de datos.
Entender y configurar los sistemas de ejecucción detrás de Airflow Integración con Data Lake/DWH, orquestador, repositorio Git, gestión de secretos (AWS Secrets Manager)
Infra as Code (CI/CD)
Dockerización de jobs/algoritmos (Docker Executor o KubernetesExecutor con Airflow)
Requirements
Experiencia trabajando con DWH y modelado de datos
Experiencia con proyectos completos de analítica de datos
Experiencia CI/CD
Tech Stack
Airflow
Amazon Redshift
AWS
BigQuery
Docker
Benefits
Modalidad de trabajo híbrido
Planes de carrera y formaciones en habilidades técnicas y blandas
Sistema de retribución flexible (tickets restaurante y transporte)
Horas semanales dedicadas al aprendizaje y discusión de tecnologías innovadoras
Posibilidad de formar parte a una starup innovadora de ciencias de datos con proyectos increibles en marcha
Actividades extralaborales: paintball, afterworks, lase tag, voley playa y mucho más