Diseñar, desarrollar, probar y desplegar pipelines y plataformas de datos utilizando servicios de AWS.
Construir y evolucionar arquitecturas de datos como data lake, lakehouse o data mesh.
Desarrollar soluciones de datos end to end, incluyendo frameworks reutilizables y no solo pipelines individuales.
Colaborar de forma activa con perfiles de Data Engineering, Analytics y DevOps para entregar soluciones de alto valor para el negocio.
Asegurar el cumplimiento de políticas de gobierno del dato, seguridad y gestión de la información.
Liderar la resolución de incidencias relacionadas con datos y participar en procesos de gestión del cambio, demostrando ownership de los proyectos desde su inicio hasta su entrega.
Requirements
Experiencia mínima de 5+ años trabajando en entornos Cloud.
Sólidos conocimientos en Spark (Scala), Python y SQL.
Experiencia demostrable en AWS, especialmente con S3, Glue, Athena, EMR, EC2 y Lambda.
Conocimiento profundo de diseño de ETL y modelado de datos.
Capacidad para entender procesos end to end y tomar decisiones técnicas adecuadas según el contexto.
Pensamiento analítico orientado a identificar casos límite y retos de escalabilidad futuros.
Titulación universitaria en carreras tecnológicas, preferiblemente Ingeniería Informática o similar.
Nivel de Inglés Avanzado
Tech Stack
AWS
Cloud
EC2
ETL
Python
Scala
Spark
SQL
Benefits
Contrato indefinido con salario competitivo
Modalidad flexible y posibilidad de trabajo remoto.
Plan de carrera personalizado y formación continua
Participación en proyectos estables con alto componente técnico.
Flexibilidad horaria y enfoque en la conciliación.