Role Overview
- Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
- Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
- Implementar estrategias de testing para validar calidad funcional y no funcional.
- Proponer mejoras continuas en procesos y productos de datos.
- Resolver incidencias técnicas y documentar soluciones conforme a estándares.
- Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.
Requirements
- Al menos 3 años de experiencia como ingeniero de datos.
- Experiencia en optimizacion de SQL y Spark.
- Experiencia con streaming de datos.
- Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
- Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
- Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
- Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
- Estrategias de DataOps/MLOps y despliegue CI/CD.
Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.
Tech Stack
- AWS
- Azure
- ETL
- Hadoop
- Java
- NoSQL
- Python
- Scala
- Spark
- SQL
- SSIS
Benefits
- Un contrato estable a largo plazo con oportunidades de crecimiento profesional
- Seguro médico privado
- Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
- Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
- Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
- Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
- Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso