Participación en pipelines de datos en entornos cloud
Requirements
Tecnólogo o profesional en Ingeniería de Sistemas, Software, Datos o carreras afines.
Mínimo 3 años trabajando en procesos ETL/ELT
Experiencia en integración, transformación, migración y validación de datos en entornos empresariales
Experiencia clave en Databricks: Desarrollo y ajuste de notebooks, Transformación de datos, Manejo de Spark / PySpark, Integración con Data Lake y fuentes estructuradas, Participación en pipelines de datos en entornos cloud
Conocimientos técnicos: Databricks, SQL avanzado, ETL/ELT y modelado de datos, PySpark o Spark, Azure Data Factory, Synapse y Data Lake, Integración de múltiples fuentes de datos, Calidad, validación y control de errores, Azure DevOps o herramientas de versionamiento