Construir y mantener los componentes necesarios para soportar el ecosistema de Big Data en entornos Cloud (GCP)
Diseñar e implementar pipelines de datos, modelos, ingestas, procesos de enriquecimiento
Colaborar con áreas analíticas para la toma de decisiones
Administrar políticas de seguridad y accesos para proteger la integridad y confidencialidad de los datos.
Realizar mantenimiento de ingestas en GCP mediante Cloud Functions, Airflow / Composer.
Diseñar modelos de datos robustos, semántica, ingestas y procesos ETL.
Resolver problemas técnicos en el Data Lake y optimizar el rendimiento general.
Gestionar integración, limpieza, transformación y calidad de datos.
Proponer nuevas tecnologías, herramientas y mejoras continuas.
Mantenerse actualizado en tendencias de Big Data, ML y Cloud.
Requirements
Estudios universitarios o técnicos en: Ingeniería en Sistemas, Informática, Ciencias de la Computación, Sistemas de Información, Ciencia de Datos o afines.
Posgrado en informática, estadística o campos cuantitativos (Deseable)
Experiencia en diseño, implementación y mantenimiento de Data Lakes.
Dominio de Google Cloud Platform (GCP).
Orquestación con Airflow / Composer y/o NiFi.
Lenguajes SQL y NoSQL.
Programación en Python (enfocado a data engineering).
Herramientas ETL y manejo de APIs.
Principios de seguridad de datos.
Conceptos de machine learning (descriptivo).
1–2 años en roles de ingeniería de datos, creación de pipelines y modelos, gestión de data lakes.