Diseñar y construir pipelines de datos: Diseñar, construir y mantener pipelines para la ingestión, limpieza, transformación y carga (ETL/ELT) de datos desde múltiples fuentes hacia almacenes de datos y plataformas analíticas.
Administración de la infraestructura y almacenamiento de datos: Configurar y administrar bases de datos, sistemas de almacenamiento y herramientas de procesamiento.
Optimización de rendimiento y eficiencia: Identificar y resolver cuellos de botella en pipelines y sistemas de almacenamiento.
Gestión de metadatos y documentación: Desarrollar y mantener mecanismos de catalogación y documentación para conjuntos de datos, pipelines y procesos de transformación.
Seguridad, control y cumplimiento de datos: Implementar medidas de seguridad y cumplimiento para proteger la confidencialidad, integridad y disponibilidad de la información.
Colaboración e integración con equipos y productos: Trabajar de forma articulada con equipos de ciencia de datos, producto, ingeniería de software y operaciones.
Entendimiento del negocio para orientar el uso del dato: Profundizar en el conocimiento del negocio y del sector.
Requirements
Mínimo 3 años de experiencia en roles relacionados con análisis de datos, ingeniería de datos o desarrollo de soluciones analíticas.
Experiencia demostrada conectando fuentes de datos diversas, automatizando procesos y visualizando información para áreas de negocio.
Conocimiento específico en: SQL y manejo de sistemas de gestión de bases de datos como PostgreSQL, MySQL, entre otros.
Tecnologías de almacenamiento de datos, incluyendo data lakes y/o data warehouses (Redshift, BigQuery, Snowflake).
Programación: Manejo de Python para automatización, ETL y análisis.
Herramientas de orquestación de flujos de datos como Airflow o similares.
Visualización: Desarrollo de dashboards en Qlik (preferible), Power BI o Tableau.
Integración de datos desde múltiples fuentes: APIs, archivos planos, sistemas internos, entre otros.
Entornos de nube como AWS (S3, Redshift, Glue), GCP o Azure.