¿Eres Data Engineer y te apasiona construir cimientos de datos que impulsen la toma de decisiones?
Esta es tu oportunidad
Estamos buscando un
Data Engineer
para unirse a nuestro equipo dinámico y ser un pilar fundamental en la evolución de nuestra arquitectura de datos.
En este rol, tendrás la misión de:
Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables utilizando Apache Airflow sobre
Google Cloud Platform (GCP).
Modelar nuevas estructuras de datos en BigQuery, alineándote con los requerimientos del negocio financiero y la evolución de nuestro Data Lake.
Implementar procesos end-to-end de ingesta, transformación (ETL/ELT) y validación de datos desde fuentes diversas, garantizando la máxima calidad, confiabilidad y trazabilidad.
Colaborar de forma estrecha con equipos de producto, analítica, tecnología y negocio para traducir necesidades funcionales en soluciones técnicas robustas.
Monitorear, optimizar y documentar el rendimiento de los procesos y las estructuras de datos, utilizando Confluence y GitLab para asegurar la excelencia y el trabajo colaborativo.
¿Qué buscamos en ti?
Experiencia sólida en las tecnologías clave del stack: Apache Airflow, GCP (especialmente BigQuery) y GitLab.
Fuertes conocimientos en modelado de datos, SQL y desarrollo de pipelines ETL/ELT.
Capacidad demostrada para trabajar en entornos ágiles, aplicando metodologías Scrum (dailies, planning, retrospectivas).
Mentalidad resolutiva, orientación a la mejora continua y pasión por contribuir a la evolución de una arquitectura de datos.
Excelentes habilidades de comunicación y trabajo en equipo.
Da el siguiente paso en tu carrera: