Buscamos un Data Engineer SSR
Funciones del cargo
1. Diseñar, construir y mantener pipelines de ingesta y transformación de datos en GCP.
2. Dar soporte a desarrollos de data pipelines en ambientes de prueba y producción.
3. Optimizar consultas y procesos en BigQuery.
4. Resolver incidencias, errores o cuellos de botella en procesos ETL.
5. Participar en mejoras de la arquitectura de datos y asegurar prácticas de versionado y despliegue con CI/CD.
6. Documentar soluciones técnicas, flujos y dependencias entre componentes.
7. Participar activamente en ceremonias ágiles del equipo (dailys, refinamientos, retrospectivas).
Requerimientos del cargo
Google Cloud Platform (GCP):
• BigQuery
• Cloud Storage
• Pub/Sub
• Composer (Airflow)
• Dataproc
• Cloud Run
1. Lenguajes de programación:
• Python (scripts, ETL, API integration)
• Java (preferencia para conectores, SDKs, o entornos específicos)
1. Contenedores y Orquestación:
• Docker
• Kubernetes (GKE o experiencia general)
1. Frameworks / Herramientas:
• Apache Beam (usado con Dataflow)
• Apache Airflow
• Git / GitLab CI-CD
1. Conocimientos base en bases de datos y formatos de datos:
• SQL avanzado
• NoSQL (ej.
Firestore, MongoDB)
• Formatos: AVRO, JSON, Parquet
1. Otros conocimientos valorados:
• Monitoreo y observabilidad: Cloud Logging
• Buenas prácticas DevOps / Infraestructura como Código (Terraform opcional)
Condiciones
Modalidad de contratación: Plazo fijo
Duración del proyecto: 3 meses con posible extension