Únete a Getdata y sé parte de nuestro equipo
En Getdata buscamos un
Data Engineer
para diseñar, construir y optimizar procesos y arquitecturas de datos, contribuyendo al desarrollo de soluciones escalables que apoyen la toma de decisiones del negocio.
Misión del cargo
Diseñar, construir y mantener flujos de ingesta, transformación y procesamiento de datos utilizando herramientas de Google Cloud Platform (GCP), asegurando la calidad, disponibilidad y escalabilidad de la infraestructura de datos, con foco en el soporte a la toma de decisiones y al cumplimiento de objetivos estratégicos del negocio.
Principales funciones
- Diseñar e implementar pipelines de datos eficientes y escalables utilizando
Airflow
.
- Desarrollar y mantener procesos de ingesta de datos desde diversas fuentes.
- Modelar, transformar y administrar grandes volúmenes de datos en
BigQuery
.
- Automatizar tareas de procesamiento y flujos de datos según requerimientos de negocio.
- Colaborar con equipos de analítica, BI y desarrollo en la entrega de soluciones basadas en datos.
- Documentar procesos de ingesta, transformación y arquitectura de datos.
- Monitorear y optimizar el rendimiento de los pipelines y estructuras de datos.
- Asegurar la integridad, trazabilidad y disponibilidad de los datos tratados.
- Aplicar buenas prácticas de gobierno de datos, seguridad y cumplimiento.
- Proponer mejoras en herramientas, estructuras y procesos de datos.
Relaciones clave
- Equipo de analítica / BI:
Para entender necesidades de datos y entregar estructuras optimizadas.
- Equipos de desarrollo:
Para integrar fuentes y coordinar automatización de procesos.
- Negocio / Producto:
Para traducir requerimientos funcionales en soluciones técnicas de datos.
- Equipo de infraestructura o Cloud:
Para coordinar despliegues, accesos y permisos en GCP.
Conocimientos y habilidades requeridas
Técnicos (obligatorios):
- Google Cloud Platform (
BigQuery
,
Cloud Composer / Airflow
).
- Diseño y ejecución de
pipelines de ingesta y transformación de datos.
- SQL avanzado y manejo de grandes volúmenes de datos.
- Automatización de procesos de datos.
- Control de versiones (Git) y principios de CI/CD para flujos de datos.
Técnicos (deseables):
- GCP CloudRun
y
Workflows
para orquestación de tareas serverless.
- Conocimientos básicos en
conceptos contables o financieros.
- Experiencia con otras herramientas de orquestación o procesamiento distribuido.
- Experiencia en arquitecturas de datos en la nube.
Blandas:
- Pensamiento analítico y orientación a la resolución de problemas.
- Comunicación efectiva con equipos técnicos y no técnicos.
- Proactividad y autonomía en el desarrollo de soluciones.
- Capacidad para trabajar de forma estructurada y documentada.
- Adaptabilidad y aprendizaje continuo frente a nuevas tecnologías.
Ubicación:
Región Metropolitana de Santiago, Chile.
Modalidad:
Híbrido (1 día presencial).