Ubicación: México, Colombia, Argentina
Descripción del puesto:
Buscamos un Senior Data Engineer con al menos 4 años de experiencia para unirse a nuestro equipo dinámico y en crecimiento. El candidato ideal será responsable de diseñar, construir y mantener sistemas de procesamiento de datos de alto rendimiento, asegurando la integridad y disponibilidad de los datos para diversas aplicaciones y análisis.
Responsabilidades:
- Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes.
- Implementar y gestionar sistemas de procesamiento de datos utilizando herramientas y tecnologías avanzadas.
- Colaborar con equipos de ciencia de datos, análisis y otros departamentos para comprender las necesidades de datos y proporcionar soluciones adecuadas.
- Optimizar y mejorar los sistemas de procesamiento de datos existentes para garantizar la eficiencia y la escalabilidad.
- Asegurar la calidad y precisión de los datos a través de pruebas y validaciones rigurosas.
- Documentar procesos, sistemas y arquitecturas de datos para facilitar la comunicación y el mantenimiento.
- Supervisar y solucionar problemas en los sistemas de datos para asegurar un funcionamiento continuo y sin interrupciones.
Requisitos:
Avanzado:
- Python: Sólido conocimiento en programación con Python, incluyendo la capacidad de escribir scripts y aplicaciones complejas.
- Spark: Experiencia en el uso de Apache Spark para el procesamiento de grandes volúmenes de datos.
- Data Pipelines: Capacidad para diseñar y mantener pipelines de datos robustos y escalables.
- SQL: Habilidad avanzada para escribir y optimizar consultas SQL complejas.
- Airflow: Experiencia en la orquestación de flujos de trabajo y pipelines de datos con Apache Airflow.
- Snowflake: Profundo conocimiento en el uso y la gestión de Snowflake como plataforma de almacenamiento de datos.
Intermedio:
- Databricks: Conocimiento práctico de la plataforma Databricks para análisis y procesamiento de datos.
- AWS: Experiencia en el uso de servicios de AWS para almacenamiento, procesamiento y análisis de datos.
- PySpark: Habilidad intermedia en el uso de PySpark para el procesamiento de datos.