Senior Data Engineer

Wizeline

Full Time
💻 Programación
Python
Servicios de AWS
AWS
Remoto 🌎
Aug 8
Encontra más trabajos de la misma categoría aquí
💻 Programación
Compartir este trabajo! 

Ubicación: México, Colombia, Argentina


Descripción del puesto:

Buscamos un Senior Data Engineer con al menos 4 años de experiencia para unirse a nuestro equipo dinámico y en crecimiento. El candidato ideal será responsable de diseñar, construir y mantener sistemas de procesamiento de datos de alto rendimiento, asegurando la integridad y disponibilidad de los datos para diversas aplicaciones y análisis.


Responsabilidades:

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes.
  • Implementar y gestionar sistemas de procesamiento de datos utilizando herramientas y tecnologías avanzadas.
  • Colaborar con equipos de ciencia de datos, análisis y otros departamentos para comprender las necesidades de datos y proporcionar soluciones adecuadas.
  • Optimizar y mejorar los sistemas de procesamiento de datos existentes para garantizar la eficiencia y la escalabilidad.
  • Asegurar la calidad y precisión de los datos a través de pruebas y validaciones rigurosas.
  • Documentar procesos, sistemas y arquitecturas de datos para facilitar la comunicación y el mantenimiento.
  • Supervisar y solucionar problemas en los sistemas de datos para asegurar un funcionamiento continuo y sin interrupciones.


Requisitos:


Avanzado:

  • Python: Sólido conocimiento en programación con Python, incluyendo la capacidad de escribir scripts y aplicaciones complejas.
  • Spark: Experiencia en el uso de Apache Spark para el procesamiento de grandes volúmenes de datos.
  • Data Pipelines: Capacidad para diseñar y mantener pipelines de datos robustos y escalables.
  • SQL: Habilidad avanzada para escribir y optimizar consultas SQL complejas.
  • Airflow: Experiencia en la orquestación de flujos de trabajo y pipelines de datos con Apache Airflow.
  • Snowflake: Profundo conocimiento en el uso y la gestión de Snowflake como plataforma de almacenamiento de datos.


Intermedio:

  • Databricks: Conocimiento práctico de la plataforma Databricks para análisis y procesamiento de datos.
  • AWS: Experiencia en el uso de servicios de AWS para almacenamiento, procesamiento y análisis de datos.
  • PySpark: Habilidad intermedia en el uso de PySpark para el procesamiento de datos.


APLICAR
Buscando mas trabajos? Ver todos acá
Lee nuestra guia definitiva para conseguir trabajo
Guía para conseguir trabajo

WeRemoto. Encuentra los mejores trabajos remotos.