Senior Database Engineer
¿Te interesa esta posición?
Postúlate ahora y forma parte de Mercado Libre
Descripción del puesto
Como
**Data Engineer**
en Mercado Libre, diseñarás y escalarás sistemas innovadores y seguros que resuelven problemas reales y de alto impacto. Trabajarás en un entorno dinámico con tecnología de vanguardia, aplicando buenas prácticas de ingeniería, modelos de IA propios y aprendizaje continuo, con el propósito de democratizar el comercio electrónico y los servicios financieros en América Latina.
**Imagináte emprendiendo proyectos desafiantes, dinámicos e innovadores y siendo responsable de:**
- Diseñar construir y escalar pipelines de datos ETL y ELT que soporten casos de uso productivos de analítica y machine learning asegurando eficiencia y confiabilidad en entornos de alto volumen.
- Construir y evolucionar datasets confiables que habiliten la toma de decisiones y el entrenamiento de modelos garantizando calidad consistencia y disponibilidad.
- Proponer y desarrollar arquitecturas de datos modernas como data warehouse o lakehouse en entornos cloud optimizando performance y escalabilidad según las necesidades del negocio.
- Asegurar la calidad de los datos mediante validaciones monitoreo manejo de fallas y prácticas de observabilidad contribuyendo a sistemas robustos y resilientes.
- Optimizar queries y pipelines para trabajar eficientemente sobre grandes volúmenes de información mejorando tiempos de respuesta e impacto en productos productivos.
**¿Qué buscamos en vos?**
- Poseer experiencia construyendo pipelines de datos en producción ETL o ELT con conocimientos en procesamiento de datos batch o streaming.
- Demostrar experiencia trabajando con orquestadores de workflows como Airflow o Dagster y arquitecturas modernas de datos como data warehouses o lakehouse.
- Dominar SQL para grandes volúmenes de datos aplicando window functions y optimización de queries.
- Contar con experiencia en Python para el desarrollo de sistemas productivos integrando programación orientada a objetos testing y buenas prácticas.
¿Te animás a dejar huella en la tecnología de América Latina?
¡Postulate y sumate a nuestro propósito!
Modalidad de trabajo híbrida.
**Site Argentina, Buenos Aires**
Requisitos
- Diseñar construir y escalar pipelines de datos ETL y ELT que soporten casos de uso productivos de analítica y machine learning asegurando eficiencia y confiabilidad en entornos de alto volumen.
- Construir y evolucionar datasets confiables que habiliten la toma de decisiones y el entrenamiento de modelos garantizando calidad consistencia y disponibilidad.
- Proponer y desarrollar arquitecturas de datos modernas como data warehouse o lakehouse en entornos cloud optimizando performance y escalabilidad según las necesidades del negocio.
- Asegurar la calidad de los datos mediante validaciones monitoreo manejo de fallas y prácticas de observabilidad contribuyendo a sistemas robustos y resilientes.
- Optimizar queries y pipelines para trabajar eficientemente sobre grandes volúmenes de información mejorando tiempos de respuesta e impacto en productos productivos.
Tech Stack
Beneficios
Note: El contenido del trabajo se muestra en español como lo proporciona el empleador.