Estamos en búsqueda de un Data Engineer con experiencia en Databricks y Python para unirse a nuestro equipo de datos.
El candidato ideal deberá ser capaz de construir, optimizar y mantener soluciones de procesamiento de datos a gran escala utilizando herramientas de vanguardia.
Es importante que el candidato también tenga un buen nivel de inglés, ya que trabajará con equipos internacionales y deberá comunicarse de manera efectiva en un entorno global.Responsabilidades: Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Databricks.
Utilizar Python y otras herramientas asociadas para realizar procesamiento y análisis de grandes volúmenes de datos.
Integrar, transformar y cargar datos (ETL) desde diversas fuentes hacia plataformas de almacenamiento (Data Lakes, Data Warehouses).
Colaborar con científicos de datos, analistas de negocio y otros equipos técnicos para entender los requisitos de los proyectos de datos y proporcionar soluciones adecuadas.
Optimizar el rendimiento de los pipelines de datos y garantizar la calidad y consistencia de los datos procesados.
Participar en el diseño y mantenimiento de la infraestructura de datos en la nube, utilizando plataformas como AWS, Azure o Google Cloud.
Implementar pruebas de validación de datos, realizar análisis de calidad de datos y asegurar la integridad de las bases de datos.
Documentar procesos, arquitecturas y procedimientos de integración de datos.
Mantenerse actualizado con las mejores prácticas y las nuevas herramientas relacionadas con ingeniería de datos, incluyendo avances en Databricks y Python.
Requirements Experiencia sólida en Databricks, especialmente en la creación de workflows y pipelines de datos.
Amplia experiencia en Python para el procesamiento de datos, incluyendo bibliotecas como pandas, numpy, pySpark, entre otras.
Conocimientos sólidos en arquitectura de datos y almacenamiento de datos (Data Lakes, Data Warehouses).
Experiencia trabajando con Apache Spark o tecnologías similares.
Familiaridad con la implementación de soluciones ETL (Extract, Transform, Load) en ambientes de producción.
Conocimientos de bases de datos SQL y NoSQL.
Buen nivel de inglés (oral y escrito), con capacidad para trabajar en un entorno internacional y comunicarte de manera efectiva con equipos globales.
Conocimiento en la nube (AWS, Azure, Google Cloud) es altamente deseable.
Habilidad para solucionar problemas complejos relacionados con el procesamiento de datos y la optimización del rendimiento.
Experiencia trabajando con herramientas de control de versiones (como Git).
Capacidad para trabajar de manera autónoma y en equipo en proyectos colaborativos.
Deseables: Conocimiento en herramientas de orquestación de workflows como Airflow o Luigi.
Experiencia con tecnologías de contenedores como Docker.
Familiaridad con metodologías ágiles de desarrollo de software (Scrum, Kanban).
Experiencia previa en la creación de modelos de Machine Learning o en la integración de datos para proyectos de AI.
Benefits100 % remoto desde cualquier país de Latinoamérica.
Pagos en dólares (USD) Acceso exclusivo a un 60% de descuento en cursos de inglés, francés, alemán, portugués e italiano gracias a nuestra colaboración con una reconocida plataforma de aprendizaje.
Descuentos especiales en planes de medicina, psicología, nutrición y entrenamiento físico.
Soporte personalizado de un Account Manager durante todo el proyecto.
Al completar tu primer proyecto, obtendrás acceso a nuestra comunidad de freelancers y una lista de proyectos exclusivos en más de 5 países, incluyendo Proyecto retador con empresa de tecnologia importante.
Sobre el contrato: Contractor/ freelance.
El cliente tiene un proyecto corto (2 meses) con potencialidad de extender a 6 merses y otro que es mínimo 12 meses (1 año)