¡Sé parte de Stefanini! En Stefanini somos más de 30.000 genios, conectados desde 41 países, haciendo lo que les apasiona y co-creando un futuro mejor. **Responsabilidades y atribuciones** Ingeniero de dato más operativo**, es decir limpieza de datos, calidad de datos, conciliaciones, reportes, identificar data que puedan eliminar entre otros. - Diseñar, desarrollar y mantener canales de datos y procesos ETL para garantizar el flujo eficiente y confiable de datos desde diversas fuentes a nuestro almacén de datos. - Colaborar con científicos de datos, analistas y otras partes interesadas para comprender los requisitos de datos y traducirlos en soluciones técnicas. - Realizar modelado de datos y diseño de bases de datos para optimizar el almacenamiento y la recuperación de datos. - Implementar procesos de validación y calidad de los datos para garantizar la precisión e integridad de los datos. - Supervisar y solucionar problemas de sistemas y canalizaciones de datos para identificar y resolver cualquier problema o cuello de botella. - Desarrollar y mantener documentación para procesos, sistemas y mejores prácticas de ingeniería de datos. - Manténgase actualizado con las últimas tendencias y tecnologías en ingeniería de datos y recomiende mejoras para mejorar la infraestructura y los sistemas de datos. **Requisitos y calificaciones** - Programación: Buscamos experiência en programación, preferiblemente en Python, aunque se valorará experiência en Java u otros lenguajes. En el caso de Python, es un plus importante si estás familiarizado con librerías como Pandas, PySpark, NumPy, entre otras. - Conocimientos de ETL: Herramientas como Streamsets, IBM DataStage, Talend y Apache NiFi. Más allá de las herramientas específicas, buscamos a alguien que pueda demostrar conocimientos en el diseño, desarrollo y mantenimiento de procesos eficientes de extracción, transformación y carga (ETL). - Tecnologías de la nube: Experiência en AWS, Azure, Google Cloud o plataformas similares. También es deseable el conocimiento de herramientas seguras de gestión de credenciales y secretos como CyberArk o Secrets Manager. - Plataformas de Analítica Unificada: Se requiere conocimiento de plataformas como AWS Glue o DataProc. Es altamente deseable contar con Databricks, y es un plus importante si tienes experiência con Databricks, específicamente en Unity Catalog o Job Management, creando workflows en Databricks, Delta Lake. - Bases de datos y SQL: Experiência en desarrollo de procedimientos almacenados, funciones, vistas lógicas y triggers. Optimización de consultas para mejorar el rendimiento en entornos de datos a gran escala. - Visualización y Reportes: Desarrollo de reportes interactivos, creación de dashboards personalizados y optimización de modelos de datos para mejorar el rendimiento de consultas, principalmente utilizando PowerBI. Se valora conocimiento de Tableau o herramientas similares. - Conocimiento de trabajo con metodología Scrum. Somos una empresa global con 35 años de experiência en el mercado, ofrecemos una sólida selección de servicios como: automatización, nube, Internet de las cosas (IoT) y experiência de usuario (UX). Creemos que la tecnología puede revolucionar una empresa y la innovación es fundamental para fomentar el desarrollo y la competitividad. También valoramos las nuevas ideas y el poder de una mente abierta, por lo que reconocemos que cada talento es esencial para la calidad de nuestros proyectos y especialmente para nuestro progreso. Mantenemos nuestra excelencia invirtiendo en innovaciones tecnológicas, las mejores alianzas, adquisiciones de empresas en todo el mundo y la contratación de profesionales altamente capacitados.