Estamos buscando al mejor candidato para unirse a nuestro equipo en el rol de Ingeniero de Datos. Compensación: USD 1.3k - 1.6k/mes. Ubicación: Remoto (cualquier lugar). Misión de Makers Solutions: En Makers nos enfocamos en hacer más simple, ágil y seguro el mercado de valores e inversiones, combinando las mejores ideas de negocio, con estrategias inteligentes y una plataforma tecnológica que transforma y evoluciona el negocio. Mejoramos, simplificamos y rediseñamos los procesos de las entidades financieras, los administradores y los gestores de inversión, desarrollando plataformas de aplicaciones que evolucionen sus operaciones y hagan más eficiente cada proceso de su cadena de valor. ¿Qué te hace un candidato ideal? - Eres competente en Apache Spark, ETL (Extract, Transform, Load), ingeniería de datos y Python. - Español - Nativo o completamente fluido. Responsabilidades y más: Requerimientos: - Profesional con experiencia en la extracción, transformación, homologación, persistencia, consolidación y carga de datos para crear los flujos de datos, así como las estructuras dentro del datalake, los cubos y datamart, y desarrollar la lógica para cálculos, comparaciones o resumir datos para dejarlos disponibles en estructuras que pueden ser desde tabulares hasta multidimensionales de cara a los procesos de consumo y consulta de la data. - Experiencia en ingeniería de datos y bases de datos. - También podrá estar en capacidad de desarrollar APIs y funciones orientadas al uso de los datos. - Debe contar con habilidades especializadas en el consumo de los datos para disponerlos en una capa de presentación que atienda las necesidades de negocio a través de la herramienta que el cliente disponga para ello (ejemplo: Power BI o Google Data Studio). - Dominio proficiente en ETL, APIs, Power BI y computación en la nube. - Conocimientos en GCP, Python y Spark. Responsabilidades: - Desarrollar procesos de automatización, extracción, transformación, homologación y carga de datos que estén en fuentes externas (a través de APIs, archivos planos, scraping en webs o datos estructurados que estén en BD del cliente). - Tomar estos datos y cargarlos a Google Cloud Platform o a un staging (pre Raw). - Desarrollar data flows que homologuen la data y la lleven al Raw para generar los procesos de transformación en datalake. - En estos procesos se usa Spark para trabajar la data (transformación, comparación, homologación, cálculos y agregaciones). - Implementar integraciones entre servicios a través de Azure Integration Services o alguna plataforma en la nube similar. - Desarrollar servicios (APIs y web app) para procesamiento de datos o para aplicar reglas de negocio a través de Python, preferiblemente. Beneficios del trabajo: - Trabajo completamente remoto. - Día de cumpleaños libre. - Media jornada libre al mes. Tipo de puesto: Tiempo completo Pregunta(s) de postulación: - ¡Hola, soy Emma! Llevamos a cabo nuestro proceso de reclutamiento a través de la plataforma de Torre. Te enviaré un correo desde [email protected] con los detalles para que puedas continuar con tu proceso de selección y avanzar con los siguientes pasos.