INGENIERO DE DATOS [TV243]

Sólo Para Miembros Registrados


Resumen del puesto Estamos buscando al mejor candidato para unirse a nuestro equipo en el rol de Ingeniero de Datos. En Makers nos enfocamos en hacer más simple, ágil y seguro el mercado de valores e inversiones, combinando las mejores ideas de negocio, con estrategias inteligentes y una plataforma tecnológica que transforma y evoluciona el negocio. Mejoramos, simplificamos y rediseñamos los procesos de las entidades financieras, los administradores y los gestores de inversión, desarrollando plataformas de aplicaciones que evolucionen sus operaciones y hagan más eficiente cada proceso de su cadena de valor. ¿Qué te hace un candidato ideal? - Eres competente en Apache Spark, ETL (Extract, Transform, Load), ingeniería de datos y Python. - Español - Nativo o completamente fluido. Responsabilidades y más: Requerimientos: - Profesional con experiencia en la extracción, transformación, homologación, persistencia, consolidación y carga de datos para crear los flujos de datos, así como las estructuras dentro del datalake, los cubos y datamart, y desarrollar la lógica para cálculos, comparaciones o resumir datos para dejarlos disponibles en estructuras que pueden ser desde tabulares hasta multidimensionales de cara a los procesos de consumo y consulta de la data. - Experiencia en ingeniería de datos y bases de datos. - También podrá estar en capacidad de desarrollar APIs y funciones orientadas al uso de los datos. - Debe contar con habilidades especializadas en el consumo de los datos para disponerlos en una capa de presentación que atienda las necesidades de negocio a través de la herramienta que el cliente disponga para ello (ejemplo: Power BI o Google Data Studio). - Dominio proficiente en ETL, APIs, Power BI y computación en la nube. - Conocimientos en GCP, Python y Spark. Responsabilidades: - Desarrollar procesos de automatización, extracción, transformación, homologación y carga de datos que estén en fuentes externas (a través de APIs, archivos planos, scraping en webs o datos estructurados que estén en BD del cliente). - Tomar estos datos y cargarlos a Google Cloud Platform o a un staging (pre Raw). - Desarrollar data flows que homologuen la data y la lleven al Raw para generar los procesos de transformación en datalake. - En estos procesos se usa Spark para trabajar la data (transformación, comparación, homologación, cálculos y agregaciones). - Implementar integraciones entre servicios a través de Azure Integration Services o alguna plataforma en la nube similar. - Desarrollar servicios (APIs y web app) para procesamiento de datos o para aplicar reglas de negocio a través de Python, preferiblemente. Beneficios del trabajo: - Trabajo completamente remoto. - Día de cumpleaños libre. - Media jornada libre al mes. Descripción del trabajo Lorem ipsum dolor sit amet , consectetur adipiscing elit. Nullam tempor vestibulum ex, eget consequat quam pellentesque vel. Etiam congue sed elit nec elementum. Morbi diam metus, rutrum id eleifend ac, porta in lectus. Sed scelerisque a augue et ornare. Donec lacinia nisi nec odio ultricies imperdiet. Morbi a dolor dignissim, tristique enim et, semper lacus. Morbi laoreet sollicitudin justo eget eleifend. Donec felis augue, accumsan in dapibus a, mattis sed ligula. Vestibulum at aliquet erat. Curabitur rhoncus urna vitae quam suscipit , at pulvinar turpis lacinia. Mauris magna sem, dignissim finibus fermentum ac, placerat at ex. Pellentesque aliquet, lorem pulvinar mollis ornare, orci turpis fermentum urna, non ullamcorper ligula enim a ante. Duis dolor est, consectetur ut sapien lacinia, tempor condimentum purus. Obtén acceso completo Accede a todos los puestos de alto nivel y consigue el trabajo de tus sueños. Inscríbete ahora

trabajosonline.net © 2017–2021
Más información