**Descripción**: **Misión**: Administrar, optimizar, supervisar y monitorear la recuperación, el almacenamiento y la distribución de datos en todos los sistemas involucrados, extrayendo información desde las bases de datos de producción o bases de datos externas y cargando dicha información en sistemas de análisis usados por el equipo de data science bien sea para procesos orquestados o en streaming, para así reportar resultados a clientes internos o externos. **Responsabilidades**: - Obtener datos, teniendo en cuenta bases de datos transaccionales, desde streamings, desde APIS externos, desde sistemas de archivos en la nube, para enriquecer bases de datos transaccionales o para procesos en los que se relicen modelos predictivos o de inteligencia de negocio. - Desarrollar los procesos establecidos de data, construyendo, probando y manteniendo diferentes arquitecturas, usando herramientas en la nube tales como Cassandra, Hadoop, Spark, Flink y lenguajes de programación, utilizando grandes conjuntos de datos e identificando formas de mejorar la confiabilidad, eficiencia y calidad de los datos, para preservar la integridad de la información. - Diseñar y mantener una bodega de datos para la organización, Llevando a cabo investigaciones para cuestiones del negocio y de la industria que parten de los lineamientos de Producto y modelando cada uno de los segmentos establecidos por producto y definiendo los patrones que se llevarán en la bodega de datos, creando un modelo de entidad-relación en su gran mayoría definido por el star pattern, para facilitar el entendimiento de segmentos del negocio de los stakeholders y analistas de datos. - Implementar programas de análisis sofisticados y métodos estadísticos, de acuerdo con los requerimientos del Data Scientist o del analista de datos, hacer tratamientos estadísticos de los datos y darles visibilidad en la bodega de datos, para facilitar el entendimiento de segmentos del negocio de los stakeholders y analistas de datos. - Administrar cronjobs, de acuerdo con los requerimientos de los stakeholders, las necesidades del negocio, haciendo uso de herramientas como airflow y programando flujos de automatización por medio de Python, para descubrir tareas que puedan automatizarse que permitan reducir el porcentaje de error y la carga operativa. **Requisitos**: **Formación**:Ingeniería de Sistemas, ciencias de la computación, sistemas de información, matemáticas o afines. **Conocimientos**: - Conocimiento en construcción y mantenimiento de sistemas de base de datos. - Conocimientos básicos en lenguajes de programación como SQL, Python o R. - Conocimiento de búsqueda de soluciones de almacenamiento y en el uso de herramientas -ETL (Extracción, Transferencia, Carga). - Deseable:_ - Conocimiento de algoritmos y estructuras de datos. - Conocimiento básico de aprendizaje automático y algoritmos. - Conocimiento básico en metodologías ágiles. **Habilidades**: Inglés A2 **Experiência**:+ 3 años de experiência como ingeniero de datos o funciones similares. **Competencias**: - Comunicación Asertiva - Trabajo Colaborativo - Orientación al logro - Competencia Técnica