¿Quiénes somos? En APIUX nos identificamos como una fábrica de talento con una fuerte orientación de negocio donde continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos, y exponer modelos de negocio innovadores enfocados en cubrir siempre, con una propuesta de valor, las necesidades de nuestros clientes. ¿Qué hacemos? Posicionamos al mejor talento, dándole un enfoque estratégico y nos esforzamos por entender a fondo la cultura y valores de cada uno de nuestros clientes para así hacer el match perfecto entre cliente y talento. Además nos aseguramos de brindar una experiencia de candidato y Employee experience ejemplar para nuestros futuros Happeners. Ser Happeners significa pertenecer a una familia con principios integrales donde el espíritu ágil, colaborativo, innovador y deportivo son el combustible que inyectamos en nuestro corazón día a día para hacer las cosas cada vez mejor. Objetivo del cargo: Diseñarás y mantendrás la arquitectura de datos serverless para el proyecto: ingestión, preprocesamiento masivo de imágenes, almacenamiento y versionado. Garantizarás escalabilidad, alta disponibilidad y calidad de datos para alimentar modelos de IA y flujos ETL. ¿Cuáles serán tus funciones? - Pipelines ETL/ELT: Orquestar con Airflow/Kubeflow o Step Functions + Lambda la ingesta desde on-premise (DataSync/Storage Gateway) y preprocesamiento (NVIDIA DALI/RAPIDS). - Bases de datos: Diseñar y administrar S3 (artefactos), RDS MySQL (datos finales) y bases vectoriales (pgvector, Milvus). - Versionamiento: Implementar DVC, LakeFS o Pachyderm para datos y modelos. - Monitorización: Configurar Prometheus/Grafana y Evidently AI para métricas de integridad, performance y drift. - Optimización: Afinar consultas, particionamiento y uso de GPU para pipelines de imágenes. - Colaboración: Trabajar codo a codo con científicos de datos para extracción eficiente de features. ¿Qué esperamos de ti para hacer un buen match? - 5–10 años en ingeniería de datos, +2 años en ML/DL/AI o visión por computador. - Dominio de Python, Airflow/Kubeflow, DALI/RAPIDS y Docker/Kubernetes. - Experiencia con bases vectoriales y relacionales en entornos on-premise y cloud. ¿Qué te haría sumar puntitos adicionales con nosotros? - Prácticas DataOps y GitOps. - Conocimientos de seguridad y cumplimiento (Ley 1581, GDPR). - Experiencia en infraestructuras multi-cuenta AWS y IaC (CloudFormation/CDK). Modalidad de trabajo: Remoto. Algunos de nuestros beneficios: - Apiux Days - Día libre en tu cumpleaños - Día libre por mudanza - Bonos por nacimiento, matrimonio y referidos - Alianzas con Open English, Coderhouse, Self Development y Y-Share - Afiliación a caja de compensación #J-18808-Ljbffr