¿Quiénes somos? Kashio es una empresa que desarrolla tecnología financiera para ayudar a las empresas a adoptar pagos digitales y automatizar sus operaciones financieras de cuentas por cobrar y cuentas por pagar. Prestamos servicios a más de 400 empresas en sectores como educación, finanzas, administración de propiedades y servicios públicos, con la meta de expandirnos a cinco mercados en los próximos dos años. Nos destacamos por ofrecer soluciones innovadoras, seguras e intuitivas, con un equipo apasionado que impulsa la inclusión financiera y la eficiencia operativa. ¿A quiénes buscamos? Buscamos un Data Engineer con experiencia en el ecosistema fintech y en la construcción de pipelines de datos. Este perfil será clave para liderar la estrategia de datos, asegurando la calidad y eficiencia en nuestros procesos de ingesta y transformación de datos. ¿Qué es lo que harás? Liderazgo Técnico y Estrategia de Datos: - Definir, diseñar y mantener pipelines de datos robustos y escalables para ingesta, transformación y carga (ETL/ELT) utilizando mejores prácticas y patrones modernos. - Establecer estándares de codificación, diseño modular y buenas prácticas para el desarrollo de procesos de datos. - Investigar, evaluar e implementar nuevas herramientas y tecnologías (on-premise o cloud) para mejorar la eficiencia, confiabilidad y trazabilidad de los flujos de datos. - Liderar la integración de pipelines en flujos de CI/CD y fomentar una cultura “DataOps” en el equipo. Desarrollo y Mantenimiento de Soluciones de Datos: - Diseñar, implementar y mantener flujos de datos utilizando herramientas como Apache Airflow, DBT, Spark, y servicios de nube (Dataflow, Glue, Synapse). - Crear scripts y procesos ETL/ELT reutilizables y configurables mediante metadatos. - Optimizar queries y estructuras de datos en warehouses como BigQuery, Redshift, o Azure Synapse. - Asegurar calidad de datos mediante validaciones automáticas, testing continuo y alertas proactivas. Mentoría y Desarrollo del Equipo: - Mentorizar a otros ingenieros (datos, QA, backend) en patrones de diseño de datos, transformación eficiente y herramientas como DBT o Airflow. - Fomentar buenas prácticas en ingeniería de datos dentro del equipo de desarrollo. - Facilitar sesiones de capacitación interna sobre herramientas cloud, prácticas ETL modernas y herramientas de monitoreo. Colaboración y Proceso: - Colaborar estrechamente con equipos de desarrollo, DevOps y producto para entender necesidades de datos desde fases tempranas del desarrollo. - Participar activamente en ceremonias ágiles (planning, dailies, retros) como miembro técnico clave. - Asegurar la trazabilidad de los datos desde origen hasta capa de consumo (lineage). Métricas y Calidad de Datos: - Definir y dar seguimiento a métricas clave como: latencia de pipelines, volumen procesado, calidad de datos, tasa de fallos, SLA/SLO. - Establecer dashboards de observabilidad para flujos críticos de datos. - Reportar errores, anomalías o cuellos de botella de manera clara y priorizada. Requerimientos del puesto: Formación requerida: - Grado Universitario en Ingeniería de Sistemas, Informática o Ciencias de la Computación. Deseable, maestría en Ingeniería de Datos o Big Data, Ciencia de Datos, Analítica o Inteligencia Artificial. Experiencia laboral: - Mínimo 5 años de experiencia en Ingeniería de Datos. - Mínimo 3 años diseñando y operando pipelines de datos en producción. - Experiencia trabajando en entornos ágiles y orientados a producto. - Conocimiento sólido de modelado de datos, particionamiento y gobernanza. Conocimientos técnicos obligatorios: - Programación en Python, SQL, y Spark (avanzado). - Frameworks de orquestación de datos (Airflow, Prefect). - Procesamiento distribuido (Apache Spark, PySpark). - Manejo de bases de datos relacionales y NoSQL (PostgreSQL, MongoDB, Redshift). Competencias requeridas: - Habilidades de comunicación efectiva. - Capacidad de liderazgo y mentoría. - Fuerte capacidad analítica y de resolución de problemas. - Proactividad y autonomía. Condiciones del Trabajo: - Contrato: Plazo fijo con posibilidad de renovación. - Modalidad: Remoto. - Horario: Lunes a viernes de 9 am a 6 pm (Hora Perú). - Beneficios: Oportunidad de liderar la estrategia de datos en una fintech en crecimiento. Ambiente de trabajo dinámico, colaborativo e innovador. Posibilidades de desarrollo profesional y aprendizaje continuo. EPS 100% cubierta. Posibilidad de participar en stock options de la compañía. Tipo de puesto: Tiempo completo Pregunta(s) de postulación: - El horario de trabajo es de Lunes a Viernes de 09:00 am a 06 pm (hora peruana). Y el rango salarial es de USD 1000 a 1500. ¿Estás de acuerdo? - ¿Puedes describir un proyecto en el que hayas diseñado y mantenido pipelines de datos? ¿Cuáles fueron los principales desafíos que enfrentaste y cómo los superaste? - ¿Cómo aseguras la calidad de los datos en los procesos de ingesta y transformación? ¿Qué herramientas o metodologías has utilizado para implementar validaciones y pruebas? - ¿Qué experiencia tienes con la implementación de herramientas de orquestación de datos como Apache Airflow o Prefect? ¿Cómo las has utilizado para mejorar la eficiencia de los flujos de trabajo? - En tu opinión, ¿cuáles son las mejores prácticas en la ingeniería de datos y cómo las has aplicado en tus proyectos anteriores?