




Resumen: BetWarrior busca un/a Ingeniero/a Senior de Datos para diseñar, construir y mantener pipelines de datos eficientes y escalables, garantizando información precisa, oportuna y segura para el crecimiento estratégico y la toma de decisiones basada en datos. Aspectos destacados: 1. Hacerse responsable de nuestra plataforma central de datos y su ecosistema 2. Diseñar, desarrollar y asumir la propiedad de pipelines de datos escalables y eficientes 3. Colaborar con analistas de BI, científicos de datos e ingenieros de software **ÚNETE A NUESTRO EQUIPO** BetWarrior es una empresa digital de juegos de última generación con una misión audaz: redefinir la forma en que las personas experimentan las apuestas deportivas y el entretenimiento de casino en toda América Latina. Con un equipo dinámico y diverso, conocimientos profundos del mercado y tecnología de vanguardia, creamos una experiencia personalizada, responsable y siempre centrada en el jugador. Excelentes profesionales, ideas audaces y un enfoque riguroso en la experiencia del usuario nos distinguen. **Propósito** Buscamos un/a **Ingeniero/a Senior de Datos** que asuma la responsabilidad de nuestra plataforma central de datos. Su misión será diseñar, construir y mantener pipelines de datos eficientes y escalables que integren múltiples fuentes, asegurando que nuestra organización se guíe mediante información precisa, oportuna y segura. Este puesto es fundamental para nuestro ecosistema de datos y apoya el crecimiento estratégico de la organización y sus decisiones basadas en datos. **En este puesto, usted** * Diseñará, desarrollará y asumirá la propiedad de pipelines de datos escalables y eficientes para recopilar, transformar y cargar datos desde múltiples fuentes (tanto procesamiento en tiempo real como por lotes), aplicando las mejores prácticas de ingeniería de datos. * Construirá y gestionará una infraestructura de procesamiento de datos altamente disponible, escalable y segura en la nube (Azure y AWS). * Diseñará arquitectónicamente los almacenes de datos, implementará funciones avanzadas, migrará datos a Snowflake y gestionará el intercambio de datos. * Optimizará y supervisará flujos de trabajo de datos complejos, identificará cuellos de botella, ajustará consultas SQL y garantizará un uso eficiente de los recursos en la nube, una baja latencia y una entrega confiable de datos. * Colaborará con analistas de BI, científicos de datos e ingenieros de software para comprender requisitos comerciales complejos y traducirlos en soluciones técnicas robustas. * Implementará, mantendrá y automatizará procesos sólidos de ELT/ETL, asegurando alta calidad de los datos, coherencia y entrega con baja latencia. * Automatizará y documentará los flujos de datos para mejorar su mantenibilidad y transparencia. * Garantizará el cumplimiento de los marcos de gobernanza de datos, incluidos el enmascaramiento de datos, el cifrado y el respeto de las normativas regulatorias. * Supervisará y mantendrá la infraestructura de datos, asegurando un uso eficiente de los recursos y la optimización de costos (optimización de costos de infraestructura en la nube/Snowflake). * Documentará los flujos de datos para mejorar la transferencia de conocimiento, la transparencia y la mantenibilidad. **Qué buscamos en un/a candidato/a excepcional** * Mínimo 5 años de experiencia comprobada en ingeniería de datos, centrada en la construcción, escalabilidad y gestión de pipelines y arquitecturas de datos complejas. * Experiencia práctica profunda con la plataforma de datos en la nube Snowflake, con soltura en el dimensionamiento de almacenes, agrupación (clustering), optimización de consultas y características nativas de Snowflake. * Amplia experiencia trabajando con ecosistemas en la nube, preferiblemente Microsoft Azure y AWS, para almacenamiento, procesamiento y gestión de datos. * Dominio experto de SQL. Excelentes habilidades de programación en Python para construir aplicaciones de datos escalables. La experiencia con KNIME es muy valorada dentro de nuestra pila tecnológica específica. * Comprensión profunda de los conceptos modernos de almacenes de datos y de las mejores prácticas en modelado dimensional de datos. * Conocimiento de los principios DevOps aplicados a datos (DataOps). Familiaridad con control de versiones (Git), pipelines CI/CD y herramientas de orquestación para gestionar y escalar la infraestructura de datos. * Experiencia integrando datos con herramientas de BI como Power BI. Experiencia práctica trabajando con modelos tabulares (SSAS / Power BI Premium). * Capacidad analítica sólida y aptitud para diagnosticar problemas complejos en entornos distribuidos de datos. * Excelentes habilidades comunicativas en inglés, con capacidad para explicar conceptos técnicos complejos tanto a partes interesadas técnicas como no técnicas. **Será un plus si también cuenta con** * Experiencia diseñando, gestionando y manteniendo flujos de trabajo ETL complejos de extremo a extremo mediante la Plataforma de Análisis KNIME. * Experiencia práctica con AtScale para diseñar y mantener una Capa Semántica Universal sobre Snowflake sin mover los datos. **Cómo trabajamos** * Nos destacamos por la fluidez en datos y automatización. * Priorizamos la innovación centrada en el cliente, enfocada en mejorar la experiencia de nuestros usuarios. * Impulsamos la ejecución orientada a resultados para lograr metas mayores y mejores. * Nos adaptamos a nuevos entornos y a requisitos fuera de lo convencional. **Esperamos que cada miembro del equipo encarne nuestros valores** **Responsabilidad y Propiedad –** Tomar la iniciativa y hacerse cargo de su especialidad **Fiabilidad –** Entregar con calidad y consistencia **Trabajo en equipo –** Colaborar, cuestionar y crecer juntos **Espíritu ganador –** Competir con propósito y tenacidad **Bienestar –** Construir una carrera que le resulte energizante **Curiosidad e Innovación –** Seguir cuestionando. Seguir mejorando


