




¿Qué hace la compañía? Empresa líder en el sector de medios digitales de Argentina con una amplia trayectoria en el mercado, se destaca por ofrecer contenido periodístico de calidad y de actualidad a través de su plataforma online. ¿Qué necesitás para ser parte del equipo? A nivel personal: Capacidad para el pensamiento crítico y la resolución de problemas complejos basados en datos. Habilidad para trabajar de forma independiente, tomar decisiones técnicas y llevar proyectos de principio a fin. Claridad y precisión para comunicar resultados a los equipos de Producto y Tecnología. A nivel técnico: Experiencia de al menos 2 años como Data Science o Machine Learning. Experiencia de al menos 3 años con Python y SQL \| Excluyente. Experiencia con Google Cloud Platform (GCP), incluyendo bigquery, cloud storage y cloud functions \| Excluyente. Dominio de notebooks para experimentación y prototipado. Experiencia en modelado de datos, definición de métricas de productividad y automatización de reporting. Conocimientos y/o experiencia práctica en MLOps, monitoreo y despliegue de modelos de machine learning. Es un plus si: Contas experiencia con: Vertex AI o ML flow e infraestructura como código (terraform, cloud build, etc.). Conocimiento en mantenimiento de modelos en producción (monitoring, retraining, drift detection). ¿Qué vas a hacer? Como Ingeniero/a en Machine Learning Ssr: Diseñar, entrenar y optimizar modelos de machine learning en entornos jupyter notebooks. Implementar pipelines de datos y workflows en GCP (bigquery, cloud functions, workflows, vertex ai). Desarrollar y mantener scripts de procesamiento y transformación de datos para entrenamiento y validación de modelos. Asegurar la calidad, integridad y trazabilidad de los datos mediante buenas prácticas de versionado y documentación. Aplicar técnicas avanzadas de natural language processing (nlp): embeddings, clasificación, modelado de lenguaje, extracción de entidades. Utilizar frameworks de machine learning como scikit\-learn, pytorch o tensorflow según el caso de uso. Participar en el ciclo completo del modelo: desde exploración de datos hasta despliegue y monitoreo en producción. Colaborar con equipos multidisciplinarios bajo metodologías ágiles, proponiendo mejoras técnicas y de proceso. ¿Cuál es el desafío de la posición? El principal desafío será desarrollar soluciones de machine learning y data pipelines escalables en Google Cloud Platform (GCP). Este rol combina experimentación, ingeniería y despliegue en producción, siendo clave dentro de nuestro equipo de datos. ¿Cuándo y dónde trabajarás? Trabajarás en una modalidad 100% Virtual, exclusivamente para residentes en AMBA, Buenos Aires (Argentina). De Lunes a viernes, de 09:00 a 18:00 hs. ¿Con quién trabajarás? Trabajarás con el equipo de Data Science, y colaborarás de manera crucial con los equipos de Producto y Tecnología, siendo un puente clave para la comunicación de resultados y la implementación técnica de las soluciones. ¿Con qué herramienta trabajarás? Python, SQL, Google Cloud Platform (GCP), BigQuery, Dataflow y Vertex AI. Además de herramientas y frameworks para MLOps, monitoreo y despliegue de modelos. ¿Qué ofrecen? Relación de dependencia directa. Home Office. Plataforma de descuentos/beneficios. Prepaga para empleado/a y grupo familiar. Proyección de carrera. ¿De qué fases consta el proceso de selección? Tendrás una primera entrevista con nuestra Recruiter, Lorena Dos Santos Moraes, para conocer tus experiencias laborales e intereses. Luego, con la empresa empleadora tendrás dos instancias con Recursos Humanos y el equipo técnico.


