





Descripción del empleo: **¿Qué hace la compañía?** **Empresa líder en el sector de medios digitales de Argentina** con una amplia trayectoria en el mercado, se destaca por ofrecer contenido periodístico de calidad y de actualidad a través de su plataforma online. **¿Qué necesitás para ser parte del equipo?** A nivel personal: * Capacidad para el pensamiento crítico y la resolución de problemas complejos basados en datos. * **Habilidad para trabajar de forma independiente, tomar decisiones técnicas y llevar proyectos de principio a fin.** * Claridad y precisión para comunicar resultados a los equipos de Producto y Tecnología. A nivel técnico: * **Experiencia de al menos 2 años como Data Science o Machine Learning.** * **Experiencia de al menos 3 años con Python y SQL \| Excluyente.** * **Experiencia con Google Cloud Platform (GCP), incluyendo bigquery, cloud storage y cloud functions \| Excluyente.** * Dominio de notebooks para experimentación y prototipado. * **Experiencia en modelado de datos, definición de métricas de productividad y automatización de reporting.** * Conocimientos y/o experiencia práctica en MLOps, monitoreo y despliegue de modelos de machine learning. **Es un plus si:** * Contas experiencia con: Vertex AI o ML flow e infraestructura como código (terraform, cloud build, etc.). * Conocimiento en mantenimiento de modelos en producción (monitoring, retraining, drift detection). **¿Qué vas a hacer?** Como **Ingeniero/a en Machine Learning Ssr**: * **Diseñar, entrenar y optimizar modelos de machine learning en entornos jupyter notebooks.** * **Implementar pipelines de datos y workflows en GCP (bigquery, cloud functions, workflows, vertex ai).** * **Desarrollar y mantener scripts de procesamiento y transformación de datos para entrenamiento y validación de modelos.** * **Asegurar la calidad, integridad y trazabilidad de los datos mediante buenas prácticas de versionado y documentación.** **Aplicar técnicas avanzadas de natural language processing (nlp): embeddings, clasificación, modelado de lenguaje, extracción de entidades.** * **Utilizar frameworks de machine learning como scikit\-learn, pytorch o tensorflow según el caso de uso.** * Participar en el ciclo completo del modelo: desde exploración de datos hasta despliegue y monitoreo en producción. * Colaborar con equipos multidisciplinarios bajo metodologías ágiles, proponiendo mejoras técnicas y de proceso. **¿Cuál es el desafío de la posición?** El principal desafío será desarrollar soluciones de **machine learning y data pipelines escalables** en **Google Cloud Platform (GCP)**. Este rol combina experimentación, ingeniería y despliegue en producción, siendo clave dentro de nuestro equipo de datos. **¿Cuándo y dónde trabajarás?** **Trabajarás en una modalidad 100% Virtual, exclusivamente para residentes en AMBA, Buenos Aires (Argentina). De Lunes a viernes, de 09:00 a 18:00 hs.** **¿Con quién trabajarás?** Trabajarás con el equipo de Data Science, y colaborarás de manera crucial con los equipos de Producto y Tecnología, siendo un puente clave para la comunicación de resultados y la implementación técnica de las soluciones. **¿Con qué herramienta trabajarás?** **Python, SQL, Google Cloud Platform (GCP), BigQuery, Dataflow y Vertex AI. Además de herramientas y frameworks para MLOps, monitoreo y despliegue de modelos.** **¿Qué ofrecen?** * **Relación de dependencia directa.** * **Home Office.** * **Plataforma de descuentos/beneficios.** * **Prepaga para empleado/a y grupo familiar.** * **Proyección de carrera.** **¿De qué fases consta el proceso de selección?** Tendrás una primera entrevista con nuestra Recruiter, **Lorena Dos Santos Moraes**, para conocer tus experiencias laborales e intereses. **Luego, con la empresa empleadora tendrás dos instancias** con Recursos Humanos y el equipo técnico.


