




Resumen: Este puesto implica una evaluación técnica rigurosa y la mejora del razonamiento, las soluciones de programación y las explicaciones técnicas de los sistemas de inteligencia artificial en contextos de programación e ingeniería de software. Aspectos destacados: 1. Evaluar las respuestas de los modelos de lenguaje grande (LLM) en cuanto a precisión, razonamiento, claridad y completitud 2. Experto en al menos un lenguaje de programación relevante 3. Oportunidad de contrato remota, a tiempo completo o a tiempo parcial **Modalidad de trabajo:** Remota **Tipo de vinculación:** Contratista independiente **Horario:** Contrato a tiempo completo o a tiempo parcial **Requisito lingüístico:** Inglés fluido **Descripción general del puesto** Colaboramos con equipos líderes de inteligencia artificial para mejorar la calidad, utilidad y fiabilidad de los sistemas de inteligencia artificial conversacional de propósito general. Este proyecto se centra específicamente en evaluar y mejorar cómo los sistemas de inteligencia artificial razonan sobre código, generan soluciones de programación y explican conceptos técnicos en diversos niveles de complejidad. El puesto implica una evaluación técnica rigurosa de las respuestas generadas por inteligencia artificial en contextos de programación e ingeniería de software. **Sus responsabilidades** Evaluar las respuestas generadas por modelos de lenguaje grande (LLM) ante consultas de programación e ingeniería de software en cuanto a precisión, razonamiento, claridad y completitud Realizar verificaciones de hechos utilizando fuentes públicas confiables y referencias autorizadas Realizar pruebas de precisión ejecutando el código y validando las salidas mediante herramientas adecuadas Annotar las respuestas del modelo identificando sus puntos fuertes, áreas de mejora y errores factuales o conceptuales Evaluar la calidad del código, su legibilidad, la solidez algorítmica y la calidad de las explicaciones Asegurar que las respuestas del modelo se alineen con el comportamiento conversacional esperado y con las directrices del sistema Aplicar criterios de evaluación consistentes siguiendo taxonomías claras, puntos de referencia y directrices detalladas de evaluación **Perfil requerido** Posee una licenciatura, maestría o doctorado en ciencias de la computación o un campo estrechamente relacionado Cuenta con amplia experiencia práctica en ingeniería de software o en funciones técnicas afines Es experto en al menos un lenguaje de programación relevante (por ejemplo, Python, Java, C++, JavaScript, Go, Rust) Es capaz de resolver de forma independiente problemas de nivel medio y avanzado en plataformas como HackerRank o LeetCode Tiene experiencia contribuyendo a proyectos de código abierto reconocidos, incluyendo solicitudes de extracción (pull requests) aceptadas Posee amplia experiencia utilizando modelos de lenguaje grande (LLM) durante la programación y comprende sus fortalezas y modos de fallo Tiene una gran atención al detalle y se siente cómodo evaluando razonamientos técnicos complejos e identificando errores sutiles o fallos lógicos **Especialidades deseables** Experiencia previa en retroalimentación humana con refuerzo (RLHF), evaluación de modelos o trabajo de anotación de datos Historial en programación competitiva Experiencia revisando código en entornos productivos Conocimiento de múltiples paradigmas o ecosistemas de programación Experiencia explicando conceptos técnicos complejos a audiencias no especializadas **Indicadores de éxito** Identifica lógica incorrecta, ineficiencias, casos límite o explicaciones engañosas en el código generado por el modelo, en los conceptos técnicos y en las discusiones sobre diseño de sistemas Sus comentarios mejoran la corrección, robustez y claridad de las salidas de programación generadas por la inteligencia artificial Entrega artefactos de evaluación reproducibles que fortalecen el desempeño del modelo


