




Resumen: Este puesto implica evaluar rigurosamente y mejorar la capacidad de los sistemas de inteligencia artificial para razonar sobre código, generar soluciones de programación y explicar conceptos técnicos. Aspectos destacados: 1. Evaluar las respuestas de generación de código de los modelos de lenguaje grandes (LLM) en cuanto a su precisión y claridad 2. Experto en al menos un lenguaje de programación relevante 3. Amplia experiencia práctica en ingeniería de software **Modalidad de trabajo:** Remoto **Tipo de vinculación:** Contratista independiente **Horario:** Contrato a tiempo completo o a tiempo parcial **Requisito lingüístico:** Inglés fluido **Descripción general del puesto** Colaboramos con equipos líderes de inteligencia artificial para mejorar la calidad, utilidad y fiabilidad de los sistemas de inteligencia artificial conversacional de propósito general. Este proyecto se centra específicamente en evaluar y mejorar cómo razonan los sistemas de IA sobre código, generan soluciones de programación y explican conceptos técnicos en distintos niveles de complejidad. El puesto implica una evaluación técnica rigurosa de las respuestas generadas por IA en contextos de programación e ingeniería de software. **Sus responsabilidades** Evaluar las respuestas generadas por modelos de lenguaje grandes (LLM) ante consultas de programación e ingeniería de software, en cuanto a su precisión, razonamiento, claridad y completitud Realizar verificaciones de hechos utilizando fuentes públicas confiables y referencias autorizadas Realizar pruebas de precisión ejecutando el código y validando sus resultados mediante herramientas adecuadas Annotar las respuestas de los modelos identificando sus fortalezas, áreas de mejora y errores factuales o conceptuales Evaluar la calidad del código, su legibilidad, la solidez algorítmica y la calidad de las explicaciones Asegurar que las respuestas del modelo se alineen con el comportamiento conversacional esperado y con las directrices del sistema Aplicar criterios de evaluación consistentes siguiendo taxonomías claras, referencias comparativas y pautas detalladas de evaluación **Perfil del candidato** Posee una licenciatura, maestría o doctorado en Ciencias de la Computación o un campo estrechamente relacionado Cuenta con amplia experiencia práctica en ingeniería de software o funciones técnicas afines Es experto en al menos un lenguaje de programación relevante (por ejemplo, Python, Java, C++, JavaScript, Go, Rust) Es capaz de resolver de forma independiente problemas de nivel medio y avanzado en plataformas como HackerRank o LeetCode Tiene experiencia contribuyendo a proyectos de código abierto reconocidos, incluidas solicitudes de extracción (pull requests) aceptadas Cuenta con amplia experiencia utilizando modelos de lenguaje grandes (LLM) durante la programación y comprende tanto sus fortalezas como sus modos de fallo Posee una gran atención al detalle y se siente cómodo evaluando razonamientos técnicos complejos e identificando errores sutiles o fallos lógicos **Conocimientos adicionales deseables** Experiencia previa en retroalimentación humana con refuerzo (RLHF), evaluación de modelos o anotación de datos Historial comprobado en programación competitiva Experiencia revisando código en entornos productivos Familiaridad con múltiples paradigmas o ecosistemas de programación Experiencia explicando conceptos técnicos complejos a audiencias no especializadas **Indicadores de éxito** Identifica lógica incorrecta, ineficiencias, casos extremos o explicaciones engañosas en el código generado por los modelos, en conceptos técnicos y en discusiones sobre diseño de sistemas Sus comentarios mejoran la corrección, robustez y claridad de las salidas de codificación generadas por la IA Entrega artefactos de evaluación reproducibles que potencian el desempeño del modelo


