Categorías
···
Entrar / Registro
Desarrollador Python - Entrenamiento de IA
Indeed
Tiempo completo
Presencial
Sin requisito de experiencia
Sin requisito de título
79Q22222+22
Favoritos
Compartir
Parte del contenido se ha traducido automáticamenteVer original
Descripción

Resumen: Este puesto implica evaluar rigurosamente y mejorar el razonamiento, las soluciones de programación y las explicaciones técnicas de los sistemas de inteligencia artificial en contextos de programación e ingeniería de software. Aspectos destacados: 1. Evaluar las respuestas de generación de código de los modelos de lenguaje grandes (LLM) en cuanto a su precisión y exhaustividad 2. Ser experto en al menos un lenguaje de programación relevante 3. Contribuir a la mejora de las salidas de codificación de la IA mediante comentarios detallados **Modalidad de trabajo:** Remoto **Tipo de vinculación:** Contratista independiente **Horario:** Contrato a tiempo completo o a tiempo parcial **Requisito lingüístico:** Inglés fluido **Descripción general del puesto** Colaboramos con equipos líderes de IA para mejorar la calidad, utilidad y fiabilidad de los sistemas de IA conversacional de propósito general. Este proyecto se centra específicamente en evaluar y mejorar cómo razonan los sistemas de IA sobre el código, generan soluciones de programación y explican conceptos técnicos en distintos niveles de complejidad. El puesto implica una evaluación técnica rigurosa de las respuestas generadas por la IA en contextos de programación e ingeniería de software. **Sus responsabilidades** Evaluar las respuestas generadas por modelos de lenguaje grandes (LLM) ante consultas de programación e ingeniería de software en cuanto a su precisión, razonamiento, claridad y exhaustividad Realizar verificaciones de hechos mediante fuentes públicas confiables y referencias autorizadas Realizar pruebas de precisión ejecutando el código y validando sus resultados con herramientas adecuadas Annotar las respuestas del modelo identificando sus puntos fuertes, áreas de mejora y errores factuales o conceptuales Evaluar la calidad del código, su legibilidad, la solidez algorítmica y la calidad de las explicaciones Asegurar que las respuestas del modelo se alineen con el comportamiento conversacional esperado y con las directrices del sistema Aplicar criterios de evaluación consistentes siguiendo taxonomías claras, puntos de referencia y directrices detalladas de evaluación **Perfil deseado** Posee una licenciatura, maestría o doctorado en Ciencias de la Computación o en un campo estrechamente relacionado Cuenta con una experiencia significativa en entornos reales de ingeniería de software u otros puestos técnicos afines Es experto en al menos un lenguaje de programación relevante (por ejemplo, Python, Java, C\+\+, JavaScript, Go, Rust) Es capaz de resolver de forma independiente problemas de nivel medio y difícil de HackerRank o LeetCode Tiene experiencia contribuyendo a proyectos de código abierto reconocidos, incluidas solicitudes de extracción (pull requests) aceptadas Cuenta con amplia experiencia utilizando modelos de lenguaje grandes (LLM) durante la programación y comprende tanto sus fortalezas como sus modos de fallo Posee una gran atención al detalle y se siente cómodo evaluando razonamientos técnicos complejos, identificando errores sutiles o fallos lógicos **Especialidades deseables (no excluyentes)** Experiencia previa en RLHF (retroalimentación humana con refuerzo), evaluación de modelos o anotación de datos Historial en programación competitiva Experiencia revisando código en entornos productivos Familiaridad con múltiples paradigmas o ecosistemas de programación Experiencia explicando conceptos técnicos complejos a audiencias no especializadas **Indicadores de éxito** Identifica lógica incorrecta, ineficiencias, casos límite o explicaciones engañosas en el código generado por el modelo, en los conceptos técnicos y en las discusiones sobre diseño de sistemas Sus comentarios mejoran la corrección, robustez y claridad de las salidas de codificación de la IA Entrega artefactos de evaluación reproducibles que potencian el rendimiento del modelo

Fuentea:  indeed Ver publicación original
Sofía González
Indeed · HR

Compañía

Indeed
Sofía González
Indeed · HR
Empleos similares

Cookie
Configuración de cookies
Nuestras aplicaciones
Download
Descargar en
APP Store
Download
Consíguelo en
Google Play
© 2025 Servanan International Pte. Ltd.