




**NUESTRO PROCESO DE CONTRATACIÓN:** * Revisaremos tu solicitud según nuestros requisitos laborales. No utilizamos tecnologías de aprendizaje automático en esta fase, ya que creemos que cada persona merece la atención de otra persona. Consideramos que las máquinas no pueden evaluar tu solicitud como lo hacen nuestros experimentados profesionales de reclutamiento: cada persona es única. Prometemos dar a tu candidatura una evaluación justa y detallada. * Luego, podríamos invitarte a enviar una entrevista en video para revisión del gerente de contratación. Esta entrevista en video suele ir seguida de una prueba o un proyecto breve que nos permite determinar si encajarías bien con el equipo. * En ese momento, te invitaremos a una entrevista con nuestro gerente de contratación y/o el equipo de entrevistas. Ten en cuenta: No realizamos entrevistas mediante mensajes de texto, Telegram, etc., y nunca contratamos a nadie en nuestra organización sin haberte conocido cara a cara (o mediante Zoom). Se te invitará a una reunión en vivo o por Zoom, donde conocerás a nuestro equipo INFUSE. * A partir de ahí, ¡es momento de tomar una decisión! Si aún estás entusiasmado por unirte a INFUSE y nosotros también estamos interesados en ti, tendremos una conversación sobre tu oferta. No hacemos ofertas sin darte la oportunidad de hablar con nosotros en directo. INFUSE se compromete a cumplir con las leyes y regulaciones aplicables sobre privacidad y seguridad de datos. Para obtener más información, consulta nuestra Política de Privacidad **INKHUB** está procesando 10 millones de PDFs crudos para crear el catálogo más completo de contenido B2B de calidad comercial en internet, etiquetado, resumido y buscable por tema, empresa o intención. Estamos buscando un **ingeniero de ML aplicado** para hacerse cargo de la canalización de ingesta semántica, desde los PDFs crudos hasta activos etiquetados, resumidos e incrustados. ### **Lo que harás** * Hacerse cargo de la canalización ETL desde PDFs crudos (ingestados desde S3) hasta recursos estructurados * Finalizar nuestro flujo de resumen y clasificación usando modelos de código abierto con respaldo en GPT-4o * Aplicar lógica de filtrado (3 años de antigüedad, 100 páginas, etc.) para garantizar la calidad de los recursos * Mapear cada activo a la taxonomía específica de temas (más de 10 por tema en aproximadamente 9.000 temas) * Generar incrustaciones densas utilizando sentence-transformers * Cargar y consultar incrustaciones usando Milvus o pgvector * Implementar lógica de "actualidad" para identificar e indexar solo contenido nuevo o actualizado basado en diferencias de archivos, marca de tiempo de rastreo o hash del documento * Crear un marco de control de calidad/evaluación: cumplimiento de formato, recall@5, monitoreo de deriva * Exponer */v1/semantic-search* mediante FastAPI, con filtros y fusión de clasificación * Colaborar estrechamente con nuestro líder técnico en integración de UX y generación de fragmentos ### **Tu caja de herramientas** * Python, PyTorch, sentence-transformers, APIs de OpenAI o modelos LLM preentrenados similares. * FastAPI, Milvus o pgvector, PyPDF/Tika, Airflow o Lambda para orquestación * Docker, programación de GPU, SQL de Athena/Redshift ### **Podrías encajar si...** * Has construido canalizaciones de ML que han impactado usuarios reales, no solo cuadernos * Has trabajado en búsqueda semántica, incrustaciones o etiquetado a gran escala * Has lidiado con datos no estructurados y te encanta convertir el caos en claridad * Te gusta trabajar rápido, iterar con retroalimentación y seguir métricas relevantes ### **Por qué este puesto es importante** Tus modelos decidirán qué contenido se encuentra, cómo se etiqueta y qué empresas y contenidos destacan. Ayudarás a definir qué significan "relevancia" y "actualidad" para más de un millón de recursos y más de 50.000 páginas de empresas, y asegurarás que INKHUB se mantenga a la vanguardia.


