




Resumen: Este Ingeniero Senior Full Stack impulsará la evolución de la plataforma, desarrollando aplicaciones web robustas, APIs y sistemas de datos para potenciar los productos de datos de vanguardia de Forager.ai. Aspectos destacados: 1. Oportunidad de impulsar la evolución de una plataforma de datos de vanguardia 2. Desarrollar y operar sistemas que ofrezcan datos excepcionales sobre la fuerza laboral a gran escala 3. Unirse a una empresa de rápido crecimiento en una etapa emocionante de innovación En Forager.ai ofrecemos datos excepcionales sobre la fuerza laboral que abarcan personas, contactos, organizaciones, puestos de trabajo y señales de intención. Reconocidos por proporcionar los datos más actualizados y precisos del mercado para la generación de leads, nuestras soluciones potencian plataformas avanzadas de reclutamiento y ventas, modelos impulsados por inteligencia artificial, creación de audiencias personalizadas y mucho más. Con una entrega perfecta mediante APIs, flujos de datos e integraciones con CRM, Forager.ai garantiza que nuestros clientes accedan a los datos que necesitan, cuando y cómo los necesitan. ¿Por qué unirse a nosotros ahora? Nunca ha habido un mejor momento para unirse a Forager.ai. Estamos experimentando un crecimiento acelerado, impulsado por la creciente demanda de nuestras soluciones de datos de alta calidad. Para mantener este ritmo, estamos mejorando la forma en que brindamos valor a nuestros clientes mediante el desarrollo de nuevas funciones, integraciones e infraestructura escalable. Buscamos un Ingeniero Senior Full Stack para ayudarnos a impulsar la evolución de nuestra plataforma: desarrollar aplicaciones web robustas, APIs y sistemas de datos que impulsen nuestros productos. Forma parte de una etapa emocionante de innovación y contribuye al lanzamiento de productos de datos revolucionarios en su siguiente capítulo de éxito. **Este puesto es una oportunidad global que requiere una superposición horaria de 4 horas con la hora montañosa de Estados Unidos** Lo que construirás Desarrollarás y operarás los sistemas que entreguen, a gran escala, los datos de personas y organizaciones de Forager.ai a los clientes de la plataforma: aplicaciones orientadas al cliente, tuberías de datos a gran escala e infraestructura de búsqueda. Estas son las superficies en las que ganamos pruebas comparativas competitivas y retenemos clientes; constituyen la base de nuestro "Cinturón de Campeonato de Calidad de Datos". * **APIs de enriquecimiento en tiempo real** — búsqueda de personas/organizaciones, datos de contacto, búsqueda inversa para plataformas de tipo cascada. La tasa de coincidencia, la latencia y la actualidad determinan las renovaciones. * **Entrega de flujos de datos masivos** — mantenimiento del servicio Snowflake que entrega miles de millones de puntos de datos diariamente a los clientes de flujos de datos. * **Infraestructura de búsqueda Elasticsearch** — indexación, diseño de consultas, ajuste de relevancia y escalado del clúster para las APIs de búsqueda y filtrado de personas y empresas. * **Tuberías ETL** — trabajadores, colas de tareas y transformaciones que mueven datos hacia APIs y exportaciones de flujos. * **Aplicación web orientada al cliente y experiencia para desarrolladores** — aplicación React/TypeScript, documentación, flujos de incorporación y superficies de autoservicio. * **Cumplimiento y observabilidad** — pruebas de procedencia de los datos, manejo de GDPR/datos personales identificables (PII) y métricas de tablero para cada dimensión de calidad de los datos. Responsabilidades clave**Desarrollo de productos y aplicaciones** * Desarrollar y mantener la aplicación web orientada al cliente de Forager (React, TypeScript, Django/Python). * Implementar y mantener APIs RESTful para integraciones, flujos de datos y flujos de trabajo de los clientes de la plataforma. * Desarrollar servicios de backend escalables — trabajadores, colas de tareas, tuberías de datos — que mantengan ciclos de actualización predecibles y altas tasas de llenado. * Participar activamente en la planificación de productos; ayudar a definir qué funciones generan el mayor impacto para los clientes. **Búsqueda, capa de datos y ETL** * Construir y operar índices de **Elasticsearch** para la búsqueda de personas y empresas — esquema, ingesta, relevancia y escalado. * Diseñar y operar **aplicaciones ETL** que muevan datos hacia almacenes buscables, flujos y data warehouses (Snowflake, S3\). * Optimizar PostgreSQL — rendimiento de consultas, indexación y uso de caché. * Impulsar mejoras medibles en latencia, tiempo de actividad, tasa de errores y escalabilidad. **DevOps e infraestructura** * Gestionar a diario la infraestructura de AWS (ECS, S3, etc.) junto con el equipo de DevOps. * Operar CI/CD, observabilidad (Grafana, CloudWatch, Sentry) y respuestas en turnos de guardia para las superficies que desarrolles. * Compartir con el equipo el mantenimiento de la infraestructura de rastreo (crawling). **Colaboración y calidad** * Revisión de código con altos estándares de legibilidad, seguridad y rendimiento. * Escribir pruebas unitarias, de integración y extremo a extremo (E2E); la fiabilidad de las pruebas es un factor de calidad, no una sobrecarga. * Documentar funciones, arquitectura y contratos de API; una excelente documentación para desarrolladores es la clave del éxito de nuestros clientes. **Requisitos** **Experiencia requerida** * **5 años o más** desarrollando y operando aplicaciones web y APIs en producción. * Alta competencia en **Python / Django** y **React / TypeScript**. * Experiencia práctica operando **Elasticsearch** a gran escala — diseño de esquemas, ajuste de consultas y gestión de clústeres. * Experiencia en producción con **PostgreSQL**, **Redis** y sistemas asíncronos de tareas ( **Celery / RabbitMQ** o equivalente). * Trayectoria comprobada desarrollando y operando **tuberías ETL** que muevan volúmenes significativos de datos de forma confiable. * Capacidad para trabajar con **AWS** (ECS, S3, CloudWatch) y pipelines de CI/CD (GitHub Actions o equivalente). * Experiencia operando servicios en producción — observabilidad, turnos de guardia y respuesta ante incidencias. * Excelentes habilidades de comunicación escrita; capacidad para asumir la documentación como un entregable fundamental. **Flujos de trabajo con IA y agentes (obligatorio)** Esto es ineludible. Debes demostrar una sólida y práctica competencia en: * **Herramientas de programación con IA** (Claude Code, Cursor, Copilot o equivalentes), utilizadas diariamente para implementación, refactorización y revisión de código. * **Flujos de trabajo con agentes** — diseñar, orquestar y depurar tuberías de agentes de múltiples pasos (por ejemplo, bucles de planificación, implementación y verificación de investigación, integración con servidores MCP, diseño del uso de herramientas). * **Capacidad de juicio sobre cuándo la IA ayuda o perjudica** — saber cuándo delegar una tarea a un agente, cuándo escribir el código tú mismo y cómo mantener a un agente bajo control en entornos productivos. Esta competencia se evalúa durante las entrevistas mediante ejercicios prácticos. No se considerarán candidatos sin experiencia comprobable en flujos de trabajo con agentes. **Deseable** * Experiencia con **Snowflake** u otros almacenes de datos. * Antecedentes en **productos de datos B2B** — enriquecimiento, datos de contactos, datos de empresas, búsqueda/descubrimiento. * Experiencia en rastreo web (web crawling), obtención de datos (data sourcing) o sistemas de ingesta a gran escala. * Contribuciones a código abierto o escritos técnicos públicos. **Beneficios** * Cultura centrada en el trabajo remoto. * Días libres ilimitados (PTO). * Paquete salarial y de beneficios competitivo. * Trabajar en un entorno dinámico, colaborativo y de apoyo. * Oportunidad de crecer y avanzar en tu carrera. * Oportunidad de formar parte desde el inicio de una startup de rápido crecimiento.


