




Resumen: Buscamos un Ingeniero Senior de Data DevOps con experiencia en Azure para liderar la mejora y el mantenimiento de la infraestructura y los flujos de trabajo de datos, así como para diseñar y gestionar soluciones de datos escalables. Aspectos destacados: 1. Liderar la mejora y el mantenimiento de la infraestructura de datos 2. Diseñar y gestionar soluciones de datos escalables en Azure 3. Colaborar en la creación de canalizaciones de datos robustas y eficientes Nuestro equipo busca un Ingeniero Senior de Data DevOps con experiencia en Azure para liderar la mejora y el mantenimiento de nuestra infraestructura y flujos de trabajo de datos. Diseñará, implementará y gestionará soluciones de datos escalables en la plataforma en la nube Azure, colaborando estrechamente con ingenieros de datos y equipos interdepartamentales para garantizar la solidez y eficiencia de las canalizaciones de datos. Si le apasiona la infraestructura de datos, ¡postúlese para unirse a nosotros! **Responsabilidades** * Planificar, desplegar y gestionar la infraestructura de datos utilizando herramientas de Azure, incluidas ADLSv2, Databricks, Synapse y Data Factory * Coordinarse con equipos de ingeniería de datos para desarrollar y mantener canalizaciones y flujos de trabajo de datos eficaces * Utilizar Python para automatizar procesos de datos y aumentar su eficiencia y fiabilidad * Establecer y respaldar canalizaciones de CI/CD mediante Jenkins, GitHub Actions o herramientas similares * Colaborar con equipos multifuncionales para mejorar la escalabilidad, fiabilidad y rendimiento de los sistemas * Desplegar y gestionar herramientas de procesamiento de datos como Apache Spark y Kafka en entornos cloud y locales * Supervisar los sistemas de datos para identificar y abordar proactivamente problemas de rendimiento y escalabilidad * Diagnosticar y resolver incidencias complejas en plataformas de datos y entornos de canalizaciones **Requisitos** * 3\+ años de experiencia relevante en Ingeniería de Datos o campos relacionados * Conocimientos sólidos de programación en Python centrados en flujos de trabajo de procesamiento por lotes * Experiencia avanzada en SQL para consultar y gestionar grandes conjuntos de datos * Competencia en servicios en la nube de Azure para la gestión de infraestructuras de datos * Experiencia con herramientas de Infraestructura como Código (IaC), tales como Ansible, Terraform o CloudFormation * Capacidad comprobada para configurar y gestionar canalizaciones de CI/CD mediante Jenkins, GitHub Actions o herramientas similares * Conocimientos prácticos de herramientas de gestión de datos como Spark, Airflow o R * Conocimientos sólidos de Linux, incluidos scripting y administración de sistemas * Buen conocimiento de protocolos de red como TCP, UDP, ICMP, DHCP, DNS y NAT * Nivel de inglés B2\+ o superior, tanto escrito como hablado **Deseable** * Experiencia en otras plataformas en la nube, como AWS o GCP * Conocimientos de Kubernetes para gestionar flujos de trabajo de datos contenerizados * Comprensión de herramientas de monitorización y observabilidad como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y flujos de trabajo de análisis avanzado * Experiencia en prácticas de seguridad y gobernanza de datos en la nube


