




Resumen: Dirigir el diseño y la optimización de la infraestructura de datos y la automatización de flujos de trabajo en Azure, garantizando una alta eficiencia, estabilidad y rendimiento de las canalizaciones. Aspectos destacados: 1. Dirigir el diseño y la optimización de la infraestructura de datos en Azure. 2. Automatizar las operaciones de datos con Python para mejorar la fiabilidad. 3. Colaborar en sistemas de datos escalables, fiables y de alto rendimiento. Invitamos a un Ingeniero Senior de Data DevOps a unirse a nuestro equipo y liderar el diseño y la optimización de la infraestructura de datos y la automatización de flujos de trabajo en Azure. Este puesto implica crear soluciones de datos escalables y colaborar estrechamente con los equipos de ingeniería de datos y otros equipos para garantizar una alta eficiencia, estabilidad y rendimiento de las canalizaciones. ¡Postúlese ahora para formar parte de nuestro innovador equipo de datos! **Responsabilidades** * Diseñar, implementar y mantener infraestructura de datos utilizando servicios de Azure, incluidos Data Lake, Databricks, Synapse y Data Factory * Colaborar con ingeniería de datos para construir y mantener canalizaciones y flujos de trabajo eficientes * Automatizar operaciones de datos con Python para mejorar la fiabilidad y la eficiencia * Gestionar canalizaciones de CI/CD mediante Jenkins, GitHub Actions o tecnologías similares * Trabajar junto con equipos multifuncionales para optimizar la escalabilidad, fiabilidad y rendimiento de los sistemas de datos * Instalar y configurar herramientas de datos como Apache Spark y Kafka en entornos en la nube y locales * Supervisar continuamente los sistemas de datos para identificar y resolver problemas de rendimiento y escalabilidad * Diagnosticar y solucionar desafíos complejos en plataformas de datos y procesos de canalizaciones **Requisitos** * Mínimo 3 años de experiencia en Ingeniería de Datos o funciones similares * Sólida experiencia en programación Python para flujos de trabajo de procesamiento por lotes * Competencias avanzadas en SQL para consultas y gestión de conjuntos de datos extensos * Experiencia profunda en servicios en la nube de Azure para infraestructura de datos * Conocimientos prácticos de herramientas de Infraestructura como Código (IaC), como Ansible, Terraform o CloudFormation * Capacidad para configurar y mantener canalizaciones de CI/CD mediante Jenkins, GitHub Actions o similares * Experiencia con herramientas de datos como Spark, Airflow o R para la gestión de flujos de trabajo * Competencias avanzadas en sistemas operativos Linux, incluidos scripting y administración del sistema * Comprensión integral de protocolos de red, como TCP, UDP, ICMP, DHCP, DNS y NAT * Competencia en inglés a nivel B2+ tanto escrito como hablado **Deseable** * Familiaridad con otras plataformas en la nube, como AWS o GCP * Experiencia con Kubernetes para la orquestación de contenedores en flujos de trabajo de datos * Conocimientos de herramientas de monitorización y observabilidad, como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y flujos de análisis complejos * Experiencia práctica con buenas prácticas de gobernanza y seguridad de datos en la nube


