




Resumen: Buscamos a un Ingeniero Líder de DevOps de Datos para diseñar, implementar y optimizar sistemas y flujos de trabajo de datos basados en la nube en Google Cloud Platform. Aspectos destacados: 1. Liderar DevOps de datos en Google Cloud Platform 2. Diseñar y optimizar la infraestructura de datos en la nube 3. Desarrollar flujos de trabajo de datos automatizados y eficientes Buscamos un **Ingeniero Líder de DevOps de Datos** experimentado con experiencia especializada en Google Cloud Platform (GCP) para unirse a nuestro equipo. Este puesto es adecuado para profesionales con experiencia práctica en sistemas de datos basados en la nube, automatización de infraestructura y optimización de flujos de trabajo de datos. Conocimientos previos de AWS o Azure son una ventaja, pero no obligatorios. **Responsabilidades** * Diseñar infraestructura de datos en la nube mediante servicios de GCP como DataFlow, GCS, BigQuery, Dataproc y Cloud Composer * Implementar infraestructura mediante herramientas IaC como Terraform para permitir el aprovisionamiento y la supervisión * Colaborar con equipos de ingeniería de datos para desarrollar flujos de trabajo de datos automatizados y eficientes utilizando Python * Configurar canalizaciones CI/CD mediante herramientas como Jenkins, GitLab CI o GitHub Actions para facilitar las implementaciones * Optimizar el rendimiento y mejorar la fiabilidad de las plataformas de datos colaborando con equipos multifuncionales * Mantener herramientas de datos basadas en la nube, incluidas Apache Spark, Apache Kafka y Apache Airflow * Analizar y resolver incidencias para garantizar la escalabilidad y fiabilidad de los sistemas de datos basados en la nube **Requisitos** * 5\+ años de experiencia en entornos en la nube, centrados en servicios de GCP como BigQuery, Cloud Composer y Dataproc * Competencia en Python combinada con conocimientos sólidos de SQL para el desarrollo de canalizaciones de datos * Conocimientos de herramientas IaC como Terraform o CloudFormation para la automatización de infraestructura * Habilidades para construir canalizaciones CI/CD con herramientas como Jenkins, GitHub Actions o GitLab CI * Experiencia con sistemas operativos basados en Linux y scripting en shell * Comprensión de protocolos y conceptos de red tales como TCP/IP, DNS y NAT * Capacidad para implementar herramientas como Apache Spark, Apache Airflow o la pila ELK **Deseable** * Familiaridad con AWS o Azure, incluidos ECS, S3, Data Lake o Synapse * Flexibilidad para utilizar herramientas IaC como Ansible * Experiencia previa con otras herramientas alternativas de automatización de flujos de trabajo de datos


