




Resumen: Únase a un equipo en crecimiento como Ingeniero Senior de Data DevOps, centrado en la gestión de infraestructura de datos en la nube, la automatización de flujos de trabajo y la mejora de las operaciones de datos en Google Cloud Platform. Aspectos destacados: 1. Diseñar e implementar infraestructura de datos en la nube mediante servicios de GCP 2. Automatizar el aprovisionamiento y la supervisión con Infraestructura como Código 3. Desarrollar canalizaciones de datos automatizadas y establecer CI/CD para despliegues fluidos Buscamos un experimentado Ingeniero Senior de Data DevOps con experiencia en Google Cloud Platform para reforzar nuestro equipo en crecimiento. Usted se centrará en la gestión de infraestructura de datos en la nube, la automatización de flujos de trabajo y la mejora de las operaciones de datos. Únase a nosotros y contribuya a la construcción de soluciones de datos eficientes y escalables. **Responsabilidades** * Diseñar e implementar infraestructura de datos en la nube mediante servicios de GCP como DataFlow, BigQuery y Cloud Composer * Implementar y gestionar Infraestructura como Código con Terraform para automatizar el aprovisionamiento y la supervisión * Colaborar con ingenieros de datos para desarrollar canalizaciones de datos automatizadas utilizando Python * Establecer canalizaciones de CI/CD mediante Jenkins, GitLab CI o GitHub Actions para despliegues fluidos * Optimizar el rendimiento y la fiabilidad de la plataforma de datos trabajando con equipos multifuncionales * Configurar herramientas de datos en la nube como Apache Spark y Apache Airflow * Diagnosticar y resolver problemas relacionados con la escalabilidad y la fiabilidad de los sistemas de datos en la nube **Requisitos** * Experiencia mínima de 3 años con servicios de GCP, incluidos BigQuery, Cloud Composer y Dataproc * Competencia en programación Python y sólidas habilidades en SQL para la gestión de canalizaciones * Experiencia con herramientas de Infraestructura como Código como Terraform o CloudFormation * Conocimientos sobre herramientas de canalización CI/CD como Jenkins, GitHub Actions o GitLab CI * Familiaridad con sistemas operativos Linux y con la creación de scripts de shell * Comprensión de protocolos de red como TCP/IP, DNS y NAT * Competencia en el uso de herramientas de procesamiento de datos como Apache Spark, Apache Airflow o ELK Stack **Deseable** * Experiencia con plataformas AWS o Azure, incluidas ECS, S3, Data Lake o Synapse * Capacidad para trabajar con herramientas adicionales de IaC como Ansible * Experiencia con tecnologías alternativas de automatización de flujos de trabajo de datos


