Aún no hay resultados para tu búsqueda
Encontramos estas vacantes similares que podrían interesarte.
Hace 1 sem
DataOps Middle - (AWS, ETL/ELT)
$59,500 Mensual
Sobre el empleo
Descripción
Estamos en búsqueda de un DataOps Middle Level con experiencia técnica sólida en el diseño, implementación y mantenimiento de soluciones de datos en AWS. El candidato ideal tendrá un enfoque en la automatización, calidad de datos y optimización de procesos, además de interés en colaborar dentro de un equipo dinámico y en constante crecimiento.
Responsabilidades Principales
Implementación & Desarrollo
- Diseñar y desarrollar pipelines ETL/ELT utilizando AWS Glue.
- Implementar flujos de migración de datos mediante AWS DMS.
- Configurar servicios de catalogación como AWS Lake Formation y DataZone.
- Monitorear y optimizar procesos de datos para garantizar eficiencia y escalabilidad.
- Implementar pruebas unitarias e integrales para garantizar la calidad de los datos.
Operaciones & Mantenimiento
- Gestionar ambientes de datos en AWS.
- Implementar y supervisar controles de calidad de datos.
- Monitorear y mantener jobs y pipelines en producción.
- Resolver incidentes técnicos de manera proactiva.
Requisitos mínimos
Técnicas
- Manejo de servicios de datos en AWS.
- Desarrollo de procesos ETL/ELT.
- Garantía y control de calidad de datos.
- Implementación de sistemas de monitoreo y alertas.
Metodológicas
- Metodologías ágiles (Agile y Scrum).
- Control de versiones de código mediante Git.
- Automatización de pruebas y procesos.
- Documentación técnica estructurada.
Certificaciones Requeridas
- AWS Solutions Architect Associate.
- AWS Data Analytics Specialty o Data Engineer.
Expertise Técnico
- Plataformas y Herramientas AWS
- DMS: Implementación y configuración de réplicas de datos.
- Glue: Desarrollo y optimización de jobs ETL.
- Lake Formation: Configuración de permisos y etiquetas de gobernanza.
- DataZone: Implementación de catálogos y activos de datos.
- Redshift: Optimización de consultas y diseño dimensional.
- S3: Gestión de buckets y políticas de almacenamiento.
- KMS: Implementación de políticas de encripción.
- Macie: Configuración de escaneos y alertas de seguridad.
- CloudWatch: Creación de dashboards y configuraciones de alarmas.
- CloudTrail: Configuración de logs y auditorías.
- IAM: Implementación de roles y políticas de acceso.
- AWS Organizations: Gestión de cuentas y políticas multi-cuenta.
Lenguajes y Herramientas de Desarrollo
- Python: Desarrollo intermedio de scripts y aplicaciones.
- SQL: Optimización y desarrollo avanzado de queries.
- PySpark: Transformaciones y optimizaciones ETL.
- Terraform/CloudFormation: Implementación de Infraestructura como Código (IaC).
- CI/CD: Implementación y mantenimiento de pipelines.
- Git: Control de versiones y estrategias de branching.
- Shell Scripting: Automatización avanzada de tareas.
Orquestación y Automatización
- Apache Airflow o AWS Step Functions: Desarrollo de flujos de trabajo (DAGs o templates).
Habilidades Requeridas
- Capacidad para trabajar de manera autónoma y colaborativa.
- Orientación al detalle y compromiso con la calidad de los datos.
- Habilidad para identificar y resolver problemas técnicos de manera eficaz.
- Excelentes habilidades de comunicación y documentación.
- Adaptabilidad en entornos dinámicos y ágiles.
Perks
- Horario: Lunes a viernes 7am a 4pm / 8am a 5pm
- Salario: 59,500 MXN
- Modalidad: Hibrido CDMX (3 días desde casa y 2 desde la oficina).
- Tipo de Contrato: Contractor (Será un proyecto de aproximadamente 10 meses de duración).
ID: 20280270
También puedes buscar
También puedes buscar
Refina la ubicación de tu búsqueda
Refina la ubicación de tu búsqueda