Hace 1 mes
ARQUITECTO DE DATOS ( para Zona Toluca)
$45,000 - $50,000 Mensual
Sobre el empleo
Descripción
PERFIL SOLICITA:
Vacante para la Zona de Toluca Exportec
- Licenciatura en Ingeniería en Sistemas, Ciencias de la Computación, Matemáticas o carreras afines.
- 3 a 5 años de experiencia en roles de ingeniería o arquitectura de datos.
- Experiencia comprobada en al menos 2 proyectos de arquitectura de datos implementados de principio a fin en empresas medianas o grandes .
- Experiencia en proyectos de:
- Data Management: Definición de políticas de gobierno de datos y calidad.
- Data Warehouse (Data Estehouse): Diseño e implementación de soluciones de almacenamiento de datos.
- Business Intelligence (BI): Implementación de soluciones BI para la toma de decisiones.
- Experiencia en entornos on-premise, incluyendo:
- Administración de bases de datos relacionales y NoSQL.
- Experiencia trabajando con múltiples plataformas en la nube, incluyendo:
- Google Cloud Platform (GCP): BigQuery, Dataflow, Dataproc, Cloud Storage.
- AWS: Redshift, S3, Glue, EMR. (Opcional)
- Azure: Synapse, Data Lake, Data Factory. (Opcional)
- Diseño e implementación de pipelines de datos (ETL) y modelado de datos.
- Participación en proyectos de modernización de infraestructura de datos y optimización de costos.
Conocimientos Específicos en Bases de Datos:
• Bases de datos relacionales:
• Ejemplos: Oracle, SQL Server, PostgreSQL, MySQL, Teradata, DB2.
• Experiencia en diseño de esquemas, optimización de consultas y gestión del rendimiento.
• Implementación de soluciones para grandes volúmenes de datos no estructurados.
• Bases de datos en la nube:
• Ejemplos: Google BigQuery, Amazon Redshift, Azure SQL Database.
• Modelado de datos:
• Dimensional relacional y orientado a objetos.
Conocimiento en Herramientas BI:
• Herramientas BI clave:
• Power BI: Desarrollo de dashboards interactivos para monitoreo de KPIs.
• Tableau: Creación de reportes visuales para análisis avanzado.
• Looker: Modelado de datos para análisis exploratorio en GCP.
• Qlik Sense: Integración de múltiples fuentes de datos para visualización en tiempo real.
• Responsabilidades en BI:
• Implementación de soluciones BI para análisis de negocio.
• Integración de herramientas BI con data warehouses.
• Optimización de visualizaciones para toma de decisiones ágil.
Calidad e Integración de Datos:
• Procesos ETL/ELT: Diseño y supervisión de procesos eficientes para garantizar la integridad de los datos.
• Estrategias de calidad de datos:
• Validación y limpieza de datos para asegurar su precisión.
• Implementación de controles de calidad automatizados.
• Herramientas de integración y calidad de datos:
• Apache Airflow: Orquestación de flujos de trabajo de datos.
• Talend y dbt: Transformación y calidad de datos en pipelines modernos.
• Prácticas de integración de datos:
• Consolidación de datos desde múltiples fuentes internas y externas.
• Integración de datos en tiempo real para análisis predictivo.
Habilidades Técnicas Esenciales:
• Lenguajes de programación: SQL (avanzado), Python o Scala.
• Procesamiento Big Data: Apache Spark, Kafka (deseable).
• Gobernanza de datos: Experiencia con herramientas de data catalog y control de calidad.
• Conocimiento en arquitectura serverless y microservicios para flujos de datos.
Certificaciones Requeridas (Indispensable tener minimo 1):
• Google Professional Data Engineer (GCP).
• AWS Certified Data Analytics – Specialty (AWS).
• Microsoft Certified: Azure Data Engineer Associate (Azure).
• Certified Data Management Professional (CDMP) por DAMA International (mínimo nivel Associate).
• Certificación en Data Warehouse Architecture (Data Estehouse o equivalente).
Habilidades Blandas:
• Liderazgo y gestión de proyectos multidisciplinarios.
• Excelentes habilidades de comunicación para interactuar con equipos técnicos y de negocio.
• Enfoque estratégico orientado a resultados.
• Capacidad para trabajar de forma independiente en entornos dinámicos.
• Mentalidad analítica y resolutiva para enfrentar desafíos técnicos.
Deseables (No Excluyentes):
• Conocimiento de prácticas DevOps para flujos de datos.
• Experiencia en proyectos de analítica avanzada o machine learning en múltiples nubes.
• Especialización en seguridad y cumplimiento para entornos híbridos y multinube.
Responsabilidades:
• Diseñar e implementar arquitecturas de datos escalables en entornos on-premise, nube (GCP, AWS, Azure) o híbridos, alineadas con las necesidades estratégicas de la organización.
• Liderar proyectos de datos relacionados con:
• Data Management: Definición de políticas de gobierno de datos, calidad y seguridad.
• Data Warehouse: Implementación y optimización de almacenes de datos, tanto on-premise como en la nube.
• Business Intelligence (BI): Integración de soluciones BI para el análisis y visualización de datos.
• Implementar procesos de calidad e integración de datos, asegurando precisión, consistencia y accesibilidad.
• Diseñar y supervisar pipelines de datos (ETL/ELT) eficientes, integrando múltiples fuentes de datos en diversas plataformas.
• Optimizar sistemas de almacenamiento y procesamiento de datos para maximizar el rendimiento y reducir costos.
• Desarrollar estrategias de migración de datos desde entornos on-premise a plataformas en la nube.
• Colaborar con equipos de ingeniería, analítica y negocio para transformar requerimientos en soluciones de datos efectivas.
• Asegurar el cumplimiento de normativas y mejores prácticas en el manejo de datos (GDPR, CCPA, entre otros).
OFRECIMIENTOS:
Sueldo acorde a tu conocimiento y mercado
Prestaciones superiores.
"Los datos personales recopilados a través de Currícula, serán utilizados bajo los fines establecidos en nuestro Aviso de Privacidad integral para candidatos, mismo que se puede consultar en nuestra página de internet".
SÉ PARTE DE NUESTRO EQUIPO DE TRABAJO!!!
ID: 20174136
También puedes buscar
También puedes buscar
Refina la ubicación de tu búsqueda
Refina la ubicación de tu búsqueda