Hace 7 días
Ingeniero de datos
$40,000 - $45,000 Mensual
Sobre el empleo
Descripción
En Daltum Systems nos encontramos en la búsqueda para uno de nuestros clientes del sector de logística un Ingeniero de Datos para trabajar híbrido desde Monterrey.
Prestaciones: De ley + SGMM a partir del 3er. mes
Modalidad: Hibrido. (Ubicación Oficina: Dirección: Calle Vicente Guerrero, Esquina con Av. Don Luis G. Sada)
Horario: De 8:30 am – 6:30 pm
Principales Actividades / Responsabilidades:
- Ingesta de datos
o Extraer datos de diversas fuentes operativas (SQL Server, APIs, archivos,
otros sistemas).
o Automatizar procesos de carga e integración (batch o incremental).
- Transformación
o Aplicar reglas de negocio (Python, notebooks, SQL)
o Estandarizar, QA de data.
o Modelado. Construir y mantener modelos de datos
o Configurar flujos ETL/ELT
o Automatización y orquestación de las transformaciones
o Optimización y monitoreo de los procesos
- Documentación
o Colaborar con las diferentes áreas del negocio para documentar linaje, definiciones y flujos de la data.
o Implementar validaciones de calidad en la información con base en las reglas del negocio
Habilidades Requeridas:
- Al menos 2 a 3 años de experiencia trabajando en las siguientes herramientas en un entorno de negocios real.
- Lenguajes / consultas: SQL avanzado, creación de procedimientos almacenados, vistas, funciones escalables y consultas optimizadas. Acceso a los datos y análisis con Python (pandas, pyodbc, SQLAlchemy, manejo de archivos, automatización de
tareas)
- Manejo de información no estructurada, Almacenamiento estructurado de archivos: integración con Azure Blob Storage, datalakes o MongoDB, diferentes formatos JSON´s, CSV´s. Consulta de metadata.
- Modelado de datos: diseño de diferentes formas de modelos (estrella, copo de nieve, etc) . Normalización de data por dominio de negocio
- Conocimientos en Data Lake y Lakehouse: principios de particionamiento, formatos Parquet/Delta, ingestión en capas (Medal, raw, etc). Conocimiento en arquitecturas tipo DataMart, Warehouse o DataFabric
- ETL / ELT: Azure Data Factory, Transformaciones notebooks (Pyspark, Python, SQL Avanzado), dbt. Conocimiento y experiencia en lógica de transformación.
- Cloud / Plataforma: Entorno Azure (Microsoft Data Fabric, SQL Server, Synapse, Data Factory, Blob Storage)
- Conocimiento de PowerBI, uso de DAX, PowerQuery, modelado de datos, Datasets compartidos y modelos semánticos
- Documentación técnica: generación de diccionarios de datos, linaje, scripts comentados y entregables versionados
- Habilidades con el negocio.
o Habilidad para traducir requerimientos funcionales en estructuras de datos.
o Documentación de procesos flujo de data. Pensamiento analítico
o Entendimiento e involucramiento de los conceptos del negocio
ID: 20297832
También puedes buscar
También puedes buscar
Refina la ubicación de tu búsqueda
Refina la ubicación de tu búsqueda