Descripción del puesto

Participar en la construcción de ETLs que realicen la carga de datos y aseguren la integridad, disponibilidad, confidencialidad y protección de datos estableciendo un marco de trabajo que ayude a la identificación de riesgos y determinación de controles para mitigar los mismos con el mejor costo beneficio para la empresa.

Responsabilidades Principales

      - Diseñar y gestionar arquitecturas de datos.

      - Diseñar, desarrollar y mantener pipelines ETL/ELT para la ingesta y procesamiento de datos.

      - Construir y optimizar almacenes y lagos de datos (Data Warehouses, Data Lakes).

      - Gestionar y mejorar el rendimiento de bases de datos relacionales y NoSQL.

      - Desplegar y administrar soluciones en la nube (Azure) para almacenamiento y procesamiento de datos.

      - Garantizar la calidad, gobernanza y seguridad de los datos.

      - Colaborar con equipos de ciencia de datos e ingeniería para integrar datos en modelos analíticos y de machine learning.

      - Monitorear y optimizar la infraestructura de datos para mejorar la escalabilidad y eficiencia.


Requisitos

Requisitos Técnicos

      - Lenguajes de Programación: Python, SQL

      - Bases de Datos: SQL Server

      - Cloud Computing: Azure (Microsoft Azure Data Factory, Microsoft Fabric)

      - Procesos y Arquitectura: ETL/ELT (Extracción, Transformación y Carga), Arquitecturas de Data Warehousing y Data Lakes y Orquestación de datos

      - Modelado de Datos y Optimización de Consultas SQL.

      - Implementación de estándares de calidad de datos para garantizar la precisión, confiabilidad e integridad

      - Gobernanza de datos y cumplimiento normativo

      - Procesos y Arquitecturas: Diseño y gestión de arquitecturas de datos, Modelado de datos (ERWin, Visio) e Integración y orquestación de datos

      - Metodologías de Arquitectura de Datos: TOGAF (The Open Group Architecture Framework) y DAMA-DMBOK (Data Management Body of Knowledge)

Deseable

      - Experiencia o conocimientos en Microsoft Fabric para integración y análisis de datos en entornos de Azure.

      - Conocimientos en seguridad, gobierno y calidad de datos.

      - Bases de Datos: Microsoft SQL Server, Azure SQL Database, Azure Data Lake Storage y Azure Synapse Analytics

      - Cloud Computing: Azure Databricks, Azure Stream Analytics y Power BI.

Educación y Experiencia

      - Licenciatura/Ingeniería en Sistemas, Computación, Electrónica, Matemáticas o carreras afines.

      - Experiencia previa en desarrollo e implementación de arquitecturas de datos.


Beneficios


a través de Hiring Room