Ingeniero de datos
ÁREA: Tech
ABOUT US
UBITS es el hub de educación online de habla hispana, en donde, diseñas, ejecutas y mides tu estrategia de entrenamiento.
Actualmente estamos buscando a nuestro próximo Ingeniero de datos, serás responsable de:
- Desarrollar procesos de ETL (Extract, Transform, Load) para la información Financiera de Ubits.
- Determinar de donde extraer los datos, cómo recuperarlos y construir algoritmos para que el acceso a los datos brutos estén estructurados para el cargue a Netsuite.
- Desarrollo de arquitecturas de datos.
- Identificar cómo mejorar la calidad, eficiencia y confiabilidad de los datos desde diferentes fuentes de información.
- Soportar y dar lineamientos de las nuevas prácticas de Gobierno de Datos para la compañía.
- Alienar y analizar los datos con las necesidades y objetivos del proyecto Ubits Flow.
PERFIL Y PROPÓSITO GENERAL
Profesional en carreras de tecnología, con experiencia en desarrollo y mantenimiento de arquitecturas de datos, creación y gestión de Pipelines o flujos de datos para mover la información de un lugar a otro de manera automatizada, asegurando la integridad y la calidad de los datos.
Excelentes habilidades de comunicación con stakeholders y alta orientación alcumplimiento de objetivos y la optimización de procesos.
FUNCIONES DEL CARGO
- Recopilar y cargar datos desde diversas fuentes, como bases de datos, sistemas de archivos, API y flujos de datos en tiempo real.
- A cargo de la limpieza, filtrado, transformación y normalización de datos para garantizar la consistencia y la calidad antes de almacenarlos y procesarlos.
- Diseñar y crear modelos de datos que se ajusten a los requisitos comerciales y faciliten la eficiente recuperación y análisis de información.
- Crear y mantener los procesos automatizados (pipelines) para la ingestión, transformación y carga de datos, asegurando la eficiencia y la integridad del flujo de datos.
- Implementar prácticas para garantizar la calidad, la integridad y la consistencia de los datos a lo largo del tiempo.
- Implementar medidas de seguridad para proteger la confidencialidad, integridad y disponibilidad de los datos, cumpliendo con regulaciones y políticas internas.
- Identificar y resolver cuellos de botella en el rendimiento del sistema, asegurando la eficiencia en el procesamiento y acceso a los datos.
REQUISITOS
NIVEL EDUCATIVO
- Profesional en carreras de ingeniería de Sistemas, Computación, deSoftware, Electrónica o afines.
EXPERIENCIA
- Experiencia de 3 a 4 años en roles similares.
- Dominio de lenguajes como Python, Java, Scala o SQL.
- Experiencia en el uso de frameworks como Apache Spark, Apache Flink o Hadoop.
- Conocimientos sólidos en bases de datos relacionales (por ejemplo,MySQL, PostgreSQL) y no relacionales (MongoDB, Cassandra).
- Experiencia en el diseño y desarrollo de pipelines de datos.
- Familiaridad con tecnologías de almacenamiento de datos comoAmazon S3, HDFS o Azure Data Lake.
- Habilidad para diseñar esquemas de bases de datos eficientes ymodelos de datos dimensionales.
- Experiencia con herramientas de Extract, Transform, Load (ETL) comoApache, Talend, o Airflow.
- Familiaridad con ecosistemas de Big Data como Apache Hadoop, Spark y tecnologías asociadas.
- Habilidad para automatizar procesos y tareas utilizando scripts y herramientas de automatización.
EXPERIENCIA
- Resolución de problemas
- Adaptabilidad y aprendizaje continuo
- Orientación a optimización de procesos
- Trabajo en equipo
- Resiliencia
- Velocidad
Condiciones
- Contrato prestación de servicios
- Trabajo híbrido/remoto