Job Description
ARAUCO ha iniciado una transformación digital con un alcance transversal a todas sus principales líneas de negocio y áreas de soporte de forma global.
Nos encontramos en búsqueda de profesionales de las carreras Ingeniería en Ejecución/Civil Informática o afín, para desempeñar el cargo de Data Engineer en nuestra Oficina Corporativa ubicada en Las Condes, Santiago, con trabajo Home Office y visitas puntuales a oficina.
El Data Engineer será responsable del diseño, desarrollo, implementación y mejora continua de modelos de datos en la plataforma Big Data de la Compañía, así como de los procesos de carga y limpieza de datos asociados.
Trabajamos día a día para desarrollar productos forestales renovables que permitan mejoran la vida de las personas, tarea que nos desafía a tener equipos comprometidos, entusiastas y creativos.
Funciones del cargo
- Analizar la información entregada por los usuarios clave y científicos de datos para definir alcance y objetivos de los modelos de datos. Formular estrategias de implementación y estimar el esfuerzo asociado. Realizar seguimiento de sus actividades y las de aquellos que participan en el desarrollo del modelo.
- Definir e implementar la arquitectura de integración desde los sistemas de ARAUCO a la plataforma de Big Data.
- Implementar los procesos de carga y limpieza de datos para contar con la información requerida en tiempo y forma, y con el nivel de precisión requerido.
- Responder requerimientos de los usuarios del área BI de acuerdo con lo que canaliza la mesa de ayuda, por asignación directa de la jefatura o por petición directa del usuario, resolviendo pequeños requerimientos de forma interna y apoyándose en consultoras externas frente a aquellos de mayor envergadura.
- Analizar la estrategia de adquisición de datos, identificar formas de mejorar la confiabilidad, eficiencia y calidad de los datos.
Requerimientos del cargo
- Plataformas Cloud (GCP, AWS, Azure)
- Proyectos NET y/o Java
- Big Data
- Python
- Técnicas de procesamiento de datos (Stream, Batch, arquitecturas kappa & lambda)
- Bases de datos (SQL y NoSql)
- Shell scripting
Opcionales
- Certificaciones GCP (Deseable)
- Nivel de inglés intermedio-avanzado (Deseable).
- Postítulo en Big Data (Deseable).
- Azure DevOps
- Apache Kafka, Spark, Apache Beam, Apache Airflow (Gcp Cloud Composer)
Condiciones
Flexibilidad horaria
Seguros complementarios
Aguinaldo
Entrega de recursos (PC-arreglos)