Data Engineer

June 21, 2022
$2800 - $3800 / month
Application deadline closed.

Job Description

ARAUCO ha iniciado una transformación digital con un alcance transversal a todas sus principales líneas de negocio y áreas de soporte de forma global.

Nos encontramos en búsqueda de profesionales de las carreras Ingeniería en Ejecución/Civil Informática o afín, para desempeñar el cargo de Data Engineer en nuestra Oficina Corporativa ubicada en Las Condes, Santiago, con trabajo Home Office y visitas puntuales a oficina.

El Data Engineer será responsable del diseño, desarrollo, implementación y mejora continua de modelos de datos en la plataforma Big Data de la Compañía, así como de los procesos de carga y limpieza de datos asociados.

Trabajamos día a día para desarrollar productos forestales renovables que permitan mejoran la vida de las personas, tarea que nos desafía a tener equipos comprometidos, entusiastas y creativos.

Funciones del cargo

  • Analizar la información entregada por los usuarios clave y científicos de datos para definir alcance y objetivos de los modelos de datos. Formular estrategias de implementación y estimar el esfuerzo asociado. Realizar seguimiento de sus actividades y las de aquellos que participan en el desarrollo del modelo.
  • Definir e implementar la arquitectura de integración desde los sistemas de ARAUCO a la plataforma de Big Data.
  • Implementar los procesos de carga y limpieza de datos para contar con la información requerida en tiempo y forma, y con el nivel de precisión requerido.
  • Responder requerimientos de los usuarios del área BI de acuerdo con lo que canaliza la mesa de ayuda, por asignación directa de la jefatura o por petición directa del usuario, resolviendo pequeños requerimientos de forma interna y apoyándose en consultoras externas frente a aquellos de mayor envergadura.
  • Analizar la estrategia de adquisición de datos, identificar formas de mejorar la confiabilidad, eficiencia y calidad de los datos.

Requerimientos del cargo

  • Plataformas Cloud (GCP, AWS, Azure)
  • Proyectos NET y/o Java
  • Big Data
  • Python
  • Técnicas de procesamiento de datos (Stream, Batch, arquitecturas kappa & lambda)
  • Bases de datos (SQL y NoSql)
  • Shell scripting

Opcionales

  • Certificaciones GCP (Deseable)
  • Nivel de inglés intermedio-avanzado (Deseable).
  • Postítulo en Big Data (Deseable).
  • Azure DevOps
  • Apache Kafka, Spark, Apache Beam, Apache Airflow (Gcp Cloud Composer)

Condiciones

Flexibilidad horaria
Seguros complementarios
Aguinaldo
Entrega de recursos (PC-arreglos)