Unieuro - Data Engineer

Unieuro S.p.A. · WorkFromHome, Lombardia, Italia · · 50€ - 70€


Descrizione dell'offerta

Overview

Per ampliare la nostra Area Omnichannel, siamo alla ricerca di un/una Data Engineer da inserire nel team Advanced Analytics , un team giovane e dinamico, composto da Data Analyst, Data Scientist ed altri Data Engineer. Inserita in un contesto aziendale innovativo, in cui la cultura del dato è al centro delle decisioni strategiche, la risorsa entrerà a far parte di un Team di Advanced Analytics giovane, aperto al dialogo e alla crescita reciproca, dove settimanalmente avrà del tempo dedicato alla sperimentazione, alla formazione individuale e a quella di gruppo, per rimanere aggiornato e coltivare le sue competenze.

Nello specifico, il/la Data Engineer si occuperà di:

Responsibilities

  • Progettare e sviluppare pipeline dati su cloud GCP, principalmente su Cloud Composer (Airflow) e Vertex AI per orchestrare processi ETL e pipeline ML
  • Collaborare con Data Scientist e Data Analyst per la creazione e gestione di data lake, data mart e tabelle su BigQuery
  • Gestire processi di CI/CD e versionamento del codice tramite GitHub
  • Partecipare attivamente alla raccolta requisiti confrontandoti con team tecnici e di business
  • Proporre soluzioni innovative e contribuire al miglioramento continuo dell’ecosistema dati di Unieuro

Qualifications

  • Almeno 2 anni di esperienza nel ruolo di Data Engineer o similare
  • Ottima padronanza di Python e SQL
  • Esperienza con almeno uno dei principali cloud provider (GCP, AWS, Azure), con preferenza per GCP
  • Familiarità con pipeline dati, modelli Machine Learning e strumenti di orchestrazione
  • Conoscenza dei principi del code versioning e delle best practice CI/CD
  • Proattività, autonomia nella conduzione delle attività, spirito critico e orientatamento al miglioramento continuo
  • Buona conoscenza della lingua inglese

Valore aggiunto

  • Conoscenza della piattaforma KNIME Analytics
  • Esperienza con database NoSQL (es. MongoDB, Firestore, DynamoDB)
  • Familiarità con i concetti di Data Mesh, Data Contract, Data Domain e Data Product
  • Esperienza nell’utilizzo di Confluence per la documentazione tecnica
  • Conoscenze di Docker e Kubernetes per la containerizzazione e gestione di ambienti distribuiti

Regolamento e sede

La posizione prevede la possibilità di aderire al Regolamento di Smart Working aziendale, ferma restando la disponibilità a raggiungere le Sedi di Forlì e Milano in ragione delle esigenze organizzative che lo richiedessero e ai sensi del predetto regolamento.

La ricerca è rivolta a candidati ambo i sessi e i dati saranno trattati conformemente a quanto previsto dalla normativa in materia di protezione dei dati personali.

San Donato Milanese, Lombardy, Italy

#J-18808-Ljbffr

Candidatura e Ritorno (in fondo)