Data Engineer

Eligo Recruitment · Italia, Italia ·


Descrizione dell'offerta

Data Engineer - End User – Hybrid Working


Realtà di Prodotto Multinazionale è alla ricerca di un Data Engineer ;

Modalità ibrida e flessibile : 3 giorni a settimana da remoto garantiti;

Sede dilavoro : Milano;

Budget : 50K.


Il candidato selezionato entrerà a far parte di un team dedicato a un progetto strategico aziendale: la realizzazione di un nuovo Data Warehouse su piattaforma Cloud. La figura lavorerà in stretta collaborazione con un team interno multidisciplinare e con partner esterni, occupandosi di progettare, sviluppare e, in seguito, mantenere l'infrastruttura dati necessaria per le attività di analisi aziendale.


Responsabilità

Entrerai a far parte del team di Data Engineering e contribuirai alla progettazione e realizzazione di soluzioni data-driven, occupandoti in particolare di:

  • Disegnare, sviluppare e mantenere flussi di integrazione dati ed ETL/ELT .
  • Realizzare e gestire data warehouse e lakehouse in cloud , garantendo scalabilità, affidabilità e performance.
  • Introdurre e migliorare processi di automazione per ottimizzare i flussi di lavoro e ridurre attività manuali.
  • Assicurare elevati standard di qualità del dato , sicurezza e compliance alle policy di governance.
  • Lavorare a stretto contatto con data analyst e data scientist , traducendo i requisiti di business in soluzioni tecniche efficaci.
  • Produrre e mantenere documentazione tecnica chiara e aggiornata su codice, architetture e processi.
  • Supportare la raccolta, trasformazione ed esposizione dei dati a supporto delle decisioni strategiche aziendali .
  • Analizzare processi di business, logiche applicative e modelli dati esistenti per proporre miglioramenti.
  • Mantenersi costantemente aggiornato/a su tecnologie, strumenti e best practice del data engineering.


Requisiti

  • Laurea in Informatica, Ingegneria Informatica o percorsi equivalenti.
  • Almeno 3 anni di esperienza in ruoli di Data Engineering.
  • Solida competenza in Python, Java o Scala .
  • Esperienza con database SQL e NoSQL (ad esempio MySQL, PostgreSQL, SQL Server, Hadoop).
  • Conoscenza pratica di Azure Fabric (Data Factory, Lakehouse, Data Warehouse) e di Google Cloud Platform , in particolare BigQuery .
  • Familiarità con i principi di data governance, sicurezza e gestione del dato .


Costituiscono un plus

  • Esperienza con strumenti di data visualization e reporting (come Tableau, Looker o Power BI).
  • Conoscenza di framework e strumenti di data processing e orchestration quali Apache Spark, Airflow o AWS Glue.


Cosa si offre

  • Un ambiente di lavoro giovane, dinamico e collaborativo.
  • Colleghi appassionati con cui condividere e accrescere le competenze.
  • Possibilità di giocare un ruolo chiave in un progetto rilevante nel campo dei dati.
  • Riconoscimento del merito, indipendentemente dall’anzianità.
  • Flessibilità lavorativa, smart working e vantaggi di welfare.
  • Feedback periodici per lo sviluppo professionale e il miglioramento delle performance.
  • Momenti dedicati alla socializzazione e celebrazione dei successi.
  • Iniziative di formazione e condivisione di competenze.
  • Opportunità di collaborazione con team internazionali su progetti specifici.

Candidatura e Ritorno (in fondo)