Data Engineer
Descrizione dell'offerta
Data Engineer - End User – Hybrid Working
Realtà di Prodotto Multinazionale è alla ricerca di un Data Engineer ;
Modalità ibrida e flessibile : 3 giorni a settimana da remoto garantiti;
Sede dilavoro : Milano;
Budget : 50K.
Il candidato selezionato entrerà a far parte di un team dedicato a un progetto strategico aziendale: la realizzazione di un nuovo Data Warehouse su piattaforma Cloud. La figura lavorerà in stretta collaborazione con un team interno multidisciplinare e con partner esterni, occupandosi di progettare, sviluppare e, in seguito, mantenere l'infrastruttura dati necessaria per le attività di analisi aziendale.
Responsabilità
Entrerai a far parte del team di Data Engineering e contribuirai alla progettazione e realizzazione di soluzioni data-driven, occupandoti in particolare di:
- Disegnare, sviluppare e mantenere flussi di integrazione dati ed ETL/ELT .
- Realizzare e gestire data warehouse e lakehouse in cloud , garantendo scalabilità, affidabilità e performance.
- Introdurre e migliorare processi di automazione per ottimizzare i flussi di lavoro e ridurre attività manuali.
- Assicurare elevati standard di qualità del dato , sicurezza e compliance alle policy di governance.
- Lavorare a stretto contatto con data analyst e data scientist , traducendo i requisiti di business in soluzioni tecniche efficaci.
- Produrre e mantenere documentazione tecnica chiara e aggiornata su codice, architetture e processi.
- Supportare la raccolta, trasformazione ed esposizione dei dati a supporto delle decisioni strategiche aziendali .
- Analizzare processi di business, logiche applicative e modelli dati esistenti per proporre miglioramenti.
- Mantenersi costantemente aggiornato/a su tecnologie, strumenti e best practice del data engineering.
Requisiti
- Laurea in Informatica, Ingegneria Informatica o percorsi equivalenti.
- Almeno 3 anni di esperienza in ruoli di Data Engineering.
- Solida competenza in Python, Java o Scala .
- Esperienza con database SQL e NoSQL (ad esempio MySQL, PostgreSQL, SQL Server, Hadoop).
- Conoscenza pratica di Azure Fabric (Data Factory, Lakehouse, Data Warehouse) e di Google Cloud Platform , in particolare BigQuery .
- Familiarità con i principi di data governance, sicurezza e gestione del dato .
Costituiscono un plus
- Esperienza con strumenti di data visualization e reporting (come Tableau, Looker o Power BI).
- Conoscenza di framework e strumenti di data processing e orchestration quali Apache Spark, Airflow o AWS Glue.
Cosa si offre
- Un ambiente di lavoro giovane, dinamico e collaborativo.
- Colleghi appassionati con cui condividere e accrescere le competenze.
- Possibilità di giocare un ruolo chiave in un progetto rilevante nel campo dei dati.
- Riconoscimento del merito, indipendentemente dall’anzianità.
- Flessibilità lavorativa, smart working e vantaggi di welfare.
- Feedback periodici per lo sviluppo professionale e il miglioramento delle performance.
- Momenti dedicati alla socializzazione e celebrazione dei successi.
- Iniziative di formazione e condivisione di competenze.
- Opportunità di collaborazione con team internazionali su progetti specifici.