Data Engineer
Descrizione dell'offerta
Per una grande realtà con sede a Bologna, impegnata nel supporto alle imprese nei percorsi di digitalizzazione, sostenibilità e innovazione attraverso consulenza e valutazione tecnologica, stiamo cercando un/una:
Non si lasci sfuggire questa opportunità: si candidi rapidamente se la sua esperienza e le sue competenze corrispondono a quanto descritto di seguito.
Data Engineer con competenze ibride tra data engineering e HPC (Slurm) per progettare e gestire pipeline dati e carichi di calcolo ad alte prestazioni
La figura lavorerà a stretto contatto con il CTO, contribuendo allo sviluppo di progetti di innovazione, attività dimostrative e iniziative formative, integrando infrastrutture HPC, sistemi di storage distribuito e strumenti di monitoraggio.
Principali responsabilità:
- Gestire la delivery delle commesse, sia di mercato sia di progetti finanziati, assicurando il rispetto dei tempi, delle risorse e degli obiettivi prefissati.
- Valutare tecnicamente le soluzioni proposte e implementate, garantendone la fattibilità operativa.
- Collaborare con i team tecnici per verificare che le soluzioni rispettino gli standard qualitativi e le best practice.
- Monitorare l’avanzamento dei progetti, identificando tempestivamente eventuali criticità e proponendo soluzioni correttive.
Si richiede:
- Laurea Magistrale in Informatica, Ingegneria Informatica, Data Science o affini.
- Almeno un anno di esperienza in ruoli di data engineering e/o HPC.
- Ottima conoscenza di Python e scripting bash.
- Esperienza con pipeline ETL/ELT, orchestrazione di flussi dati.
- Familiarità con object storage / S3 e storage distribuiti.
- Esperienza di base con HPC: job scheduling (Slurm), calcolo parallelo, filesystem ad alte prestazioni.
- Esperienza con Telegraf, InfluxDB, Grafana o strumenti equivalenti per metriche e dashboard.
- Conoscenza di protocolli industriali, in particolare OPC UA.
- Buona conoscenza della lingua inglese (liv. B2).
Requisiti preferenziali (PLUS)
- Esperienza con piattaforme AI/ML su cluster o cloud.
- Familiarità con container, architetture a microservizi, Kubernetes e integrazione di workload dati/HPC.
- Utilizzo di tool di calcolo interattivo (es. JupyterHub, Open OnDemand).
- Esperienza in benchmark e tuning prestazionale su cluster (CPU/GPU).
- Esperienza in contesti Industria 4.0 (edge, acquisizione dati da impianto, sistemi di supervisione)
Sede di lavoro: Bologna
Orario di lavoro: full time, dal lunedì al venerdì, 9:00-18:00
Si offre inserimento diretto in azienda
CCNL Commercio (14 mensilità), livello da stabilire in sede di colloquio in base all’esperienza +Buoni pasto da €10 per ogni giornata lavorativa + Piano di welfare aziendale
I candidati, nel rispetto del D.lgs. 198/2006, D.lgs 215/2003 e D.lgs 216/2003, sono invitati a leggere l'informativa sulla privacy consultabile sotto il form di richiesta dati della pagina di candidatura (Regolamento UE n. 2016/679).
ATTENZIONE: Abbiamo rilevato la presenza in rete di molti annunci falsi; prendi visione dei nostri consigli per riconoscere i tentativi di truffa sulla pagina dedicata al phishing su .
Adecco Italia S.p.A. (Aut. xdwybme Min. Prot. N.1100-SG del ).