Big Data Engineer - Technical Leader
Descrizione dell'offerta
Nell’ottica del potenziamento della nostra divisione DWIT - Business Line dedicata all'IT Consulting di eGlue - stiamo ricercando una figura di Big Data Engineer - Technical Leader.
Sede di Lavoro : Torino, ibrido (3 giorni di presenza on-site, 2 da remoto).
Contratto: fino a 50.000€RAL, a seconda dell'esperienza maturata. Assunzione a tempo indeterminato con contratto CCNL Metalmeccanico. L'offerta include buoni pasto da 6,50€ per giorno lavorato, 200€ Welfare, Assicurazione Sanitaria a copertura del nucleo familiare.
La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.
Responsabilità:
- Gestione di progetti Big Data coordinando un team di sviluppo dedicato;
- Gestione dei layer di integrazione su piattaforma Big Data;
- Contribuire alla evoluzione del sistema Big Data definendo standard, regole e modelli architetturali, e dando supporto a progetti strategici come il Journey to Cloud;
- Progettare e successivamente validare le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema.
Requisiti:
- Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
- Precedente esperienza professionale nella gestione di progetti Big Data (analisi progettuale, definizione degli obiettivi, monitoraggio avanzamento progetto);
- Strumenti del framework Cloudera e/o Databricks/AWS;
- Conoscenza di strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari);
- Linguaggi di programmazione: Java, Python o Scala;
- DB NoSQL (HBase, Cassandra, MongoDB e similari);
- Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;
- Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito.
Completano il profilo:
- Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving;
- Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
- Conoscenza di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari)
- Principali tecniche di data wrangling, cleansing, exploration e featurization.