Big Data Engineer

eglue · Metropolitan City of Turin, Piemonte, Italia ·


Descrizione dell'offerta

eGlue è un partner considerato strategico dalle aziende clienti che desiderano innovare e ottimizzare la comunicazione digitale con il proprio customer base. Con oltre 40 anni di esperienza, eGlue affianca i propri clienti in un percorso di trasformazione digitale che abbraccia la comunicazione, la consulenza e l'innovazione tecnologica. L'azienda opera attraverso tre principali aree di business:


  • Engagement Services: eGlue connette le aziende e i loro clienti attraverso strumenti innovativi di comunicazione con l’obiettivo di creare e perfezionare l’esperienza del cliente (Customer Journey) e di conseguire gli obiettivi di business dell’azienda.
  • CCM Consulting: Grazie a una profonda conoscenza del mercato IT e delle dinamiche di business, eGlue offre consulenza di processo per supportare le aziende nello sviluppo e nell'implementazione di strategie in ambito di digital comunication e digital trasformation
  • IT Consulting: eGlue fornisce consulenza IT altamente specializzata in ambito Governance, Cloud & Infrastructure, Big Data & AI e Cyber Security. Con profili verticalizzati sui settori Banking, Insurance, Energy e Utilities, eGlue si propone come un partner in grado di rispondere alle sfide più complesse dei propri clienti, offrendo soluzioni su misura e un supporto di eccellenza.


In ottica di potenziamento della ns divisione IT Consulting stiamo ricercando una figura di:


Big Data Engineer


La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.


Attività:

  • Sviluppo di progetti Big Data garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire alla definizione degli standard, regole e modelli architetturali;
  • Coordinamento operativo degli attori coinvolti.


Requisiti:

  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Almeno 2-3 anni di esperienza nel ruolo;
  • Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;
  • Linguaggi di programmazione: Java, Python R (Scala preferenziale);
  • Conoscenza dei principali pattern architetturali di data-architecture;
  • Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (e.g. Spark, Amazon Athena, Google BigQuery, Hadoop, Hive) e storicizzazione (e.g. Amazon S3, Google Cloud Storage, HDFS);
  • Strumenti di elaborazione streaming (e.g. Flink, Storm, Spark Streaming, Kafka, e similari);
  • Manipolazione, estrazione e trasformazione di database non strutturati;


A completamento del profilo costituiscono requisito preferenziale:

  • Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
  • Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
  • Principali tecniche di data wrangling, cleansing, exploration e featurization.


Sede di Lavoro : Torino


Modalità di Lavoro : alternanza settimanale tra presenza on-site (3 gg) e lavoro da remoto (2gg).


Contratto: Assunzione Diretta a tempo indeterminato con contratto CCNL Metalmeccanico, fino a 55.000€ RAL. L’offerta include buoni pasto da 6,50€ per giorno lavorato.

Candidatura e Ritorno (in fondo)