Data Engineer ( Rif. 2025-267)

aizoOn Technology Consulting · Torino, Piemonte, Italia ·


Descrizione dell'offerta

aizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale ricerca un / una Data Engineer.

Il / La candidato / a verrà inserito / a nell'area IT della divisione di mercato Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.

Parteciperà a progetti complessi di integrazione dati su AWS, lavorerà su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati.

In particolare si occuperà di:

• Progettare e implementare pipeline ETL per l'integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda.

• Creare soluzioni di migrazione dei dati utilizzando AWS DMS, Debezium e altri strumenti di change data capture per consentire la sincronizzazione continua dei dati tra microservizi e sistemi esterni.

• Progettare soluzioni di data lake su S3, strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge.

• Gestire l'evoluzione degli schemi e le sfide relative alla qualità dei dati, risolvendo le incongruenze dei tipi di dati tra sistemi NoSQL e SQL.

PROFILO

  • Laurea in materie tecnico/scientifiche.
  • Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions).
  • Ottima conoscenza della lingua inglese, minimo B2.

COMPETENZE TECNICHE

  • Esperienza pratica con con strumenti di migrazione dati e CDC, tra cui AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione del database.
  • Esperienza nell'elaborazione di dati in batch e streaming con Apache Spark (Scala/Python), PySpark e architetture di pipeline di dati distribuite.
  • Ottime competenze di database che includono SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server).
  • Competenza nell'architettura dei microservizi e nei modelli di integrazione API, tra cui API REST, limitazione della velocità, meccanismi di ripetizione e tolleranza agli errori.
  • Esperienza con formati di dati e gestione degli schemi, tra cui Parquet, JSON, evoluzione degli schemi e convalida della qualità dei dati.
  • Competenza nella programmazione in Python per l'elaborazione dei dati, lo scripting e l'integrazione con AWS SDK.

Nice to have:

  • Esperienza di Infrastructure as Code (IaC) con Terraform o CloudFormation per la distribuzione automatizzata di pipeline di dati
  • Esperienza di governance e monitoraggio dei dati con CloudWatch, metriche personalizzate, tracciamento della discendenza dei dati e sistemi di avviso.
  • Gestione di pipeline CI/CD per la distribuzione e il test automatizzati di soluzioni di data engineering.
  • Pratiche DevOps ed esperienza con tecnologie di containerizzazione e orchestrazione.

INFORMAZIONI AGGIUNTIVE

Sono previste saltuarie e brevi trasferte presso il cliente a Torino.

The job search refers to candidates of both genders

Candidatura e Ritorno (in fondo)