Data Engineer (Rif. 2026-112)

aizoOn Technology Consulting · Chieti, Italia ·


Descrizione dell'offerta

aizoOn , società di tecnologia e consulenza, indipendente, operante a livello globale, ricerca un / a Data Engineer.


Il/La candidato/a verrà inserito/a nell’area IT della divisione Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.


Parteciperà a progetti complessi di integrazione dati su AWS, lavorando su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati basate su eventi, con focus sull’integrazione tra sistemi eterogenei.



Attività previste


  • Progettare e implementare pipeline ETL per l’integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda
  • Creare soluzioni di migrazione dati e CDC utilizzando AWS DMS, Debezium e strumenti di Change Data Capture per la sincronizzazione continua dei dati tra microservizi e sistemi esterni
  • Progettare soluzioni di data lake su S3, definendo strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge
  • Sviluppare integrazioni dati a bassa latenza per la sincronizzazione CRM su più ecosistemi di microservizi
  • Gestire l’evoluzione degli schemi e le problematiche legate alla qualità dei dati, risolvendo incongruenze tra sistemi NoSQL e SQL


PROFILO


  • Laurea in discipline tecnico-scientifiche
  • Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)
  • Buona conoscenza della lingua inglese scritta, parlata e compresa (minimo B2)


COMPETENZE TECNICHE


  • Buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)
  • Esperienza con strumenti di migrazione dati e CDC (AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione)
  • Esperienza nell’elaborazione dati batch e streaming con Apache Spark (Scala/Python), PySpark e architetture distribuite
  • Competenze su database: SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server)
  • Conoscenza dell’architettura a microservizi e modelli di integrazione API (REST, gestione errori, retry, rate limiting)
  • Esperienza con formati dati e gestione schemi (Parquet, JSON, evoluzione schemi, data quality)
  • Programmazione in Python per data processing, scripting e integrazione con AWS SDK


Nice to have


  • Esperienza in Infrastructure as Code (Terraform o CloudFormation)
  • Esperienza con stream processing (Apache Kafka, AWS Kinesis, architetture event-driven)
  • Esperienza in data governance e monitoring (CloudWatch, metriche custom, data lineage, alerting)
  • Gestione pipeline CI/CD per deployment e testing
  • Esperienza DevOps e tecnologie di containerizzazione/orchestrazione



Sede di lavoro



Full remote working con saltuaria presenza presso il cliente a Torino




The job search refers to candidates of both genders

Candidatura e Ritorno (in fondo)