Data Engineer ( Rif. 2025-267)
Descrizione dell'offerta
aizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale ricerca un / una Data Engineer.
Il / La candidato / a verrà inserito / a nell'area IT della divisione di mercato Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.
Parteciperà a progetti complessi di integrazione dati su AWS, lavorerà su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati.
In particolare si occuperà di:
• Progettare e implementare pipeline ETL per l'integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda.
• Creare soluzioni di migrazione dei dati utilizzando AWS DMS, Debezium e altri strumenti di change data capture per consentire la sincronizzazione continua dei dati tra microservizi e sistemi esterni.
• Progettare soluzioni di data lake su S3, strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge.
• Gestire l'evoluzione degli schemi e le sfide relative alla qualità dei dati, risolvendo le incongruenze dei tipi di dati tra sistemi NoSQL e SQL.
PROFILO
- Laurea in materie tecnico/scientifiche.
- Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions).
- Ottima conoscenza della lingua inglese, minimo B2.
COMPETENZE TECNICHE
- Esperienza pratica con con strumenti di migrazione dati e CDC, tra cui AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione del database.
- Esperienza nell'elaborazione di dati in batch e streaming con Apache Spark (Scala/Python), PySpark e architetture di pipeline di dati distribuite.
- Ottime competenze di database che includono SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server).
- Competenza nell'architettura dei microservizi e nei modelli di integrazione API, tra cui API REST, limitazione della velocità, meccanismi di ripetizione e tolleranza agli errori.
- Esperienza con formati di dati e gestione degli schemi, tra cui Parquet, JSON, evoluzione degli schemi e convalida della qualità dei dati.
- Competenza nella programmazione in Python per l'elaborazione dei dati, lo scripting e l'integrazione con AWS SDK.
Nice to have:
- Esperienza di Infrastructure as Code (IaC) con Terraform o CloudFormation per la distribuzione automatizzata di pipeline di dati
- Esperienza di governance e monitoraggio dei dati con CloudWatch, metriche personalizzate, tracciamento della discendenza dei dati e sistemi di avviso.
- Gestione di pipeline CI/CD per la distribuzione e il test automatizzati di soluzioni di data engineering.
- Pratiche DevOps ed esperienza con tecnologie di containerizzazione e orchestrazione.
INFORMAZIONI AGGIUNTIVE
Sono previste saltuarie e brevi trasferte presso il cliente a Torino.
The job search refers to candidates of both genders