Senior Data Platform Architect & Engineer

SOMACIS · Castelfidardo, Marche, Italia ·


Descrizione dell'offerta

Descrizione del ruolo:


La figura di Senior Data Platform Architect & Engineer è responsabile della progettazione, implementazione e governo end-to-end di piattaforme dati cloud-based in architettura Lakehouse .


Il ruolo combina competenze architetturali, ingegneristiche e DevOps per garantire scalabilità, performance, sicurezza e qualità del dato , accompagnando l’evoluzione tecnologica della Data Platform.


Responsabilità principali:


Architettura & Design

  • Definizione della struttura del Data Lakehouse , inclusa la scelta di formati (es. Delta Lake), strutture di tabelle, livelli architetturali e workflow.
  • Progettazione di architetture dati, data modeling (3rd Normal Form, Data Vault) a supporto di analytics e casi d’uso avanzati.
  • Disegno di soluzioni scalabili e performanti , con attività di performance tuning e capacity planning.
  • Monitoraggio continuo delle best practice e delle tecnologie cloud , proponendo evoluzioni architetturali e soluzioni innovative.


Data Engineering & Delivery

  • Progettazione e realizzazione tecnica delle pipeline di acquisizione, trasformazione e caricamento dei dati (ETL/ELT) .
  • Integrazione di dati provenienti da fonti eterogenee (database relazionali, sistemi applicativi, dati non strutturati).
  • Monitoraggio del corretto funzionamento delle pipeline e gestione degli errori.
  • Collaborazione con i team responsabili dei sistemi sorgente per definire regole e modalità di alimentazione della Data Platform.


Data Governance, Security & DevOps

  • Implementazione di controlli di Data Quality e regole di Data Governance.
  • Applicazione di controlli di accesso, crittografia dei dati a riposo e in transito , in linea con le policy di sicurezza.
  • Gestione del versioning del codice e dei processi DevOps tramite Git e pipeline CI/CD.
  • Automazione dei rilasci e delle pipeline (Databricks Asset Bundle, Azure DevOps, Jenkins).


Competenze tecniche:


Core skills

  • Progettazione di architetture dati cloud e Lakehouse
  • Data modeling : 3rd Normal Form, Data Vault
  • SQL avanzato
  • Python e/o Scala
  • ETL/ELT e sistemi di integrazione dati
  • Delta Lake, Unity Catalog
  • Git, CI/CD e DevOps per Data Platform


Cloud & Platform

  • Esperienza su almeno uno dei principali cloud provider: Azure (mandatory), AWS o GCP
  • Strumenti di orchestrazione e gestione pipeline in ambiente cloud


Nice to have – Certificazioni

  • Azure Solutions Architect Expert
  • AWS Certified Solutions Architect – Professional
  • Google Professional Cloud Architect
  • Databricks Certified Data Engineer
  • Azure DP-203 / AWS Data Analytics / Google Data Engineer

Candidatura e Ritorno (in fondo)