Senior Data Platform Engineer

CRIF · Torino, Piemonte, Italia ·


Descrizione dell'offerta

CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.


Stiamo costruendo una Self-Serve Data Platform enterprise seguendo i principi della Data Mesh architecture . Di seguito il nostro modello con le figure chiave:

  1. I data owner (domain expertse business owner) mantengono il controllo e la responsabilità dei loro dati
  2. Ogni domain expert definisce autonomamente i propri Data Product: struttura, semantica, politiche di accesso
  3. Il nostro team costruisce la piattaforma tecnologica che abilita questa autonomia: infrastruttura cloud-native basata su data engineering, capabilities di data streaming, orchestrazione, governance e tooling self-service


Il tuo ruolo? Guidi l'architettura e l'implementazione insieme ad altre figure senior, della self-serve data platform - il layer abilitante che permette ai data owner (business) di creare e gestire i loro data product in autonomia, collaborando con loro per capirne i requisiti e fornendo governance, tooling e supporto tecnico.


Se vieni da architetture tradizionali (ex: DWH), vuoi rimetterti in gioco usando tecnologie più innovative e conosci le sfide ed i concetti delle piattaforme di dati moderne, questa è la tua opportunità!


Cosa farai concretamente

  1. Guiderai l'architettura della data platform: collaborerai con altre figure Senior nellaprogettazione dell'ecosistema di prodotti e servizi (Databricks, streaming platform, orchestration, catalog) definendo come si integrano e comunicano
  2. Implementerai capabilitiesself-service avanzate: costruirai framework, API, SDK che permettono ai domain team di creare data product in autonomia con pattern consistenti
  3. Integrerai e customizzerai prodotti enterprise: installerai e adatterai soluzioni dei partner tecnologici alle esigenze aziendali, bilanciando out-of-the-box vs customizzazione
  4. Progetterai automazioni end-to-end: on-boarding automatico di sorgenti dati, pipelinedi governance, processidi data quality, workflow di deployment
  5. Definirai standard tecnicie best practice: template riusabili, linee guida architetturali, pattern per integrazione, coding standards per componenti condivisi
  6. Implementerai strategie di governance federata: bilancerai controllo centralizzato (compliance, security) con autonomia dei domain team
  7. Farai da technicallead e mentor: guidi il team su scelte tecniche, code review, knowledge sharing, escalation tecnica.
  8. Collaborerai con stakeholder multipli: domain team per capire requisiti, vendor per sfruttare al meglio i loro prodotti, leadership per roadmap strategica
  9. Monitorerai e ottimizzerai la piattaforma: garantirai SLA, performance, cost optimization, scalabilità dell'intera infrastruttura


Solide competenze tecniche:

  1. 5+ anni di esperienza in data engineering, data warehousing o moderne data platform, con track record su progetti enterprise complessi
  2. Esperienza con ambienti Cloud (Azure, AWS o GCP) - provisioning risorse, networking, security base
  3. Strong programming skills: sviluppo pipeline, automazioni, framework riusabili
  4. ETL/ELT enterprise-grade: esperienza con processi batch complessi, CDC (Change Data Capture), incremental loads, data quality checks
  5. Esperienza con piattaforme di data integration (Informatica PowerCenter/IICS, Ab Initio, Talend, Oracle ODI, DataStage) e/o modern data streaming (Kafka/Confluent, Flink)
  6. Infrastructure-as-code mastery: Terraform, Pulumi o simili
  7. Esperienza di utilizzo di API REST, OpenAPI, JSON Schema perintegrazione tra sistemi.
  8. API design e governance: REST, GraphQL, event-driven architecture
  9. Conoscenza del Test Driven Design (TDD)


AI e automazione:

  1. Esperienza con AI agents perautomazione platform (auto-tuning, anomaly detection, self-healing)
  2. Conoscenza di RAG pipelines perdocumentation intelligente o metadata discovery
  3. Familiarità con LLM integration pernatural language interfaces alla piattaforma
  4. Utilizzo quotidiano di AI coding assistants (GitHub Copilot, Cursor) per accelerare sviluppo


Developer experience:

  1. Capiscii 4 pilastri Data Mesh e hai esperienza pratica nell'implementare il pilastro "self-serve data infrastructure as a platform"
  2. Esperienza hands-on con Apache Iceberg o Delta Lake - governance, performance tuning, migration strategies
  3. Hai costruito data catalogs o integrato tool come Collibra,Alation, Purview con la piattaforma


Certificazioni:

  1. Databricks Certified Data Engineer Professional o Solutions Architect
  2. AWS/Azure/GCP certifications (Data Engineer,Solutions Architect)
  3. Confluent CertifiedAdministrator for Apache Kafka


Leadership Tecnica

  1. Platform thinking - pensi a riusabilità, scalabilità, multi-tenancy by design, non solo alla soluzione puntuale
  2. Service mindset - i tuoi "clienti" sono i domainteam, la loro produttività è la tua metrica di successo
  3. Capacità di navigare ambiguitàe vincoli - bilancirequisiti business, limitazioni tecniche, budget, time-to-market
  4. Leadership tecnicasenza ego - mentori,fai crescere il team, condividi ownership, celebri successi altrui
  5. Pragmatismo architetturale - sai quando usare il 20% di un prodottoche risolve l'80% del problema vs customizzazione completa
  6. Orientamento al valore - valutiROI di ogni iniziativa, non ti innamoridella tecnologia per la tecnologia
  7. Attitudine alla sperimentazione strutturata - PoC, spike,A/B test su nuove capabilities prima di rollout completo

Candidatura e Ritorno (in fondo)