Software Engineer - Data Platform

CRIF · Italia ·


Descrizione dell'offerta

CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.


Stiamo costruendo una Self-Serve Data Platform enterprise ispirata ai principi della Data Mesh architecture . Il nostro modello prevede:


  • Data Owner (domain experts e business owner) responsabili dei propri dati.
  • Ogni dominio definisce autonomamente i propri Data Product : struttura, semantica, politiche di accesso.
  • Il nostro team realizza la piattaforma tecnologica che abilita questa autonomia: infrastruttura cloud-native, data engineering, streaming, orchestrazione, governance e tooling self-service.


Il tuo ruolo

Sarai il punto di riferimento tecnico per l’architettura e l’implementazione della self-serve data platform : il layer abilitante che consente ai data owner di creare e gestire i loro data product in autonomia. Collaborerai con stakeholder business e tecnici per tradurre requisiti in soluzioni scalabili, sicure e innovative.

Se provieni da architetture tradizionali (es. DWH) e vuoi affrontare le sfide delle moderne piattaforme dati, questa è la tua opportunità!


Responsabilità

  • Guidare l’architettura della data platform e dei microservizi: definizione ecosistema, integrazione, scalabilità, sicurezza.
  • Sviluppare capabilities self-service : API, SDK e framework per abilitare la creazione autonoma di data product.
  • Progettare automazioni end-to-end : pipeline CI/CD, processi di deployment, monitoraggio e governance.
  • Definire standard e best practice : linee guida, template riusabili, coding standards.
  • Technical leadership e mentoring : supporto al team, code review, knowledge sharing.
  • Collaborare con stakeholder : traduzione requisiti, contributo alla roadmap strategica.
  • Monitorare e ottimizzare la piattaforma : performance, affidabilità, cost optimization, strumenti di osservabilità.


Requisiti Essenziali

  • 5+ anni nello sviluppo backend e architetture complesse in contesti enterprise.
  • Esperienza con .NET Core o Java/Spring Boot per API e microservizi.
  • Competenze su microservizi, containerizzazione e orchestrazione (Docker, Kubernetes).
  • Esperienza con cloud provider (Azure, AWS, GCP) e infrastrutture distribuite.
  • Padronanza di CI/CD, DevOps, automazione e strumenti di osservabilità.
  • Esperienza con IaC (Terraform).
  • Conoscenza di orchestratori (Airflow, Dagster, Prefect).
  • API REST, OpenAPI, JSON Schema.
  • Conoscenza di TDD .


Nice to Have

  • Background in data engineering e data platform moderne.
  • Esperienza con ETL/ELT , CDC, data quality.
  • Conoscenza di data streaming (Kafka, Flink).
  • Familiarità con Databricks, Apache Iceberg, Delta Lake .
  • Familiarità con AI e automazione (RAG pipelines, LLM integration).
  • Certificazioni: Databricks , AWS/Azure/GCP , Confluent Kafka .


Sede: Napoli

Candidatura e Ritorno (in fondo)