Software Engineer - Data Platform
Descrizione dell'offerta
CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.
Stiamo costruendo una Self-Serve Data Platform enterprise ispirata ai principi della Data Mesh architecture . Il nostro modello prevede:
- Data Owner (domain experts e business owner) responsabili dei propri dati.
- Ogni dominio definisce autonomamente i propri Data Product : struttura, semantica, politiche di accesso.
- Il nostro team realizza la piattaforma tecnologica che abilita questa autonomia: infrastruttura cloud-native, data engineering, streaming, orchestrazione, governance e tooling self-service.
Il tuo ruolo
Sarai il punto di riferimento tecnico per l’architettura e l’implementazione della self-serve data platform : il layer abilitante che consente ai data owner di creare e gestire i loro data product in autonomia. Collaborerai con stakeholder business e tecnici per tradurre requisiti in soluzioni scalabili, sicure e innovative.
Se provieni da architetture tradizionali (es. DWH) e vuoi affrontare le sfide delle moderne piattaforme dati, questa è la tua opportunità!
Responsabilità
- Guidare l’architettura della data platform e dei microservizi: definizione ecosistema, integrazione, scalabilità, sicurezza.
- Sviluppare capabilities self-service : API, SDK e framework per abilitare la creazione autonoma di data product.
- Progettare automazioni end-to-end : pipeline CI/CD, processi di deployment, monitoraggio e governance.
- Definire standard e best practice : linee guida, template riusabili, coding standards.
- Technical leadership e mentoring : supporto al team, code review, knowledge sharing.
- Collaborare con stakeholder : traduzione requisiti, contributo alla roadmap strategica.
- Monitorare e ottimizzare la piattaforma : performance, affidabilità, cost optimization, strumenti di osservabilità.
Requisiti Essenziali
- 5+ anni nello sviluppo backend e architetture complesse in contesti enterprise.
- Esperienza con .NET Core o Java/Spring Boot per API e microservizi.
- Competenze su microservizi, containerizzazione e orchestrazione (Docker, Kubernetes).
- Esperienza con cloud provider (Azure, AWS, GCP) e infrastrutture distribuite.
- Padronanza di CI/CD, DevOps, automazione e strumenti di osservabilità.
- Esperienza con IaC (Terraform).
- Conoscenza di orchestratori (Airflow, Dagster, Prefect).
- API REST, OpenAPI, JSON Schema.
- Conoscenza di TDD .
Nice to Have
- Background in data engineering e data platform moderne.
- Esperienza con ETL/ELT , CDC, data quality.
- Conoscenza di data streaming (Kafka, Flink).
- Familiarità con Databricks, Apache Iceberg, Delta Lake .
- Familiarità con AI e automazione (RAG pipelines, LLM integration).
- Certificazioni: Databricks , AWS/Azure/GCP , Confluent Kafka .
Sede: Napoli