Databricks DevOps Engineer – Freelance / P.IVA
Descrizione dell'offerta
S2E è un’azienda italiana di consulenza in ambito Business Technology, all’avanguardia nell’innovazione tecnologica nei settori Fintech, Insurtech e Cybertech. Con oltre 400 collaboratori, sede principale a Milano e uffici a Roma, Lecce, Lussemburgo, riprogetta, personalizza e sviluppa soluzioni digitali per il business delle imprese che operano in particolare nei settori finance, telecom, retail, energy and oil, industry.
S2E è un’azienda attenta alle pari opportunità. Celebriamo la diversità e ci impegniamo a creare un ambiente inclusivo per tutti i dipendenti.
Siamo alla ricerca di un/una DevOps Engineer con solida esperienza su Databricks per entrare a far parte del nostro team Data & Analytics. La figura sarà responsabile della gestione, dell'ottimizzazione e dell'automazione dell'intera piattaforma dati basata su Databricks, collaborando strettamente con i team di data engineering e data science.
Responsabilità:
- Gestione e ottimizzazione dell'infrastruttura Databricks (workspace, cluster, job, Unity Catalog)
- Progettazione e mantenimento di pipeline CI/CD per il deploy automatizzato di notebook, job e workflow Databricks
- Integrazione di Databricks con servizi cloud (Azure Data Factory, AWS Glue, GCP Dataproc) e strumenti di orchestrazione
- Implementazione e gestione di MLflow per il tracking degli esperimenti e il deploy di modelli ML in produzione
- Monitoraggio delle performance dei job Spark e ottimizzazione dei costi cloud
- Definizione di standard DevOps, best practice e documentazione tecnica
- Supporto al team nella risoluzione di problemi infrastrutturali e nella migrazione di workload
- Collaborazione con il team presales per la definizione di architetture e stime di effort
Competenze richieste:
- 3–5 anni di esperienza in ruoli DevOps o Data Engineering
- Esperienza comprovata con Databricks: cluster management, job scheduling, Databricks Asset Bundles o dbx
- Conoscenza approfondita di Apache Spark (tuning, ottimizzazione query, gestione risorse)
- Esperienza con pipeline CI/CD: GitLab CI o GitHub Actions applicati a progetti dati/Databricks
- Buona conoscenza di almeno uno dei principali cloud provider: Azure (preferito), AWS o GCP
- Esperienza con MLflow: experiment tracking, model registry, deployment
- Familiarità con Infrastructure as Code (Terraform o Pulumi)
- Conoscenza di Python a livello script/automazione
Gradite
- Certificazione Databricks (Certified Associate Developer o superiore)
- Esperienza con Delta Lake e Lakehouse architecture
- Conoscenza di strumenti di orchestrazione (Apache Airflow, Prefect, Dagster)
- Esperienza con container (Docker, Kubernetes)
- Familiarità con strumenti di monitoring (Datadog, Grafana, Elastic)
- Esperienza in contesti di consulenza o progetti multi-cliente
COSA SIGNIFICA FAR PARTE DEL TEAM S2E
- Lasciare il segno! Farai parte di un team collaborativo e intraprendente
- Crescere professionalmente perché seguiamo un processo continuo di scouting tecnologico e di miglioramento individuale ed un continuo training on the job
- Work-life balance : Diamo valore agli obiettivi raggiunti e ci impegniamo per creare un ambiente di lavoro sereno
- Essere proattivi ed orientati al problem solving
COSA TROVERAI IN S2E
- Team di lavoro friendly, open-minded e collaborativi
- Progetti in crescita, innovativi e sfidanti su tutti gli ambiti applicativi
- Scouting di nuove tecnologie
IL TUO RAPPORTO DI LAVORO CON S2E
- Disponibilità a collaborare in regime di Partita IVA .
- Formazione hard e soft skills online
- Orario flessibile , in base alle esigenze di progetto e/o di servizio
SEDE DI LAVORO
- Full Remote