Databricks DevOps Engineer – Freelance / P.IVA

S2E | Business Technology Consultants · Torino, Piemonte, Italia ·


Descrizione dell'offerta

S2E è un’azienda italiana di consulenza in ambito Business Technology, all’avanguardia nell’innovazione tecnologica nei settori Fintech, Insurtech e Cybertech. Con oltre 400 collaboratori, sede principale a Milano e uffici a Roma, Lecce, Lussemburgo, riprogetta, personalizza e sviluppa soluzioni digitali per il business delle imprese che operano in particolare nei settori finance, telecom, retail, energy and oil, industry.

S2E è un’azienda attenta alle pari opportunità. Celebriamo la diversità e ci impegniamo a creare un ambiente inclusivo per tutti i dipendenti.


Siamo alla ricerca di un/una DevOps Engineer con solida esperienza su Databricks per entrare a far parte del nostro team Data & Analytics. La figura sarà responsabile della gestione, dell'ottimizzazione e dell'automazione dell'intera piattaforma dati basata su Databricks, collaborando strettamente con i team di data engineering e data science.


Responsabilità:

  • Gestione e ottimizzazione dell'infrastruttura Databricks (workspace, cluster, job, Unity Catalog)
  • Progettazione e mantenimento di pipeline CI/CD per il deploy automatizzato di notebook, job e workflow Databricks
  • Integrazione di Databricks con servizi cloud (Azure Data Factory, AWS Glue, GCP Dataproc) e strumenti di orchestrazione
  • Implementazione e gestione di MLflow per il tracking degli esperimenti e il deploy di modelli ML in produzione
  • Monitoraggio delle performance dei job Spark e ottimizzazione dei costi cloud
  • Definizione di standard DevOps, best practice e documentazione tecnica
  • Supporto al team nella risoluzione di problemi infrastrutturali e nella migrazione di workload
  • Collaborazione con il team presales per la definizione di architetture e stime di effort


Competenze richieste:

  • 3–5 anni di esperienza in ruoli DevOps o Data Engineering
  • Esperienza comprovata con Databricks: cluster management, job scheduling, Databricks Asset Bundles o dbx
  • Conoscenza approfondita di Apache Spark (tuning, ottimizzazione query, gestione risorse)
  • Esperienza con pipeline CI/CD: GitLab CI o GitHub Actions applicati a progetti dati/Databricks
  • Buona conoscenza di almeno uno dei principali cloud provider: Azure (preferito), AWS o GCP
  • Esperienza con MLflow: experiment tracking, model registry, deployment
  • Familiarità con Infrastructure as Code (Terraform o Pulumi)
  • Conoscenza di Python a livello script/automazione

Gradite

  • Certificazione Databricks (Certified Associate Developer o superiore)
  • Esperienza con Delta Lake e Lakehouse architecture
  • Conoscenza di strumenti di orchestrazione (Apache Airflow, Prefect, Dagster)
  • Esperienza con container (Docker, Kubernetes)
  • Familiarità con strumenti di monitoring (Datadog, Grafana, Elastic)
  • Esperienza in contesti di consulenza o progetti multi-cliente




COSA SIGNIFICA FAR PARTE DEL TEAM S2E

  • Lasciare il segno! Farai parte di un team collaborativo e intraprendente
  • Crescere professionalmente perché seguiamo un processo continuo di scouting tecnologico e di miglioramento individuale ed un continuo training on the job
  • Work-life balance : Diamo valore agli obiettivi raggiunti e ci impegniamo per creare un ambiente di lavoro sereno
  • Essere proattivi ed orientati al problem solving


COSA TROVERAI IN S2E

  • Team di lavoro friendly, open-minded e collaborativi
  • Progetti in crescita, innovativi e sfidanti su tutti gli ambiti applicativi
  • Scouting di nuove tecnologie


IL TUO RAPPORTO DI LAVORO CON S2E

  • Disponibilità a collaborare in regime di Partita IVA .
  • Formazione hard e soft skills online
  • Orario flessibile , in base alle esigenze di progetto e/o di servizio


SEDE DI LAVORO

  • Full Remote

Candidatura e Ritorno (in fondo)