Cloud Architect

Ganiga · Cascina, Toscana, Italia ·


Descrizione dell'offerta

Senior Cloud Architect – ML Platform


Chi siamo


GANIGA è una startup deeptech italiana che sviluppa smart bins capaci di riconoscere e differenziare automaticamente i rifiuti. Combiniamo robotica, visione artificiale, AI e design industriale per creare prodotti robusti, scalabili e user-friendly, con l’obiettivo di rivoluzionare la raccolta differenziata e promuovere l’economia circolare.

Siamo un team giovane e dinamico, con mentalità startup: flessibili, veloci e orientati a creare impatto reale nel mondo.


Perché questo ruolo è importante


Cerchiamo un Senior Cloud Architect che diventi il punto di riferimento tecnico per l'intera infrastruttura di GANIGA, progettando un'architettura cloud-native su Google Cloud Platform capace di far scalare la nostra flotta di smart bins e le pipeline di visione artificiale. Sarai responsabile di implementare sistemi a microservizi ed event-driven che permettano di addestrare e distribuire modelli AI in modo sicuro e veloce, garantendo osservabilità end-to-end e trasformando dati complessi in intelligenza operativa. Per noi GCP non è un semplice strumento ma il cuore pulsante del progetto, per questo cerchiamo un esperto che conosca la piattaforma nativamente e sappia governare l'intero ciclo di vita dei dati e dei modelli per supportare la nostra crescita tecnologica.


Responsabilità principali


  • Design e Governo Architetturale: Definire e governare i blueprint architetturali, focalizzandosi su microservizi, architetture event-driven, data governance e principi di security-by-design .
  • Design e Implementazione MLOps: Progettare e implementare architetture per l'addestramento continuo (Continuous Training), il versioning e la distribuzione sicura dei modelli AI/Visione Artificiale in produzione (sia in cloud che Edge).
  • Pipeline Dati e Ingestione IoT: Costruire architetture cloud scalabili per l'ingestione, l'elaborazione e lo storage di grandi volumi di dati IoT/telemetria e, in particolare, i dati necessari per il training AI (immagini, metadati) tramite servizi event-driven (es. Pub/Sub).
  • Stack Tecnologico GCP: Scelta, integrazione e supervisione dell'intero stack tecnologico in ambiente Google Cloud Platform (GCP) , inclusi componenti di orchestrazione container (GKE) e soluzioni serverless.
  • Infrastruttura as Code (IaC): Progettare e automatizzare l'infrastruttura tramite strumenti IaC (es. Terraform, Bicep, CloudFormation/CDK) per il provisioning e la gestione delle risorse, con particolare attenzione agli ambienti di calcolo ad alte prestazioni (GPU, TPU).
  • Sicurezza e Compliance: Definire e implementare le politiche di sicurezza (IAM, networking) per proteggere l'infrastruttura ML, i dataset sensibili e l'applicazione (OWASP best practice), garantendo autenticazione e protocolli sicuri.
  • Resilienza e Osservabilità: Collaborare con i team SRE/DevSecOps per garantire resilienza, performance, logging, monitoraggio robusto delle pipeline ML e osservabilità end-to-end. Definire i criteri di Business Continuity e i livelli di RTO/RPO.
  • Collaborazione Tecnica: Lavorare a stretto contatto con i Data Scientist e gli Ingegneri Software per supportare le loro esigenze infrastrutturali specifiche dell'AI e supportare il miglioramento continuo dei processi di rilascio, documentazione e knowledge transfer.
  • Ottimizzazione Costi: Ottimizzare continuamente i costi delle risorse di calcolo e storage in ambiente GCP.


Requisiti minimi


  • Esperienza: Solida esperienza (minimo 5 anni ) nella progettazione e gestione di architetture cloud complesse, distribuite e in produzione.
  • Cloud: Competenza approfondita e documentata in Google Cloud Platform (GCP) .
  • Architetture Distribuite: Ottima conoscenza dei pattern per microservizi, architetture multi-tenant, architetture event-driven e principi API-first.
  • Containerizzazione e Orchestrazione: Comprensione solida e pratica di containerizzazione (Docker ) e orchestrazione (Kubernetes / GKE ).
  • IaC/Automazione: Esperienza pratica e padronanza nell'uso di strumenti IaC (Terraform ) e scripting/programmazione per l'automazione (es. Python, Bash).
  • MLOps e Data Pipeline: Esperienza nella creazione o gestione di pipeline di dati e di Machine Learning (MLOps).
  • Sicurezza: Competenze solide su sicurezza applicativa, protocolli di autenticazione e best practice OWASP.
  • Lingua: Inglese fluente.


Plus / Preferenze (Forte interesse per GCP)


  • Certificazioni GCP: Certificazioni attive su Google Cloud Platform.
  • ML Compute: Esperienza specifica nell'allocazione e ottimizzazione di risorse di calcolo per l'addestramento di modelli di Deep Learning (GPU/TPU).
  • Strumenti MLOps: Esperienza con strumenti specifici di MLOps (es. Kubeflow, MLflow, DVC) e nell'integrazione di servizi LLM all'interno dell’ecosistema tecnologico.
  • IoT Cloud: Competenza in soluzioni IoT Cloud (es. Google Cloud IoT Core).


Soft skills & Mentalità


  • Mentalità da Startup: Flessibilità, adattabilità e capacità di prendere decisioni architetturali rapide ma informate.
  • Visione Strategica: Capacità di bilanciare le esigenze immediate del Data Science con la scalabilità a lungo termine della piattaforma.
  • Ownership: Forte ownership e responsabilità sull'affidabilità e la sicurezza dell'infrastruttura.
  • Comunicazione: Ottime capacità comunicative per spiegare architetture complesse a team multidisciplinari.
  • Proattività: Approccio proattivo al problem solving e al miglioramento continuo.



Lavoro ibrido: 3 giorni in ufficio 2 in smart (non siamo fiscali, vige il buon senso)


RAL 70k - 80k commisurati all'esperienza

Candidatura e Ritorno (in fondo)