Cloud Architect
Descrizione dell'offerta
GANIGA è una startup deeptech italiana che sviluppa smart bins capaci di riconoscere e differenziare automaticamente i rifiuti. Combiniamo robotica, visione artificiale, AI e design industriale per creare prodotti robusti, scalabili e user-friendly, con l’obiettivo di rivoluzionare la raccolta differenziata e promuovere l’economia circolare.
Siamo un team giovane e dinamico, con mentalità startup: flessibili, veloci e orientati a creare impatto reale nel mondo.
Cerchiamo un Senior Cloud Architect che diventi il punto di riferimento tecnico per l'intera infrastruttura di GANIGA, progettando un'architettura cloud-native su Google Cloud Platform capace di far scalare la nostra flotta di smart bins e le pipeline di visione artificiale. Sarai responsabile di implementare sistemi a microservizi ed event-driven che permettano di addestrare e distribuire modelli AI in modo sicuro e veloce, garantendo osservabilità end-to-end e trasformando dati complessi in intelligenza operativa. Per noi GCP non è un semplice strumento ma il cuore pulsante del progetto, per questo cerchiamo un esperto che conosca la piattaforma nativamente e sappia governare l'intero ciclo di vita dei dati e dei modelli per supportare la nostra crescita tecnologica.
- Design e Governo Architetturale: Definire e governare i blueprint architetturali, focalizzandosi su microservizi, architetture event-driven, data governance e principi di security-by-design .
- Design e Implementazione MLOps: Progettare e implementare architetture per l'addestramento continuo (Continuous Training), il versioning e la distribuzione sicura dei modelli AI/Visione Artificiale in produzione (sia in cloud che Edge).
- Pipeline Dati e Ingestione IoT: Costruire architetture cloud scalabili per l'ingestione, l'elaborazione e lo storage di grandi volumi di dati IoT/telemetria e, in particolare, i dati necessari per il training AI (immagini, metadati) tramite servizi event-driven (es. Pub/Sub).
- Stack Tecnologico GCP: Scelta, integrazione e supervisione dell'intero stack tecnologico in ambiente Google Cloud Platform (GCP) , inclusi componenti di orchestrazione container (GKE) e soluzioni serverless.
- Infrastruttura as Code (IaC): Progettare e automatizzare l'infrastruttura tramite strumenti IaC (es. Terraform, Bicep, CloudFormation/CDK) per il provisioning e la gestione delle risorse, con particolare attenzione agli ambienti di calcolo ad alte prestazioni (GPU, TPU).
- Sicurezza e Compliance: Definire e implementare le politiche di sicurezza (IAM, networking) per proteggere l'infrastruttura ML, i dataset sensibili e l'applicazione (OWASP best practice), garantendo autenticazione e protocolli sicuri.
- Resilienza e Osservabilità: Collaborare con i team SRE/DevSecOps per garantire resilienza, performance, logging, monitoraggio robusto delle pipeline ML e osservabilità end-to-end. Definire i criteri di Business Continuity e i livelli di RTO/RPO.
- Collaborazione Tecnica: Lavorare a stretto contatto con i Data Scientist e gli Ingegneri Software per supportare le loro esigenze infrastrutturali specifiche dell'AI e supportare il miglioramento continuo dei processi di rilascio, documentazione e knowledge transfer.
- Ottimizzazione Costi: Ottimizzare continuamente i costi delle risorse di calcolo e storage in ambiente GCP.
- Esperienza: Solida esperienza (minimo 5 anni ) nella progettazione e gestione di architetture cloud complesse, distribuite e in produzione.
- Cloud: Competenza approfondita e documentata in Google Cloud Platform (GCP) .
- Architetture Distribuite: Ottima conoscenza dei pattern per microservizi, architetture multi-tenant, architetture event-driven e principi API-first.
- Containerizzazione e Orchestrazione: Comprensione solida e pratica di containerizzazione (Docker ) e orchestrazione (Kubernetes / GKE ).
- IaC/Automazione: Esperienza pratica e padronanza nell'uso di strumenti IaC (Terraform ) e scripting/programmazione per l'automazione (es. Python, Bash).
- MLOps e Data Pipeline: Esperienza nella creazione o gestione di pipeline di dati e di Machine Learning (MLOps).
- Sicurezza: Competenze solide su sicurezza applicativa, protocolli di autenticazione e best practice OWASP.
- Lingua: Inglese fluente.
- Certificazioni GCP: Certificazioni attive su Google Cloud Platform.
- ML Compute: Esperienza specifica nell'allocazione e ottimizzazione di risorse di calcolo per l'addestramento di modelli di Deep Learning (GPU/TPU).
- Strumenti MLOps: Esperienza con strumenti specifici di MLOps (es. Kubeflow, MLflow, DVC) e nell'integrazione di servizi LLM all'interno dell’ecosistema tecnologico.
- IoT Cloud: Competenza in soluzioni IoT Cloud (es. Google Cloud IoT Core).
- Mentalità da Startup: Flessibilità, adattabilità e capacità di prendere decisioni architetturali rapide ma informate.
- Visione Strategica: Capacità di bilanciare le esigenze immediate del Data Science con la scalabilità a lungo termine della piattaforma.
- Ownership: Forte ownership e responsabilità sull'affidabilità e la sicurezza dell'infrastruttura.
- Comunicazione: Ottime capacità comunicative per spiegare architetture complesse a team multidisciplinari.
- Proattività: Approccio proattivo al problem solving e al miglioramento continuo.
Lavoro ibrido: 3 giorni in ufficio 2 in smart (non siamo fiscali, vige il buon senso)
RAL 70k - 80k commisurati all'esperienza