AI Engineer - Generative AI
Descrizione dell'offerta
Alpitour Spa
Alpitour Spa è la più grande e importante realtà del turismo organizzato in Italia. Attraverso i suoi marchi - Alpitour, Bravo, Francorosso, Eden Viaggi e Turisanda - rappresenta la divisione Tour Operating di Alpitour World e si rivolge ai segmenti B2B e B2C, portando in vacanza oltre 1 milione di italiani ogni anno. Le sedi principali: Torino, Milano e Pesaro.
Posizione
L'innovazione tecnologica è nel nostro DNA: oggi abbiamo oltre 70 robot RPA attivi e stiamo investendo massicciamente in Generative AI con progetti come AInfinity (Corporate Innovation), AlpiGPT e il programma Innovation Agents . Nel 2025 abbiamo ricevuto il Premio SMAU come "Eccellenza Italiana - Modello di Innovazione". Il team AI & Automation guida la trasformazione digitale del Gruppo, portando intelligenza artificiale e automazione in ogni area aziendale. Il gruppo Tailored Generative AI progetta e sviluppa agenti intelligenti e soluzioni LLM-based che trasformano l'efficienza operativa dei processi interni, con benefici tangibili per partner B2B e clienti finali. Qui non facciamo solo "proof of concept": portiamo l'AI in produzione, su scala reale, con impatto diretto sul business. Ad oggi abbiamo oltre 70 robot RPA attivi per l'automazione dei processi e stiamo investendo massicciamente in Generative AI e Large Language Models per trasformare il modo in cui lavoriamo e serviamo i nostri clienti.
Attività principali
Sviluppo e Implementazione
- Progettare e sviluppare soluzioni di Generative AI per automatizzare e migliorare processi aziendali
- Implementare agenti intelligenti utilizzando LangChain e LangGraph per orchestrazione LLM e workflow stateful
- Sviluppare sistemi RAG e Agentic Search per arricchire le risposte dei modelli con conoscenza aziendale
- Sviluppare MCP (Model Context Protocol) server e client per connettere agenti AI a fonti dati e strumenti esterni
- Progettare e gestire pipeline di data ingestion, chunking, embedding generation e vettorializzazione per alimentare knowledge base e sistemi RAG
Deployment e Operations
- Effettuare il deployment di agenti AI su OpenShift e gestire il ciclo di vita delle applicazioni
- Collaborare con il team DevOps nella gestione di pipeline CI/CD tramite ArgoCD
- Implementare strategie di monitoring e observability per garantire affidabilità e performance dei sistemi AI
- Monitorare e ottimizzare i costi operativi delle soluzioni AI (token usage, API calls) per garantire sostenibilità economica dei prodotti realizzati
- Condurre esperimenti di prompt engineering e ottimizzazione delle interazioni con LLM
Collaborazione e Innovazione
- Collaborare con i team IT, Data e Prodotto per integrare l'AI nei servizi aziendali
- Sperimentare nuove tecnologie e metodologie nell'ambito della Generative AI
- Contribuire alla definizione dell'architettura e alle best practice del team
Requisiti
Requisiti obbligatori
Formazione ed Esperienza
- Laurea in discipline STEM
- Esperienza nello sviluppo software con focus su progetti di Generative AI
Competenze Tecniche - Core
- Programmazione: solida esperienza in Python
- LangChain: esperienza concreta nello sviluppo di applicazioni LLM-based con LangChain
- LLM e Generative AI: conoscenza pratica di modelli come GPT, Claude, Llama e delle loro API
- Prompt Engineering: capacità di progettare e ottimizzare prompt per casi d'uso complessi
Competenze Tecniche - Infrastruttura e Deployment
- Conoscenza dei principi di containerizzazione (Docker) e orchestrazione
- Familiarità con OpenShift o Kubernetes per il deployment di applicazioni
- Esperienza con metodologie DevOps e pipeline CI/CD
- Conoscenza di ArgoCD o strumenti simili di GitOps
Competenze Tecniche - Dati e Integrazione
- Conoscenza di SQL e database relazionali
- Conoscenza di Vector Databases per la gestione di embeddings
- Esperienza con embedding models e tecniche di similarity search
- Esperienza con API REST e integrazione di servizi
Soft Skills
- Capacità di lavorare in autonomia e in team in contesti Agile
- Problem-solving e pensiero analitico
- Comunicazione efficace con stakeholder tecnici e business
- Propensione all'apprendimento continuo
Requisiti preferenziali
- Conoscenza di Dynatrace per monitoring e observability
- Esperienza con Azure e Azure OpenAI Service
- Conoscenza di tecniche di fine-tuning di modelli LLM
- Esperienza con strumenti di AI observability (LangSmith, Langfuse)
Altre informazioni
Cosa offriamo
- Progetti AI in produzione con impatto reale sul business
- Tecnologie all'avanguardia (LLM, LangChain, LangGraph, OpenShift)
- Formazione continua e conferenze di settore
- Modalità di lavoro ibrida (Milano/Torino)
Il presente annuncio è rivolto a tutte le persone, indipendentemente da genere, età, origine etnica, nazionalità, orientamento sessuale, identità di genere, disabilità o qualsiasi altra caratteristica personale, in conformità con le normative vigenti in materia di pari opportunità e inclusione (D.Lgs. 198/2006 e successive modifiche, D.Lgs. 215/03 e 216/03). Per il trattamento dei dati personali derivante dalla tua candidatura, ti invitiamo a prendere visione dell’Informativa Privacy Candidati, ai sensi dell’art. 13 del Regolamento UE 2016/679, presente al seguente link.
#J-18808-Ljbffr