LLM Research Engineer / ML Engineer

Dedagroup · Roma, Lazio, Italia · · 50€ - 70€


Descrizione dell'offerta

Cosa aspettarti

Siamo uno dei principali gruppi tecnologici in Italia e operiamo come Business & Technology Accelerator di Aziende, Istituzioni Finanziarie e Servizi Pubblici, supportando l’evoluzione delle loro strategie IT e digitali. Con un ecosistema di imprese che condividono valori e visione, aiutiamo i clienti a cogliere i benefici della tecnologia, amplificandone l’impatto positivo su economia e società.

Entrerai in Istella, partner di Dedagroup, è specializzata in Big Data e Intelligenza Artificiale, con un forte focus su tecnologie di knowledge graph, data intelligence e AI generativa a supporto di soluzioni enterprise.

Troverai un contesto di ricerca applicata integrato con lo sviluppo di prodotto, dedicato allo sviluppo, all’addestramento e all’ottimizzazione di Large Language Models di scala medio-grande, con particolare attenzione alla lingua italiana ed europea e alla loro industrializzazione.

Cosa farai

  • Sarai coinvolto nella progettazione e implementazione di pipeline di pre-training, continual pre-training e fine-tuning di modelli linguistici, occupandoti della preparazione, del filtraggio e della deduplicazione di dataset testuali di grandi dimensioni.
  • Lavorerai su attività di training su infrastrutture multi-GPU e multi-node e sulla sperimentazione di tecniche di adattamento efficiente dei modelli.
  • Contribuirai alla valutazione delle capacità dei modelli in termini di qualità, robustezza e performance e all’ottimizzazione delle fasi di inferenza, con attenzione agli aspetti di efficienza e scalabilità.

Cosa ci aspettiamo da te

  • Laurea in discipline scientifiche, preferibilmente in Informatica o Ingegneria Informatica.
  • Solida esperienza in Machine Learning e Deep Learning e un’ottima conoscenza di Python e PyTorch.
  • Esperienza diretta nel training o fine-tuning di LLM o modelli NLP di grandi dimensioni.
  • Familiarità con distributed training (DDP, FSDP, ZeRO, parallelismi) e con l’ecosistema GPU / CUDA.
  • Comprensione approfondita delle architetture Transformer.
  • Costituiscono titolo preferenziale l’esperienza con strumenti e framework avanzati (vLLM, DeepSpeed, llama.cpp, Unsloth, Axolotl).
  • Gradito background di ricerca accademica.

Cosa ti offriamo

  • Work life balance grazie a un modello di lavoro agile.
  • Lavoro su tecnologie all’avanguardia nel campo Search + LLM e accesso a infrastrutture GPU e modelli proprietari.

#J-18808-Ljbffr

Candidatura e Ritorno (in fondo)