Talent Pool Data & AI
Descrizione dell'offerta
Mediatica è un gruppo che si pone come punto di riferimento per la Digital Transformation di grandi aziende, pubbliche e private. Il proprio modello di business la rende il Partner ideale per lo sviluppo di progetti e l’erogazione di servizi IT , di Business Operations, di Document Management e di Customer Interaction.
Mediatica sta ampliando il proprio Talent Pool Data & AI per coinvolgere professionisti specializzati nei diversi ambiti dell’ecosistema del dato, da inserire in progetti strutturati presso clienti enterprise.
Siamo interessati a figure con competenze in uno o più domini tra Data Engineering, Machine Learning, Analytics Engineering, MLOps, Business Intelligence e Generative AI , con esperienza su architetture moderne e tecnologie cloud-native.
Non è richiesta una copertura completa dello stack tecnologico, ma una solida esperienza nel proprio ambito di riferimento .
Competenze richieste (anche parziali):
Data Engineering & Pipeline
- Sviluppo e manutenzione di pipeline dati affidabili e scalabili
- Esperienza con Apache Spark, Kafka, Flink, Airflow, dbt
- Utilizzo di strumenti di orchestrazione come Prefect, Dagster, Luigi
- Esperienza con tool di ingestion come Fivetran, Airbyte, NiFi, Talend, Informatica
- Conoscenza di servizi cloud come AWS Glue e Azure Data Factory
Data Warehouse, Lakehouse & Storage
- Esperienza su architetture dati moderne e scalabili
- Utilizzo di Snowflake, BigQuery, Redshift, Azure Synapse
- Conoscenza di ambienti Databricks, Delta Lake, Apache Iceberg, Apache Hudi
- Esperienza con motori di query come Trino/Presto, ClickHouse, Dremio
- Buona conoscenza di database relazionali e NoSQL
Machine Learning, Data Science & Generative AI
- Sviluppo di modelli predittivi e algoritmi di classificazione/regressione
- Esperienza con Scikit-learn, XGBoost, TensorFlow, PyTorch
- Analisi statistica con Pandas, NumPy, SciPy
- Esperienza su serie temporali, A/B testing, modelli causali
- Sviluppo di soluzioni LLM, RAG, AI Agents
- Utilizzo di OpenAI, Azure OpenAI, Claude API
- Framework come LangChain e LlamaIndex
- Esperienza con vector database (Pinecone, Weaviate, Chroma)
MLOps & Deployment
- Esperienza nella messa in produzione di modelli ML
- Utilizzo di MLflow, Kubeflow, BentoML, Seldon
- CI/CD per Machine Learning e model registry
- Monitoring e observability con Evidently e Arize
- Esperienza con FastAPI per model serving
Business Intelligence & Analytics Engineering
- Realizzazione di dashboard e insight per il business
- Esperienza con Power BI, Tableau, Qlik, Looker
- Ottima conoscenza di SQL e DAX
- Esperienza con dbt, data quality, data catalog e data lineage
- Conoscenza di tematiche di Data Governance e GDPR
Cloud Data Platform
Esperienza su almeno uno dei principali cloud provider:
- AWS
- GCP
- Azure
- Conoscenza di servizi data-native come BigQuery, SageMaker, Glue, Vertex AI, Synapse
- Esperienza con Databricks Cloud e Snowflake Cloud
Soft Skills:
- Forte orientamento al problem solving
- Capacità di lavorare su architetture complesse e sistemi distribuiti
- Approccio analitico e orientato alla qualità del dato
- Ottime capacità di collaborazione con team cross-funzionali
- Propensione all’innovazione e all’aggiornamento continuo
Cosa offriamo:
- Progetti su clienti strutturati in ambito Finance, Pubblica Amministrazione, Industry e Utilities
- Contesti in cui il dato è al centro delle decisioni strategiche
- Percorsi di crescita tecnica e certificazioni supportate (cloud, ML, dbt, Databricks, AI )
- Flessibilità sulla modalità di collaborazione (dipendente o freelance )
- Ambiente tecnico stimolante e orientato all’innovazione
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.
Inviare CV dettagliato con consenso al trattamento dei dati personali D.Lgs. 196/03 e GDPR UE 2016/679.