Junior Data Scientist (Rif. 2025-414)

aizoOn Technology Consulting · Torino, Piemonte, Italia ·


Descrizione dell'offerta

aizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale, ricerca Junior Data Scientist da inserire nella Divisione AIDaS (Artificial Intelligence & Data Science) .


Il / La candidato / a opererà per un importante cliente del settore Transportation , all’interno di un progetto dedicato alla gestione end-to-end del ciclo di vita del dato e allo sviluppo di pipeline a supporto di analisi operative, dashboard e applicazioni di Machine Learning.


Attività previste


  • Progettazione, sviluppo e manutenzione di pipeline di elaborazione dati (real-time e batch).
  • Analisi statistica dei dati e analisi esplorativa.
  • Supporto allo sviluppo di algoritmi di Machine Learning e analisi su serie temporali, tramite dataset strutturati, puliti e documentati.
  • Integrazione e trasformazione di grandi volumi di dati provenienti da veicoli connessi e sistemi eterogenei.
  • Gestione di workflow ETL/ELT e ottimizzazione delle performance.
  • Organizzazione, modellazione e cura della qualità dei dati.
  • Collaborazione con i team interni (Quality, Customer Center, Engineering) per abilitare processi decisionali data-driven.



PROFILO


  • Laurea magistrale in discipline tecnico-scientifiche (preferibilmente Ingegneria Informatica, Data Science, Statistica, Matematica, Fisica).
  • Solide basi di programmazione, gestione dati, statistica e analisi di serie temporali.
  • Buona conoscenza della lingua inglese.



COMPETENZE TECNICHE


  • Programmazione in Python e SQL .
  • Conoscenza di architetture Big Data e paradigmi di elaborazione distribuita (es. Spark).
  • Utilizzo di librerie Python per la gestione dei dati (Pandas, NumPy, PySpark).
  • Competenze statistiche e di analisi delle serie temporali.
  • Conoscenze di Data Mining e analisi esplorativa (EDA).
  • Basi di Machine Learning utili alla comprensione dei processi analitici downstream.



Nice to have


  • Conoscenza della piattaforma Databricks (Delta Lake, MLflow).
  • Esperienza con strumenti di orchestrazione/ETL (Airflow, Databricks Workflows).
  • Conoscenza di strumenti di visualizzazione dati (Matplotlib, Seaborn, Plotly).
  • Familiarità con piattaforme Cloud (AWS, Azure, Google Cloud) e servizi di data storage/processing.
  • Conoscenza di strumenti di versionamento del codice (es. Git).
  • Buone pratiche di sviluppo per pipeline dati (test, logging, monitoraggio).




The job search refers to candidates of both genders

Candidatura e Ritorno (in fondo)