Analista dati

Syntax S.c.ar.l. · Roma, Lazio, Italia ·


Descrizione dell'offerta

Syntax è una realtà imprenditoriale con più di 250 dipendenti, con sedi distribuite sul territorio nazionale (Piemonte, Lombardia, Emilia Romagna, Lazio, Puglia), in rapida evoluzione (incremento annuo della produzione maggiore del 20%), che opera nei settori emergenti e strategici (Information and Communication Technology, Impiantistica, Green energy and mobility), con l’obiettivo di favorire la crescita delle piccole, medie e grandi imprese, sia nel settore privato che pubblico (più di 1300 clienti).


Posizione aperta: Data Analyst


Attività da svolgere:

  1. Progettare, sviluppare e mantenere pipeline dati scalabili e robuste per ingestion, trasformazione, arricchimento e storage (formati Parquet , CSV ), includendo processi ETL ed ELT .
  2. Gestire e ottimizzare ambienti di datalake e data warehouse per l’analisi e la conservazione dei dati.
  3. Implementare algoritmi di anomaly detection , outlier detection e previsioni su dati temporali e metriche.
  4. Sviluppare e mantenere componenti MLOps/MLDevSecOps per la gestione, il versionamento e il monitoraggio dei modelli.
  5. Sperimentare e applicare modelli di machine learning (es. logistic regression , random forest , clustering , forecasting ) e tecniche statistiche avanzate.
  6. Lavorare su sistemi distribuiti di elaborazione dati e gestire stream real-time tramite Kafka o JetStream/NATS .
  7. Progettare e ottimizzare strutture dati in PostgreSQL e database time-series come TimescaleDB .
  8. Integrare soluzioni di storage vettoriale (es. Qdrant ) e knowledge graph (Dgraph ) per correlazioni, ontologie e arricchimenti avanzati.
  9. Collaborare con team AI e Dev per integrare modelli e insight nei flussi dati.


Competenze richieste:

  1. Ottima conoscenza di Python per lo sviluppo di pipeline dati e algoritmi di machine learning.
  2. Padronanza delle principali librerie per data science e ML: pandas , NumPy , scikit-learn , TensorFlow .
  3. Esperienza nella progettazione e implementazione di processi ETL/ELT , gestione di datalake e architetture dati distribuite.
  4. Esperienza con sistemi di messaggistica distribuita e stream processing (Kafka , JetStream/NATS ).
  5. Competenza nell’uso di SQL , database relazionali (PostgreSQL ) e time-series (TimescaleDB ).
  6. Conoscenza di strumenti e metodologie di MLOps/MLDevSecOps per l’intero ciclo di vita dei modelli.
  7. Esperienza nella modellazione e gestione di knowledge graph , ontologie e correlazioni causali.
  8. Conoscenza dei principi di Domain-Driven Design (DDD) e Test-Driven Development (TDD) .
  9. Familiarità con architetture microservizi , container (Docker ) e orchestrazione (Kubernetes ).
  10. Utilizzo di Git per il versionamento del codice e collaborazione.
  11. Esperienza in ambienti Agile/Scrum .


Competenze preferenziali:

  1. Esperienza nell’implementazione di pipeline complesse per l’elaborazione dati in tempo reale.
  2. Capacità di progettare e mantenere sistemi di osservabilità e metriche (Prometheus ) e soluzioni per l’arricchimento dei dati.


RAL e inquadramento saranno definiti in sede di colloquio, in funzione della seniority e delle competenze.


Visita il nostro sito per conoscerci meglio

Offerta di lavoro rivolta ad entrambi i sessi, promuoviamo le pari opportunità.

Candidatura e Ritorno (in fondo)