Analista dati
Descrizione dell'offerta
Syntax è una realtà imprenditoriale con più di 250 dipendenti, con sedi distribuite sul territorio nazionale (Piemonte, Lombardia, Emilia Romagna, Lazio, Puglia), in rapida evoluzione (incremento annuo della produzione maggiore del 20%), che opera nei settori emergenti e strategici (Information and Communication Technology, Impiantistica, Green energy and mobility), con l’obiettivo di favorire la crescita delle piccole, medie e grandi imprese, sia nel settore privato che pubblico (più di 1300 clienti).
Posizione aperta: Data Analyst
Attività da svolgere:
- Progettare, sviluppare e mantenere pipeline dati scalabili e robuste per ingestion, trasformazione, arricchimento e storage (formati Parquet , CSV ), includendo processi ETL ed ELT .
- Gestire e ottimizzare ambienti di datalake e data warehouse per l’analisi e la conservazione dei dati.
- Implementare algoritmi di anomaly detection , outlier detection e previsioni su dati temporali e metriche.
- Sviluppare e mantenere componenti MLOps/MLDevSecOps per la gestione, il versionamento e il monitoraggio dei modelli.
- Sperimentare e applicare modelli di machine learning (es. logistic regression , random forest , clustering , forecasting ) e tecniche statistiche avanzate.
- Lavorare su sistemi distribuiti di elaborazione dati e gestire stream real-time tramite Kafka o JetStream/NATS .
- Progettare e ottimizzare strutture dati in PostgreSQL e database time-series come TimescaleDB .
- Integrare soluzioni di storage vettoriale (es. Qdrant ) e knowledge graph (Dgraph ) per correlazioni, ontologie e arricchimenti avanzati.
- Collaborare con team AI e Dev per integrare modelli e insight nei flussi dati.
Competenze richieste:
- Ottima conoscenza di Python per lo sviluppo di pipeline dati e algoritmi di machine learning.
- Padronanza delle principali librerie per data science e ML: pandas , NumPy , scikit-learn , TensorFlow .
- Esperienza nella progettazione e implementazione di processi ETL/ELT , gestione di datalake e architetture dati distribuite.
- Esperienza con sistemi di messaggistica distribuita e stream processing (Kafka , JetStream/NATS ).
- Competenza nell’uso di SQL , database relazionali (PostgreSQL ) e time-series (TimescaleDB ).
- Conoscenza di strumenti e metodologie di MLOps/MLDevSecOps per l’intero ciclo di vita dei modelli.
- Esperienza nella modellazione e gestione di knowledge graph , ontologie e correlazioni causali.
- Conoscenza dei principi di Domain-Driven Design (DDD) e Test-Driven Development (TDD) .
- Familiarità con architetture microservizi , container (Docker ) e orchestrazione (Kubernetes ).
- Utilizzo di Git per il versionamento del codice e collaborazione.
- Esperienza in ambienti Agile/Scrum .
Competenze preferenziali:
- Esperienza nell’implementazione di pipeline complesse per l’elaborazione dati in tempo reale.
- Capacità di progettare e mantenere sistemi di osservabilità e metriche (Prometheus ) e soluzioni per l’arricchimento dei dati.
RAL e inquadramento saranno definiti in sede di colloquio, in funzione della seniority e delle competenze.
Visita il nostro sito per conoscerci meglio
Offerta di lavoro rivolta ad entrambi i sessi, promuoviamo le pari opportunità.