System Engineer – Data Integration & Apache NiFi
Descrizione dell'offerta
Who we are
NEVERHACK è un gruppo internazionale di cybersecurity con oltre 40 anni di esperienza.
Presente in più di 10 Paesi e con un team di oltre 1.200 professionisti, la nostra missione è progettare e implementare soluzioni che proteggano aziende e privati dalle minacce digitali.
La nostra crescita si basa su una forza chiave: la formazione e lo sviluppo continuo dei nostri talenti , che ci mantiene all’avanguardia in un settore in costante evoluzione.
Il nostro DNA:
✨ Passione per la tecnologia
Voglia di affrontare le sfide
Apprendimento continuo
Determinazione nel risolvere oggi i problemi di domani
Descrizione del ruolo
Per un nostro cliente , siamo alla ricerca di un/una Integration & Data Flow Engineer con solida esperienza nella progettazione e gestione di flussi di integrazione ed ETL su piattaforme middleware, con forte specializzazione su Apache NiFi .
La risorsa sarà coinvolta in progetti complessi di integrazione dati, automazione e ottimizzazione dei flussi, collaborando con team tecnici e stakeholder per garantire soluzioni affidabili, scalabili e performanti.
Responsabilità principali
- Progettare, sviluppare e gestire flussi di dati complessi tramite Apache NiFi .
- Implementare e manutenere processi di integrazione ed ETL all’interno del middleware.
- Integrare servizi e applicazioni tramite API REST e chiamate HTTP .
- Supportare attività di automazione , ottimizzazione e monitoraggio dei flussi di integrazione.
- Gestire dati strutturati e semi-strutturati in contesti enterprise.
Requisiti
- Ottima conoscenza di Apache NiFi , con autonomia nella progettazione e gestione di flussi di dati complessi.
- Esperienza con API REST (GET, POST, PUT) e integrazione di servizi tramite chiamate HTTP .
- Capacità di costruire, manipolare e validare JSON in contesti di integrazione o scripting.
- Conoscenze di base di scripting (Python, Bash o Groovy) per automatizzare flussi e trasformazioni dati.
Nice to have
- Familiarità con strumenti di ETL / Data Integration , preferibilmente Google Cloud Data Fusion o equivalenti.
- Esperienza con HCL BigFix per la gestione degli endpoint e l’automazione delle configurazioni IT.
- Conoscenza operativa di HCL BigFix Service Management o di altri strumenti ITSM .
- Comprensione dei processi ITIL (Incident, Service Request, Change Management).
- Utilizzo di strumenti di dashboarding e reportistica (es. Apache Superset).