System Engineer – Data Integration & Apache NiFi

NEVERHACK Italy · Campania, Napoli, Italia ·


Descrizione dell'offerta

Who we are


NEVERHACK è un gruppo internazionale di cybersecurity con oltre 40 anni di esperienza.

Presente in più di 10 Paesi e con un team di oltre 1.200 professionisti, la nostra missione è progettare e implementare soluzioni che proteggano aziende e privati dalle minacce digitali.


La nostra crescita si basa su una forza chiave: la formazione e lo sviluppo continuo dei nostri talenti , che ci mantiene all’avanguardia in un settore in costante evoluzione.

Il nostro DNA:

✨ Passione per la tecnologia

Voglia di affrontare le sfide

Apprendimento continuo

Determinazione nel risolvere oggi i problemi di domani


Descrizione del ruolo

Per un nostro cliente , siamo alla ricerca di un/una Integration & Data Flow Engineer con solida esperienza nella progettazione e gestione di flussi di integrazione ed ETL su piattaforme middleware, con forte specializzazione su Apache NiFi .

La risorsa sarà coinvolta in progetti complessi di integrazione dati, automazione e ottimizzazione dei flussi, collaborando con team tecnici e stakeholder per garantire soluzioni affidabili, scalabili e performanti.


Responsabilità principali

  • Progettare, sviluppare e gestire flussi di dati complessi tramite Apache NiFi .
  • Implementare e manutenere processi di integrazione ed ETL all’interno del middleware.
  • Integrare servizi e applicazioni tramite API REST e chiamate HTTP .
  • Supportare attività di automazione , ottimizzazione e monitoraggio dei flussi di integrazione.
  • Gestire dati strutturati e semi-strutturati in contesti enterprise.


Requisiti

  • Ottima conoscenza di Apache NiFi , con autonomia nella progettazione e gestione di flussi di dati complessi.
  • Esperienza con API REST (GET, POST, PUT) e integrazione di servizi tramite chiamate HTTP .
  • Capacità di costruire, manipolare e validare JSON in contesti di integrazione o scripting.
  • Conoscenze di base di scripting (Python, Bash o Groovy) per automatizzare flussi e trasformazioni dati.


Nice to have

  • Familiarità con strumenti di ETL / Data Integration , preferibilmente Google Cloud Data Fusion o equivalenti.
  • Esperienza con HCL BigFix per la gestione degli endpoint e l’automazione delle configurazioni IT.
  • Conoscenza operativa di HCL BigFix Service Management o di altri strumenti ITSM .
  • Comprensione dei processi ITIL (Incident, Service Request, Change Management).
  • Utilizzo di strumenti di dashboarding e reportistica (es. Apache Superset).

Candidatura e Ritorno (in fondo)