Who we are Si ricordi di controllare il suo CV prima di candidarsi. Inoltre, si assicuri di leggere tutti i requisiti relativi a questo ruolo. NEVERHACK è un gruppo internazionale di cybersecurity con oltre 40 anni di esperienza. Presente in più di 10 Paesi e con un team di oltre 1.200 professionisti, la nostra missione è progettare e implementare soluzioni che proteggano aziende e privati dalle minacce digitali. La nostra crescita si basa su una forza chiave: la formazione e lo sviluppo continuo dei nostri talenti, che ci mantiene all'avanguardia in un settore in costante evoluzione. Il nostro DNA: Passione per la tecnologia Voglia di affrontare le sfide Apprendimento continuo Determinazione nel risolvere oggi i problemi di domani Descrizione del ruolo Per un nostro cliente, siamo alla ricerca di un/una Integration & Data Flow Engineer con solida esperienza nella progettazione e gestione di flussi di integrazione ed ETL su piattaforme middleware, con forte specializzazione su Apache NiFi. La risorsa sarà coinvolta in progetti complessi di integrazione dati, automazione e ottimizzazione dei flussi, collaborando con team tecnici e stakeholder per garantire soluzioni affidabili, scalabili e performanti. Responsabilità principali Progettare, sviluppare e gestire flussi di dati complessi tramite Apache NiFi. Implementare e manutenere processi di integrazione ed ETL all'interno del middleware. Integrare servizi e applicazioni tramite API REST e chiamate Supportare attività di automazione, ottimizzazione e monitoraggio dei flussi di integrazione. Gestire dati strutturati e semi-strutturati in contesti enterprise. Requisiti Ottima conoscenza di Apache NiFi, con autonomia nella progettazione e gestione di flussi di dati complessi. Esperienza con API REST (GET, POST, PUT) e integrazione di servizi tramite chiamate Capacità di costruire, manipolare e validare JSON in contesti di integrazione o scripting. Conoscenze di base di scripting (Python, Bash o Groovy) per automatizzare flussi e trasformazioni dati. Nice to have Familiarità con strumenti di ETL / Data Integration, preferibilmente Google Cloud Data Fusion o equivalenti. Esperienza con HCL BigFix per la gestione degli endpoint e l'automazione delle configurazioni IT. Conoscenza operativa di HCL BigFix Service Management o di altri strumenti ITSM. Comprensione dei processi ITIL (Incident, Service Request, Change Management). xdwybme Utilizzo di strumenti di dashboarding e reportistica (es. Apache Superset).