Who we are
Si ricordi di controllare il suo CV prima di candidarsi. Inoltre, si assicuri di leggere tutti i requisiti relativi a questo ruolo.NEVERHACK è un gruppo internazionale di cybersecurity con oltre 40 anni di esperienza.Presente in più di 10 Paesi e con un team di oltre 1.200 professionisti, la nostra missione è progettare e implementare soluzioni che proteggano aziende e privati dalle minacce digitali.La nostra crescita si basa su una forza chiave: la formazione e lo sviluppo continuo dei nostri talenti, che ci mantiene all'avanguardia in un settore in costante evoluzione.Il nostro DNA:Passione per la tecnologiaVoglia di affrontare le sfideApprendimento continuoDeterminazione nel risolvere oggi i problemi di domaniDescrizione del ruoloPer un nostro cliente, siamo alla ricerca di un/una Integration & Data Flow Engineer con solida esperienza nella progettazione e gestione di flussi di integrazione ed ETL su piattaforme middleware, con forte specializzazione su Apache NiFi.La risorsa sarà coinvolta in progetti complessi di integrazione dati, automazione e ottimizzazione dei flussi, collaborando con team tecnici e stakeholder per garantire soluzioni affidabili, scalabili e performanti.Responsabilità principaliProgettare, sviluppare e gestire flussi di dati complessi tramite Apache NiFi.Implementare e manutenere processi di integrazione ed ETL all'interno del middleware.Integrare servizi e applicazioni tramite API REST e chiamateSupportare attività di automazione, ottimizzazione e monitoraggio dei flussi di integrazione.Gestire dati strutturati e semi-strutturati in contesti enterprise.RequisitiOttima conoscenza di Apache NiFi, con autonomia nella progettazione e gestione di flussi di dati complessi.Esperienza con API REST (GET, POST, PUT) e integrazione di servizi tramite chiamateCapacità di costruire, manipolare e validare JSON in contesti di integrazione o scripting.Conoscenze di base di scripting (Python, Bash o Groovy) per automatizzare flussi e trasformazioni dati.Nice to haveFamiliarità con strumenti di ETL / Data Integration, preferibilmente Google Cloud Data Fusion o equivalenti.Esperienza con HCL BigFix per la gestione degli endpoint e l'automazione delle configurazioni IT.Conoscenza operativa di HCL BigFix Service Management o di altri strumenti ITSM.Comprensione dei processi ITIL (Incident, Service Request, Change Management). xpavfwmUtilizzo di strumenti di dashboarding e reportistica (es. Apache Superset).