Who we are
Scorra la pagina per visualizzare tutti i requisiti del lavoro e le responsabilità che i candidati selezionati dovranno assumersi.
NEVERHACK
è un gruppo internazionale di
cybersecurity
con oltre 40 anni di esperienza.
Presente in più di 10 Paesi e con un team di oltre ***** professionisti, la nostra missione è progettare e implementare soluzioni che proteggano aziende e privati dalle minacce digitali.
La nostra crescita si basa su una forza chiave:
la formazione e lo sviluppo continuo dei nostri talenti
, che ci mantiene all'avanguardia in un settore in costante evoluzione.
Il nostro DNA:
Passione per la tecnologia
Voglia di affrontare le sfide
Apprendimento continuo
Determinazione nel risolvere oggi i problemi di domani
Descrizione del ruolo
Per
un nostro cliente
, siamo alla ricerca di un/una
Integration & Data Flow Engineer
con solida esperienza nella progettazione e gestione di flussi di integrazione ed ETL su piattaforme middleware, con
robusto specializzazione su Apache NiFi
.
La risorsa sarà coinvolta in progetti complessi di integrazione dati, automazione e ottimizzazione dei flussi, collaborando con team tecnici e stakeholder per garantire soluzioni affidabili, scalabili e performanti.
Responsabilità principali
Progettare, sviluppare e gestire
flussi di dati complessi
tramite
Apache NiFi
.
Implementare e manutenere
processi di integrazione ed ETL
all'interno del middleware.
Integrare servizi e applicazioni tramite
API REST
e chiamate
.
Supportare attività di
automazione
, ottimizzazione e monitoraggio dei flussi di integrazione.
Gestire dati strutturati e semi-strutturati in contesti enterprise.
Requisiti
Ottima conoscenza di
Apache NiFi
, con autonomia nella progettazione e gestione di flussi di dati complessi.
Esperienza con
API REST
(GET, POST, PUT) e integrazione di servizi tramite chiamate
.
Capacità di
costruire, manipolare e validare JSON
in contesti di integrazione o scripting.
Conoscenze di base di
scripting
(Python, Bash o Groovy) per automatizzare flussi e trasformazioni dati.
Nice to have
Familiarità con strumenti di
ETL / Data Integration
, preferibilmente
Google Cloud Data Fusion
o equivalenti.
Esperienza con
HCL BigFix
per la gestione degli endpoint e l'automazione delle configurazioni IT.
Conoscenza operativa di
HCL BigFix Service Management
o di altri strumenti
ITSM
.
Comprensione dei processi
ITIL
(Incident, Service Request, Change Management).
Utilizzo di strumenti di
dashboarding e reportistica
(es. xlwpduy Apache Superset).