NEVERHACK ( ) è un gruppo francese specializzato in cybersecurity.
Tutti i candidati sono invitati a leggere attentamente la seguente descrizione del lavoro e le relative informazioni prima di candidarsi.
Fondato nel 2021 e con sedi in 10 paesi, il gruppo conta oggi più di 1200 dipendenti in tutto il mondo.
La nostra ambizione è quella di espanderci a livello internazionale per costruire un mondo digitale sicuro per tutti.
È proprio grazie a questa forte espansione che stiamo cercando un Data Engineer con esperienza su architetture Big Data e ambienti Cloud, che possa guidare lo sviluppo tecnico del team e contribuire all'evoluzione dell'ecosistema dati aziendale.
La figura sarà responsabile della progettazione e realizzazione di pipeline dati complesse, garantendo performance, affidabilità, scalabilità e qualità del dato.
Responsabilità principali
* Progettare, sviluppare e ottimizzare pipeline di data ingestion, data processing e data integration in architetture Big Data complesse.
* Guidare le attività di sviluppo tecnico del team, supportando altri Data Engineer e assicurando elevati standard qualitativi.
* Implementare processi di elaborazione:
* Batch (Spark, Hadoop, Hive, Athena, BigQuery)
* Streaming (Kafka, Spark Streaming, Flink)
* Integrare dati provenienti da sistemi eterogenei su ambienti cloud e on-premise tramite sistemi di storage distribuito (HDFS, S3, GCS).
* Contribuire attivamente all'evoluzione dell'architettura Big Data e dei modelli di riferimento del gruppo.
* Definire standard, linee guida e best practice per garantire:
* Scalabilità
* Sicurezza
* Qualità del dato
* Manutenibilità
* Proporre miglioramenti architetturali, nuove tecnologie e metodologie in linea con le esigenze di business.
* Redigere documentazione tecnica completa: architetture, data flow, specifiche tecniche, monitoraggi.
* Implementare sistemi di monitoraggio, alerting e controllo qualità del dato.
* Garantire il rispetto dei requisiti di sicurezza e compliance.
* Collaborare quotidianamente con team interni ed esterni guidando le implementazioni tecniche.
* Supportare architetti e team di progetto nella definizione delle soluzioni più adeguate ai diversi use case.
Requisiti tecnici
* Esperienza consolidata (3+ anni) come Data Engineer in contesti Big Data.
* Ottima conoscenza di:
* Spark (Core, SQL, Streaming)
* Kafka
* Hadoop ecosystem
* Data Warehouse moderni (BigQuery, Athena, Hive)
* Esperienza su ambienti Cloud (AWS, GCP, Azure).
* Conoscenza di sistemi di storage distribuito (HDFS, S3, GCS).
* Esperienza con pipeline ETL/ELT complesse.
* Buona conoscenza di SQL e Python/Scala.
* Esperienza in progettazione di architetture dati scalabili e resilienti.
* Familiarità con metodologie Agile.
Cosa offriamo
* Inserimento in un team giovane e motivato, con percorsi strutturati di formazione e crescita.
* Ambiente stimolante in ambito cybersecurity e IT, con possibilità di sviluppo su progetti complessi.
* Modalità ibrida
* CCNL Metalmeccanico, ticket restaurant 8 €, welfare, RAL 38.000 – 44.000 €.
Sede di lavoro: Bologna. xjrgpwk
Il processo di selezione prevede colloquio HR e 2 colloqui di carattere tecnico.