NEVERHACK ( ) è un gruppo francese specializzato in cybersecurity.Tutti i candidati sono invitati a leggere attentamente la seguente descrizione del lavoro e le relative informazioni prima di candidarsi.Fondato nel 2021 e con sedi in 10 paesi, il gruppo conta oggi più di 1200 dipendenti in tutto il mondo.La nostra ambizione è quella di espanderci a livello internazionale per costruire un mondo digitale sicuro per tutti.È proprio grazie a questa resistente espansione che stiamo cercando un Data Engineer con esperienza su architetture Big Data e ambienti Cloud, che possa guidare lo sviluppo tecnico del team e contribuire all'evoluzione dell'ecosistema dati aziendale.La figura sarà responsabile della progettazione e realizzazione di pipeline dati complesse, garantendo performance, affidabilità, scalabilità e qualità del dato.Responsabilità principaliProgettare, sviluppare e ottimizzare pipeline di data ingestion, data processing e data integration in architetture Big Data complesse.Guidare le attività di sviluppo tecnico del team, supportando altri Data Engineer e assicurando elevati standard qualitativi.Implementare processi di elaborazione:Batch (Spark, Hadoop, Hive, Athena, BigQuery)Streaming (Kafka, Spark Streaming, Flink)Integrare dati provenienti da sistemi eterogenei su ambienti cloud e on-premise tramite sistemi di storage distribuito (HDFS, S3, GCS).Contribuire attivamente all'evoluzione dell'architettura Big Data e dei modelli di riferimento del gruppo.Definire standard, linee guida e best practice per garantire:ScalabilitàSicurezzaQualità del datoManutenibilitàProporre miglioramenti architetturali, nuove tecnologie e metodologie in linea con le esigenze di business.Redigere documentazione tecnica completa: architetture, data flow, specifiche tecniche, monitoraggi.Implementare sistemi di monitoraggio, alerting e controllo qualità del dato.Garantire il rispetto dei requisiti di sicurezza e compliance.Collaborare quotidianamente con team interni ed esterni guidando le implementazioni tecniche.Supportare architetti e team di progetto nella definizione delle soluzioni più adeguate ai diversi use case.Requisiti tecniciEsperienza consolidata (3+ anni) come Data Engineer in contesti Big Data.Ottima conoscenza di:Spark (Core, SQL, Streaming)KafkaHadoop ecosystemData Warehouse moderni (BigQuery, Athena, Hive)Esperienza su ambienti Cloud (AWS, GCP, Azure).Conoscenza di sistemi di storage distribuito (HDFS, S3, GCS).Esperienza con pipeline ETL/ELT complesse.Buona conoscenza di SQL e Python/Scala.Esperienza in progettazione di architetture dati scalabili e resilienti.Familiarità con metodologie Agile.Cosa offriamoInserimento in un team giovane e motivato, con percorsi strutturati di formazione e crescita.Ambiente stimolante in ambito cybersecurity e IT, con possibilità di sviluppo su progetti complessi.Modalità ibridaCCNL Metalmeccanico, ticket restaurant 8 €, welfare, RAL 38.000 – 44.000 €.Sede di lavoro: Bologna. xrtlpzc Il processo di selezione prevede colloquio HR e 2 colloqui di carattere tecnico.