UnipolTech, società del Gruppo Unipol dedicata alla realizzazione di soluzioni tecnologiche innovative e servizi telematici/IoT distintivi e ad alto valore aggiunto per l’auto, la casa, il benessere e la salute è alla ricerca di un professionista esperto nella gestione di progetti Big Datada inserire nel contesto dell’Area Servizi Informatici della società con il ruolo di: BIG DATA ENGINEER Sede di lavoro: Bologna / Milano / Firenze / Torino Il profilo ricercato, una volta inserito nel contesto del team Big Data Hub di UnipolTech, sarà incaricato delle seguenti attività: Sviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato; Gestione dei layer di integrazione su piattaforma Big Data; Contribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali; Redigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema; REQUISITI Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente; Precedente esperienza professionale nel ruolo di Big Data Engineer; Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche; Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito; Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari); Esperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari); Conoscenza ed esperienza nell’utilizzo di DB NoSQL (HBase, Cassandra, MongoDB e similari); Conoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala; Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati; Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving; Costituiscono requisiti preferenziali per la selezione i seguenti punti: Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS; Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione); Principali tecniche didata wrangling, cleansing, exploration e featurization; La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006. Il candidato in possesso delle competenze e delle esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio e modalità di lavoro ibride (sede/remote working). Tempo pieno Posting Date: 2025-08-27 J-18808-Ljbffr