PIl candidato potrà essere inserito nell'ufficio Big Data Hub e curerà la progettazione e la realizzazione di progetti in ambiente big data: /pulliSviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato; /liliGestione dei layer di integrazione su piattaforma Big Data; /liliContribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali; /liliRedigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema; /li /ulpREQUISITI /pulliLaurea Magistrale in Informatica, Ingegneria Informatica o equivalente; /liliPrecedente esperienza professionale nel ruolo di Big Data Engineer; /liliAbilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche; /liliConoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito; /liliConoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari); /li /ululliEsperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari); /liliConoscenza ed esperienza nell’utilizzo di DB NoSQL (HBase, Cassandra, MongoDB e similari); /liliConoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala; /liliEsperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati; /liliCompletano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving; /li /ulpCostituiscono requisiti preferenziali per la selezione i seguenti punti: /pulliEsperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS; /liliFondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione); /liliPrincipali tecniche di data wrangling, cleansing, exploration e featurization; /li /ulpPiva /ppFreelance /ppProgetto 12 mesi /ppFull time full remote /p