Nell'ottica del potenziamento della nostra divisione DWIT - Business Line dedicata all'IT Consulting di eGlue - stiamo ricercando una figura di Big Data Specialist - Technical Leader.
Sede di Lavoro: Firenze, ibrido (3 giorni di presenza on-site, 2 da remoto).
Contratto: fino a 50.000€RAL, a seconda dell'esperienza maturata. Assunzione a tempo indeterminato con contratto CCNL Metalmeccanico. L'offerta include buoni pasto da 6,50€ per giorno lavorato, 200€ Welfare, Assicurazione Sanitaria a copertura del nucleo familiare.
La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.
Responsabilità:
- Gestione di progetti Big Data coordinando un team di sviluppo dedicato; - Gestione dei layer di integrazione su piattaforma Big Data; - Contribuire alla evoluzione del sistema Big Data definendo standard, regole e modelli architetturali, e dando supporto a progetti strategici come il Journey to Cloud; - Progettare e successivamente validare le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema.
Requisiti:
- Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente; - Precedente esperienza qualificato nella gestione di progetti Big Data (analisi progettuale, definizione degli obiettivi, monitoraggio avanzamento progetto); - Strumenti del framework Cloudera e/o Databricks/AWS; - Conoscenza di strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari); - Linguaggi di programmazione: Java, Python o Scala; - DB NoSQL (HBase, Cassandra, MongoDB e similari); - Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati; - Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito.
Completano il profilo:
- Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving; - Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione); - Conoscenza di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari) - Principali tecniche di data wrangling, cleansing, exploration e featurization.