Nell'ottica del potenziamento della nostra divisione DWIT - Business Line dedicata all'IT Consulting di eGlue - stiamo ricercando una figura di Big Data Engineer - Technical Leader.Sede di Lavoro: Torino, ibrido (3 giorni di presenza on-site, 2 da remoto).Contratto: fino a 50.000€RAL, a seconda dell'esperienza maturata. Assunzione a tempo indeterminato con contratto CCNL Metalmeccanico. L'offerta include buoni pasto da 6,50€ per giorno lavorato, 200€ Welfare, Assicurazione Sanitaria a copertura del nucleo familiare.La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.Responsabilità:
Si assicuri di leggere attentamente le informazioni relative a questa opportunità prima di inviare la sua candidatura.
Gestione di progetti Big Data coordinando un team di sviluppo dedicato;Gestione dei layer di integrazione su piattaforma Big Data;Contribuire alla evoluzione del sistema Big Data definendo standard, regole e modelli architetturali, e dando supporto a progetti strategici come il Journey to Cloud;Progettare e successivamente validare le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema.
Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;Precedente esperienza professionale nella gestione di progetti Big Data (analisi progettuale, definizione degli obiettivi, monitoraggio avanzamento progetto);Strumenti del framework Cloudera e/o Databricks/AWS;Conoscenza di strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari);Linguaggi di programmazione: Java, Python o Scala;Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito. xrdztoy
Completano il profilo:
Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving;Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);Conoscenza di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari)Principali tecniche di data wrangling, cleansing, exploration e featurization.
#J-18808-Ljbffr