La risorsa sar inserita all'interno del progetto di Data Platform con l'obiettivo di sviluppare i processi di alimentazione tramite Kafka e integrare tutti i sistemi di manufacturing presenti nei plant. Si occuper di analisi e implementazione di soluzioni big data specialmente in ambiente cloud. In particolare i progetti riguarderanno tematiche di digital transformation a partire da soluzioni tradizionali e legacy' verso soluzioni di gestione e analisi del dato in linea con una data strategy data-driven. Collaborer con il team di Milano alla condivisione dei requisiti' progettazione e modellazione delle loading chain. Si occuper inoltre della stesura della documentazione degli sviluppi' agli integration test e deploy in ambiente AWS e gestir l'handover della soluzione implementata al team di supporto per la governance della soluzione. Attivit Sono richieste: - Laurea in discipline tecniche/scientifiche, - Conoscenza approfondita di S3' Aurora ' RDS e postgres per configurazione e gestione database nei processi di loading dati, - Esperienza programmazione con Phyton' Spark' Node.js' Scala, - Esperienza in ambienti cloud preferibilmente AWS(msk' Kafka), - Esperienza di progettazione' sviluppo' gestione di pipeline scalabili (ETL), - Capacit analitiche per la gestione di grandi quantit di dati (Big Data), - Conoscenza delle tematiche di data integration e data streaming e di almeno un paio di strumenti/framework (Spark' Apache Beam' Kafka' databricks' ecc..) con esperienza di almeno 1 anno nell'utilizzo di questi tool, - Conoscenza delle architetture e tecnologie big data più diffuse (Hadoop' MapReduce' HBase' Oozie' Hive' Flume' MongoDB' Cassandra' Pig' ecc.). Inoltre: - Buona conoscenza della lingua inglese, - Buona propensione all'analisi' al problem solving e al teamworking, - Dinamismo e proattivit. Sono un plus: - Conoscenza linguaggi di scripting Web' Design e UX, - Certificazioni tecniche AWS, - Esperienza in ambito simile di almeno 2 anni. Ruolo da ricoprire: - Sviluppo pipeline di caricamento sistemi di fabbrica in data platform, - Performance tuning, - Scrittura di codice PL/SQL, - Scrittura e manutenzione della documentazione tecnica a supporto delle implementazioni ETL, - Manutenzione ed interventi su flussi ETL esistenti, - Interfaccia con i settori del Business per la raccolta dei requisiti, - Predisposizione di sistemi di alert' monitoring tramite Cloudwatch' Phyton. Sede: la posizione sar basata presso il nuovo ufficio Pirelli di Bari (BA)' Italia.