Leonardo SpA è un gruppo industriale internazionale, tra le principali realtà mondiali nell’Aerospazio, Difesa e Sicurezza che realizza capacità tecnologiche multidominio in ambito Elicotteri, Velivoli, Aerostrutture, Elettronica, Cyber Security e Spazio. Con oltre 60.000 dipendenti nel mondo, l’azienda ha una solida presenza industriale in Italia, Regno Unito, Polonia, Stati Uniti, e opera in 150 paesi anche attraverso aziende controllate, joint venture e partecipazioni.
Protagonista dei principali programmi strategici a livello globale, è partner tecnologico e industriale di Governi, Amministrazioni della Difesa, Istituzioni e imprese.
All’interno dell'Area Cyber & Security Solutions, stiamo ricercando un / a Data Analyst per le nostre sedi di Roma Laurentina o Catania.
La persona si occuperà delle seguenti attività :
* Raccolta Dati : Acquisizione e aggregazione dei dati da diverse fonti (database, fogli di calcolo, file CSV, ecc.).
* Pulizia Dati : Identificazione e correzione di errori, duplicati e incoerenze nei dataset per garantirne la qualità.
* Analisi Dati : Utilizzo di strumenti e software di analisi (come Excel, SQL, Python, R) per esaminare e interpretare i dati.
* Reportistica : Creazione di report e dashboard per visualizzare i dati in modo comprensibile e presentare i risultati delle analisi.
* Supporto Decisionale : Fornire insight e raccomandazioni basate sui dati per supportare le decisioni aziendali.
* Collaborazione : Lavorare a stretto contatto con altri team (marketing, vendite, finanza) per comprendere le loro esigenze e fornire analisi rilevanti.
* Documentazione : Mantenere una documentazione dettagliata dei processi di raccolta e analisi dei dati per garantire la tracciabilità e la replicabilità.
* Apprendimento Continuo : Aggiornarsi sulle nuove tecnologie, metodologie e strumenti di analisi dei dati.
Titolo di studio : Laurea STEM
Conoscenze e competenze tecniche
* Fondamenti di Database : Conoscenza dei database relazionali (SQL) e non relazionali (NoSQL).Familiarità con concetti di normalizzazione, indicizzazione e ottimizzazione delle query.
* Linguaggi di Programmazione : Competenza in linguaggi di scripting e programmazione come Python, Java e Scala.Conoscenza di SQL per l'interrogazione e manipolazione dei dati.
* Big Data Technologies : Comprensione di framework di elaborazione dati distribuiti come Apache Hadoop e Apache Spark.Conoscenza di strumenti di gestione dei dati come Apache Kafka per il processamento di stream di dati.
* Data Warehousing : Familiarità con concetti di data warehousing e soluzioni come Amazon Redshift, Google BigQuery, e Snowflake.
* ETL (Extract, Transform, Load) : Conoscenza di strumenti e processi ETL per la trasformazione e il caricamento dei dati, come Apache NiFi, Talend, e Informatica.
* Cloud Computing : Introduzione ai servizi di cloud computing come AWS, Google Cloud Platform (GCP), e Microsoft Azure.Conoscenza di servizi specifici per la gestione dei dati come AWS S3, GCP BigQuery, e Azure Data Lake.
Competenze comportamentali :
* Capacità di problem solving;
* Capacità di organizzazione e pianificazione delle attività;
* Capacità di agire in contesti complessi;
Capacità di interazione con risorse di altre funzioni e con i clienti
Predisposizione all’azione e determinazione al raggiungimento degli obiettivi.
Conoscenze linguistiche :
Padronanza della lingua Inglese, sia parlata che scritta (B2)
Altro :
Eventuale disponibilità a trasferte sul territorio nazionale.
Creare un avviso di lavoro per questa ricerca
#J-18808-Ljbffr