AizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale, ricerca Junior Data Scientist da inserire nella Divisione AIDaS (Artificial Intelligence & Data Science).
Il / La candidato / a opererà per un importante cliente del settore Transportation, all'interno di un progetto dedicato alla gestione end-to-end del ciclo di vita del dato e allo sviluppo di pipeline a supporto di analisi operative, dashboard e applicazioni di Machine Learning.
Attività previste
* Progettazione, sviluppo e manutenzione di pipeline di elaborazione dati (real-time e batch).
* Analisi statistica dei dati e analisi esplorativa.
* Supporto allo sviluppo di algoritmi di Machine Learning e analisi su serie temporali, tramite dataset strutturati, puliti e documentati.
* Integrazione e trasformazione di grandi volumi di dati provenienti da veicoli connessi e sistemi eterogenei.
* Gestione di workflow ETL/ELT e ottimizzazione delle performance.
* Organizzazione, modellazione e cura della qualità dei dati.
* Collaborazione con i team interni (Quality, Customer Center, Engineering) per abilitare processi decisionali data-driven.
PROFILO
* Laurea magistrale in discipline tecnico-scientifiche (preferibilmente Ingegneria Informatica, Data Science, Statistica, Matematica, Fisica).
* Solide basi di programmazione, gestione dati, statistica e analisi di serie temporali.
* Buona conoscenza della lingua inglese.
COMPETENZE TECNICHE
* Programmazione in Python e SQL.
* Conoscenza di architetture Big Data e paradigmi di elaborazione distribuita (es. Spark).
* Utilizzo di librerie Python per la gestione dei dati (Pandas, NumPy, PySpark).
* Competenze statistiche e di analisi delle serie temporali.
* Conoscenze di Data Mining e analisi esplorativa (EDA).
* Basi di Machine Learning utili alla comprensione dei processi analitici downstream.
Nice to have
* Conoscenza della piattaforma Databricks (Delta Lake, MLflow).
* Esperienza con strumenti di orchestrazione/ETL (Airflow, Databricks Workflows).
* Conoscenza di strumenti di visualizzazione dati (Matplotlib, Seaborn, Plotly).
* Familiarità con piattaforme Cloud (AWS, Azure, Google Cloud) e servizi di data storage/processing.
* Conoscenza di strumenti di versionamento del codice (es. Git).
* Buone pratiche di sviluppo per pipeline dati (test, logging, monitoraggio).
The job search refers to candidates of both genders