Per potenziare il team R&D dedicato al progetto EvoCity (sede di Bari) cerchiamo un* AI Data Scientist/ Data ScientistApplication con competenze in analisi dati, modellazione predittiva e implementazione di soluzioni di AI in contesti aziendali. La figura avrà il compito di trasformare problemi di business in soluzioni analitiche concrete, attraverso l’intero ciclo di vita del dato: dalla raccolta alla valutazione dell’impatto.
Si valutano anche profili junior da inserire all'interno di un percorso di crescita.
Di cosa ti occuperai:
1. Progettare e sviluppare modelli di Machine Learning su dataset complessi e disomogenei;
2. Eseguire analisi esplorative e visualizzazione dati utilizzando librerie Python (pandas, numpy, seaborn, matplotlib);
3. Pulire, trasformare e ingegnerizzare variabili con tecniche di preprocessing avanzate;
4. Valutare performance dei modelli tramite metriche appropriate, validazione incrociata e analisi del bias;
5. Ottimizzare pipeline di ML e gestire il fine-tuning di modelli preaddestrati (es. Hugging Face);
6. Interrogare database SQL e ottimizzare query su basi dati strutturate;
7. Lavorare in ambienti collaborativi tramite Git, GitLab/GitHub, Docker e strumenti cloud-based (Colab, GCP);
8. Supportare il team business nella definizione di KPI, soglie operative e metriche di monitoraggio;
9. Effettuare analisi costi/benefici (ROI) relative all’adozione di soluzioni AI su cloud;
10. Identificare e documentare rischi, bias e limiti dei modelli sviluppati.
Cosa cerchiamo:
11. Padronanza di Python con uso estensivo di pandas, numpy, scikit-learn;
12. Familiarità con ambienti formativi e modelli open source (Kaggle, Hugging Face);
13. Esperienza pratica con pipeline di Machine Learning, dalla selezione al fine-tuning del modello;
14. Competenze statistiche di base e inferenza per la creazione e valutazione delle feature;
15. Ottima conoscenza di SQL e capacità di scrivere query performanti su dataset complessi;
16. Esperienza base con ambienti di sviluppo come Jupyter, Google Colab, ambienti virtuali;
17. Conoscenza di strumenti e framework come Git, Docker, Spark, Apache Iceberg, R;
18. Sensibilità verso i rischi associati a modelli AI (bias, fallimenti, overfitting);
19. Visione critica orientata alla valutazione del ritorno sull’investimento di progetti AI/ML.
Rappresentano un plus:
20. Esperienza con deployment di modelli in produzione;
21. Familiarità con ambienti Big Data;
22. Conoscenza di tecnologie di data lake e data mesh.
Cosa ti possiamo offrire:
23. Flessibilità oraria e un modello di lavoro ibrido (2/3gg/settimana da casa);
24. Formazione interna e acquisizione di certificazioni;
25. Buoni pasto e convenzioni aziendali.