Stiamo selezionando un
Data Scientist – AI Governance & Model Validation, da inserire in un importante progetto per un nostro rilevante cliente.
Il contratto, il livello e la retribuzione saranno condivisi in fase di selezione e colloquio.
La sede di lavoro è Roma, modalità di lavoro sarà in ibrido, (2 o 3 giorni presso la sede del cliente ed il resto in smartworking).
La risorsa sarà inserita nel team dedicato alla valutazione tecnica e alla governance dei use case di Intelligenza Artificiale. Il candidato sarà coinvolto nelle attività di analisi, validazione e monitoraggio dei modelli ML/GenAI/LLM, garantendo conformità ai requisiti normativi, di risk management e alle policy aziendali. Seniority 2–5 anni.
Principali attività. La risorsa si occuperà di una o più delle seguenti attività, a seconda della seniority: Valutare i use case AI assicurando conformità ai criteri di governance e coerenza con metriche, KPI, requisiti tecnici e controlli di rischio. Verificare la corretta applicazione dell’ AI Use Case Governance Questionnaire, con focus su architetture, API, hosting, dati e IT triggers. Effettuare controlli di compliance in linea con
AI Act, policy
MRM/MRR
e assessment obbligatori (DPIA, TPRM, Data Quality). Analizzare modelli
Machine Learning, GenAI e Large Language Models, valutandone robustezza, qualità dati, stabilità, bias ed explainability. Validare metriche e test di performance, contribuendo alla definizione di sistemi di monitoraggio (drift detection, re‑training, incident management). Supportare l’analisi del valore generato dai use case e la valutazione dei costi. Collaborare con PO, Tribe Lead, Data Owner e partner IT lungo l’intero ciclo di vita del modello. Redigere documentazione tecnica, evidenze di assessment e materiali per i processi decisionali e di governance.
Competenze tecniche richieste: Solida conoscenza dei modelli di Machine Learning e delle relative metriche di valutazione. Esperienza con tecnologie
GenAI/LLM
e principi di AI safety & robustness. Competenze dimostrate in
model assessment & monitoring
(performance, stability, explainability, drift, bias). Ottima padronanza di
Python
e familiarità con pipeline dati, flussi applicativi e integrazioni API. Competenze tecniche gradite: Conoscenza di framework di
AI governance
o
Model Risk Management. Esperienza con strumenti MLOps/monitoring (MLflow, EvidentlyAI o equivalenti). Esperienza su cloud (AWS, Azure o GCP). Conoscenza dei requisiti del
AI Act
e degli standard di qualità dei dati.
Completano il profilo del candidato: Laurea in Informatica o in Ingegneria Informatica (o titolo equivalente/superiore); buona conoscenza della lingua inglese, sia scritta che parlata.
Se interessati, inviate il Vostro Curriculum Vitae aggiornato e dettagliato che dovrà contenere autorizzazione al trattamento dei dati secondo l'articolo 13 GDPR679/16 a:
.