Stiamo selezionando un Data Scientist – AI Governance & Model Validation, da inserire in un importante progetto per un nostro rilevante cliente.
Il contratto, il livello e la retribuzione saranno condivisi in fase di selezione e colloquio.
La sede di lavoro è Roma, modalità di lavoro sarà in ibrido, (2 o 3 giorni presso la sede del cliente ed il resto in smartworking).
La risorsa sarà inserita nel team dedicato alla valutazione tecnica e alla governance dei use case di Intelligenza Artificiale.
Il candidato sarà coinvolto nelle attività di analisi, validazione e monitoraggio dei modelli ML/GenAI/LLM, garantendo conformità ai requisiti normativi, di risk management e alle policy aziendali. Valutare i use case AI assicurando conformità ai criteri di governance e coerenza con metriche, KPI, requisiti tecnici e controlli di rischio.
Verificare la corretta applicazione dell’ AI Use Case Governance Questionnaire, con focus su architetture, API, hosting, dati e IT triggers.
Effettuare controlli di compliance in linea con AI Act, policy MRM/MRR e assessment obbligatori (DPIA, TPRM, Data Quality).
Analizzare modelli Machine Learning, GenAI e Large Language Models, valutandone robustezza, qualità dati, stabilità, bias ed explainability.
Validare metriche e test di performance, contribuendo alla definizione di sistemi di monitoraggio (drift detection, re‑training, incident management).
Supportare l’analisi del valore generato dai use case e la valutazione dei costi.
Collaborare con PO, Tribe Lead, Data Owner e partner IT lungo l’intero ciclo di vita del modello.
Redigere documentazione tecnica, evidenze di assessment e materiali per i processi decisionali e di governance.
Competenze tecniche richieste:
Solida conoscenza dei modelli di Machine Learning e delle relative metriche di valutazione.
Competenze dimostrate in model assessment & monitoring (performance, stability, explainability, drift, bias).
Ottima padronanza di Python e familiarità con pipeline dati, flussi applicativi e integrazioni API.
Competenze tecniche gradite:
Conoscenza di framework di AI governance o Model Risk Management .
Esperienza con strumenti MLOps/monitoring (MLflow, EvidentlyAI o equivalenti).
Esperienza su cloud (AWS, Azure o GCP).
Conoscenza dei requisiti del AI Act e degli standard di qualità dei dati.
Laurea in Informatica o in Ingegneria Informatica (o titolo equivalente/superiore);
buona conoscenza della lingua inglese, sia scritta che parlata.