CRIF, prestigioso ed innovativo Gruppo internazionale specializzato in soluzioni informative, modelli decisionali, outsourcing, software e servizi consulenziali per supportare banche, società finanziarie, assicurazioni, utilities e imprese in ogni fase della relazione con il cliente, ricerca all’interno dell’area di Global Advanced Analytics una figura di
Senior Data Engineer
L’area “Advanced Analytics Global” è il Centro di Eccellenza di CRIF che combina le migliori competenze di AI, Data Science e Data Engineering. Siamo un gruppo eclettico ed in rapida crescita, composto da giovani che collaborano in un ambiente internazionale sereno, fortemente orientato all’innovazione e attento alla crescita delle persone che vi lavorano, con il giusto mix di interazione fisica e collaborazione da remoto.
applichiamo tecniche di Data Science e tecnologie di AI per sviluppare e mettere in produzione modelli predittivi
evolviamo il business dei nostri clienti guidandoli nell’integrazione dell'IA nelle strategie
Se vuoi misurarti con le principali istituzioni bancarie italiane ed europee per supportarle nel loro percorso di innovazione sostenibile ed etica e possiedi le seguenti caratteristiche, sei il candidato giusto!
Cerchiamo un Senior Data Engineer con almeno 2 anni di esperienza che abbia le seguenti caratteristiche:
laurea Magistrale in Ingegneria Informatica, Artificial Intelligence, Machine Learning, Data Science, Matematica, o affine
solida esperienza nella programmazione Python e nell’uso di best practices di software engineer
esperienza nell’utilizzo di servizi Cloud (AWS preferito)
esperienza nel disegno e nell’implementazione di pipeline end-to-end in ambito Cloud
conoscenza dei principali web framework (FastAPI, Flask)
esperienza in DevOps, CI/CD pipeline management e infrastructure as Code (IaC) deployment.
esperienza su concetti di Data Governance (Data Lineage, Data Quality)
conoscenza delle logiche di spatial analysis e di uno o più applicativi GIS
gestire il ciclo di vita dei data products esistenti e disegnare ed implementare i nuovi data products
sviluppare e mettere a disposizione del Team un codice robusto e riutilizzabile per aumentare l’efficienza, ad esempio tramite lo sviluppo di librerie Python interne o tramite componenti cloud come AWS Lambda
Milano (preferita) o Bologna, con possibilità di Smart Working.