L nostro obiettivo è sempre stato quello di creare e ampliare nel tempo un gruppo di persone qualificato, affidabile e disponibile; puntando su professionisti esperti, ma anche sulla formazione, investendo risorse nella crescita professionale.Dipendenti e collaboratori attraverso consolidate competenze tecniche, contribuiscono a rendere Craon un'azienda altamente qualificata e competitiva sul mercato ICT.Stiamo ricercando un middle Machine Learning Engineer con esperienza consolidata nello sviluppo e deployment di soluzioni ML scalabili su Databricks. Specializzato nella gestione di pipeline dati complesse, orchestrazione ML e MLOps, integrazione di modelli in produzione e ottimizzazione delle performance su infrastrutture cloud enterprise.È richiesta conoscenza di almeno uno dei principali cloud provider (Azure, AWS, GCP), con capacità di lavorare su pipeline distribuite e di gestire cluster, storage e servizi cloud in modo efficiente.Abituato a lavorare su progetti end-to-end: dall'ingestione e trasformazione dei dati, all'addestramento di modelli, al monitoraggio e retraining automatico in produzione. Forte attitudine alla collaborazione con data scientist, data engineer e team di prodotto per garantire soluzioni affidabili, scalabili e ad alto impatto.Competenze tecnicheDatabricks & Big Data
Esperienza avanzata con DatabricksPySpark, Spark SQL per elaborazione batch e streamingDelta Lake, Lakehouse architecture, Delta Live TablesWorkflow e orchestrazione con Databricks Jobs & WorkflowsMLflow per tracking esperimenti, versionamento modelli e deployment
Machine Learning / MLOps
Modellazione supervisionata e non supervisionataFeature engineering su dataset enterprise di grandi dimensioniDeployment di modelli ML/AI come microservizi o endpoint APIMonitoraggio modelli, drift detection e pipeline di retraining automaticoCI/CD per modelli tramite GitHub Actions, GitLab CI o Azure DevOps
Cloud & Infrastruttura
Conoscenza richiesta di almeno uno tra i principali cloud provider (Azure, AWS, GCP)Gestione cluster, networking, sicurezza e storage cloud (ADLS, S3, GCS)Deployment di workflow batch e real-time su cloud provider differenti
Data Engineering
ETL/ELT con PySpark e Delta Live TablesGestione data lakehouse e grandi volumi di datiSQL avanzato e ottimizzazione query
Backend & API
Python (FastAPI/Flask) per servire modelli come microserviziContainerizzazione con DockerOrchestrazione workflow e gestione pipeline batch/real-time
Tooling
Git, CI/CD, Azure DevOps / GitHub Actions / GitLab CILogging e monitoring (CloudWatch, Azure Monitor, GCP Stackdriver)IaC: Terraform o Bicep (nice-to-have)
Soft Skills
problem solving e pensiero analiticoCapacità di lavorare in team multidisciplinari (data scientist, data engineer, product owner)Attitudine alla collaborazione e comunicazione efficaceAutonomia nella gestione delle task e delle pipeline di lavoroApproccio pragmatico e orientato ai risultatiCapacità di gestire progetti complessi e scadenze
Sede: Milano (ibrido)Si offre contratto a tempo indeterminato CNNL Commercio e Servizi; RAL in relazione all'esperienza effettivamente maturata o contratto in P.IVAIl presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91 e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03#J-18808-Ljbffr