Nell'ambito del potenziamento della funzione IT, siamo i un/una Senior Data Engineer che entrerà a far parte del team responsabile dell'evoluzione e manutenzione del Data Warehouse aziendale, dell'integrazione dei dati da fonti eterogenee e dell'implementazione di pipeline dati moderne ed efficienti.Responsabilità principaliInteragire con le funzioni di business per tradurre i requisiti funzionali in requisiti tecnici, conducendo analisi di impatto;
È questo il ruolo che sta cercando? Se sì, continui a leggere per maggiori dettagli e si ricordi di candidarsi oggi stesso.
Stimare effort e tempi delle attività di implementazione delle pipeline, in collaborazione con i team Demand e PMO;
Progettare, sviluppare e mantenere pipeline ETL/ELT per l'alimentazione del DWH su cloud (IBM, Azure);
Modellare e documentare strutture dati scalabili, coerenti e aderenti agli standard di governance e business;
Lavorare sull' integrazione di dati da fonti interne ed esterne, curando normalizzazione, mapping semantico, validazione;
Ottimizzare performance di esecuzione dei job schedulati e garantire la disponibilità dei dataset secondo SLA;
Progettazione eottimizzazione di modelli dati per reportistica e dashboard in Power BI;
Collaborare conil team Data Quality per l'implementazione di regole e controlli automatici;
Contribuire a progetti di innovazione in ambito Big Data, AI data extractionCompetenze tecniche richiesteLaurea in discipline tecnico-scientifiche (Informatica, Ingegneria, Matematica o simili);
Esperienza di almeno 5 anni in ruoli simili, in contesti strutturati (preferibilmente finance, servicing, assicurativo, telco);
Conoscenza avanzata di DBMS relazionali (es.: Oracle, SQL Server, PostgreSQL);
Esperienza nello sviluppo e gestione di pipeline ETL/ELT, preferibilmente con Pentaho, ODI, DataStage o strumenti equivalenti;
Conoscenza dei linguaggi SQL e PLSQL;
Conoscenza di base di scripting (es.: PowerShell,Bash,CLI);
Esperienza in linguaggi di programmazione orientati ai dati (Python, R);
Esperienza con ambienti di schedulazione job, versionamento (es.: GitHub), logging e monitoraggio tecnico;
Gradita esperienza nell'utilizzo degli LLM per l'estrazione dei dati non strutturati.Ottima conoscenza della lingua inglese, in ambito tecnicoNice to haveEsperienza con framework di MLOps (MLflow, DVC, GitLab CI/CD) e pipeline automatizzate di training e deployment.Conoscenza di base di modelli linguistici (LLM) e tecniche di document intelligence (estrazione entità, classificazione testo).Familiarità con architetture AI su Azure (Azure ML, Cognitive Services, Data Factory).Esperienza con strumenti di AI orchestration (es. Elysia, LangChain, Haystack) per pipeline semantiche.Competenze su data governance e explainability AI (audit trail, versioning dataset e modelli).Conoscenza di pattern DevOps / Infrastructure-as-Code (Docker, Kubernetes, Terraform).Attitudine alla collaborazione in team cross-funzionali con AI Engineer, Data Scientist e Compliance. xpavfwmCompetenze trasversaliApproccio proattivo e orientato alla qualità tecnica;
Capacità di analisi e problem solving;
Precisione, autonomia e orientamento ai risultati;
Ottime capacitàrelazionali e comunicative;
Propensione al lavoro in team multidisciplinari e collaborazione con funzioni di business.Orario lavoro : Full time ( modalità ibrida )Sede di lavoro: Milano – È richiesta disponibilità a trasferte sul territorio nazionale
Offriamo inserimento diretto in azienda con una retribuzione competitiva, commisurata all'esperienza e alle competenze maturate
Il presente annuncio è rivolto ad entrambi i sessi ai sensi delle leggi 903/77 e 125/91