Nell'ambito del potenziamento della funzione IT, siamo i un/una Senior Data Engineer che entrerà a far parte del team responsabile dell'evoluzione e manutenzione del Data Warehouse aziendale, dell'integrazione dei dati da fonti eterogenee e dell'implementazione di pipeline dati moderne ed efficienti.
Responsabilità principali
- Interagire con le funzioni di business per tradurre i requisiti funzionali in requisiti tecnici, conducendo analisi di impatto; - Stimare effort e tempi delle attività di implementazione delle pipeline, in collaborazione con i team Demand e PMO; - Progettare, sviluppare e mantenere pipeline ETL/ELT per l'alimentazione del DWH su cloud (IBM, Azure); - Modellare e documentare strutture dati scalabili, coerenti e aderenti agli standard di governance e business; - Lavorare sull'integrazione di dati da fonti interne ed esterne, curando normalizzazione, mapping semantico, validazione; - Ottimizzare performance di esecuzione dei job schedulati e garantire la disponibilità dei dataset secondo SLA; - Progettazione e ottimizzazione di modelli dati per reportistica e dashboard in Power BI; - Collaborare con il team Data Quality per l'implementazione di regole e controlli automatici; - Contribuire a progetti di innovazione in ambito Big Data, AI data extraction
️ Competenze tecniche richieste
- Laurea in discipline tecnico-scientifiche (Informatica, Ingegneria, Matematica o simili); - Esperienza di almeno 5 anni in ruoli simili, in contesti strutturati (preferibilmente finance, servicing, assicurativo, telco); - Conoscenza avanzata di DBMS relazionali (es.: Oracle, SQL Server, PostgreSQL); - Esperienza nello sviluppo e gestione di pipeline ETL/ELT, preferibilmente con Pentaho, ODI, DataStage o strumenti equivalenti; - Conoscenza dei linguaggi SQL e PLSQL; - Conoscenza di base di scripting (es.: PowerShell,Bash,CLI); - Esperienza in linguaggi di programmazione orientati ai dati (Python, R); - Esperienza con ambienti di schedulazione job, versionamento (es.: GitHub), logging e monitoraggio tecnico; - Gradita esperienza nell'utilizzo degli LLM per l'estrazione dei dati non strutturati. - Ottima conoscenza della lingua inglese, in ambito tecnico
Nice to have
- Esperienza con framework di MLOps (MLflow, DVC, GitLab CI/CD) e pipeline automatizzate di training e deployment. - Conoscenza di base di modelli linguistici (LLM) e tecniche di document intelligence (estrazione entità, classificazione testo). - Familiarità con architetture AI su Azure (Azure ML, Cognitive Services, Data Factory). - Esperienza con strumenti di AI orchestration (es. Elysia, LangChain, Haystack) per pipeline semantiche. - Competenze su data governance e explainability AI (audit trail, versioning dataset e modelli). - Conoscenza di pattern DevOps / Infrastructure-as-Code (Docker, Kubernetes, Terraform). - Attitudine alla collaborazione in team cross-funzionali con AI Engineer, Data Scientist e Compliance.
Competenze trasversali
- Approccio intraprendente e orientato alla qualità tecnica; - Capacità di analisi e problem solving; - Precisione, autonomia e orientamento ai risultati; - Ottime capacità relazionali e comunicative; - Propensione al lavoro in team multidisciplinari e collaborazione con funzioni di business.
Orario lavoro : Full time ( modalità ibrida )
Sede di lavoro: Milano – È richiesta disponibilità a trasferte sul territorio nazionale
Offriamo inserimento diretto in azienda con una retribuzione competitiva, commisurata all'esperienza e alle competenze maturate
Il presente annuncio è rivolto ad entrambi i sessi ai sensi delle leggi 903/77 e 125/91