Descrizione del ruolo:
La figura di Senior Data Platform Architect & Engineer è responsabile della progettazione, implementazione e governo end-to-end di piattaforme dati cloud-based in architettura Lakehouse.
Il ruolo combina competenze architetturali, ingegneristiche e DevOps per garantire scalabilità, performance, sicurezza e qualità del dato, accompagnando l'evoluzione tecnologica della Data Platform.
Responsabilità principali:
Architettura & Design
* Definizione della struttura del Data Lakehouse, inclusa la scelta di formati (es. Delta Lake), strutture di tabelle, livelli architetturali e workflow.
* Progettazione di architetture dati, data modeling (3rd Normal Form, Data Vault) a supporto di analytics e casi d'uso avanzati.
* Disegno di soluzioni scalabili e performanti, con attività di performance tuning e capacity planning.
* Monitoraggio continuo delle best practice e delle tecnologie cloud, proponendo evoluzioni architetturali e soluzioni innovative.
Data Engineering & Delivery
* Progettazione e realizzazione tecnica delle pipeline di acquisizione, trasformazione e caricamento dei dati (ETL/ELT).
* Integrazione di dati provenienti da fonti eterogenee (database relazionali, sistemi applicativi, dati non strutturati).
* Monitoraggio del corretto funzionamento delle pipeline e gestione degli errori.
* Collaborazione con i team responsabili dei sistemi sorgente per definire regole e modalità di alimentazione della Data Platform.
Data Governance, Security & DevOps
* Implementazione di controlli di Data Quality e regole di Data Governance.
* Applicazione di controlli di accesso, crittografia dei dati a riposo e in transito, in linea con le policy di sicurezza.
* Gestione del versioning del codice e dei processi DevOps tramite Git e pipeline CI/CD.
* Automazione dei rilasci e delle pipeline (Databricks Asset Bundle, Azure DevOps, Jenkins).
Competenze tecniche:
Core skills
* Progettazione di architetture dati cloud e Lakehouse
* Data modeling: 3rd Normal Form, Data Vault
* SQL avanzato
* Python e/o Scala
* ETL/ELT e sistemi di integrazione dati
* Delta Lake, Unity Catalog
* Git, CI/CD e DevOps per Data Platform
Cloud & Platform
* Esperienza su almeno uno dei principali cloud provider: Azure (mandatory), AWS o GCP
* Strumenti di orchestrazione e gestione pipeline in ambiente cloud
Nice to have – Certificazioni
* Azure Solutions Architect Expert
* AWS Certified Solutions Architect – Professional
* Google Professional Cloud Architect
* Databricks Certified Data Engineer
* Azure DP-203 / AWS Data Analytics / Google Data Engineer