Chi siamo
AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa, parte del MoOngy Group. Con oltre 7.500 dipendenti e presenza in 14 Paesi europei, operiamo in Italia dal 2018 e continuiamo a crescere grazie a professionisti che condividono i nostri valori: ambizione, dinamismo, spirito di squadra, proattività e voglia di mettersi in gioco. Crediamo nello sviluppo continuo delle competenze e in un ambiente di lavoro inclusivo, collaborativo e in costante evoluzione.
Descrizione della posizione
Siamo alla ricerca di un/una Databricks Expert.
La risorsa sarà inserita nel team Data & Analytics e si occuperà della progettazione e dell’evoluzione di architetture dati su piattaforma Databricks. L’attività è focalizzata sulla definizione di soluzioni scalabili e sostenibili in ambito Lakehouse, sull’ottimizzazione delle pipeline dati e sul miglioramento continuo delle performance dei processi esistenti, con particolare attenzione a costi, qualità e manutenibilità del codice.
Responsabilità principali
* Progettazione e evoluzione di architetture dati in ambiente Databricks e paradigma Lakehouse
* Definizione e gestione di architetture Medallion (Bronze/Silver/Gold)
* Ottimizzazione di pipeline e job Spark in ottica di performance, costi e scalabilità
* Analisi e risoluzione di problematiche legate a performance (shuffle, data skew, caching)
* Implementazione e gestione di Unity Catalog per governance, permessi e data lineage
* Supporto all’industrializzazione dei processi tramite CI/CD (Databricks Asset Bundles, Terraform, Git integration)
* Collaborazione con team tecnici e di business per la traduzione dei requisiti in soluzioni architetturali efficaci
* Definizione e mantenimento di standard tecnici per lo sviluppo su Databricks
Requisiti
* Esperienza nella progettazione di architetture dati in ambito Lakehouse / Databricks
* Conoscenza del modello Medallion e dei principi di data engineering
* Ottima conoscenza di Spark (PySpark e/o Scala)
* Capacità di sviluppare codice ottimizzato e performante
* Conoscenza dei concetti di tuning e ottimizzazione (shuffle, caching, data skew)
* Esperienza con Unity Catalog o strumenti equivalenti di data governance
* Familiarità con processi CI/CD (Git, Terraform, Databricks Asset Bundles o equivalenti)
* Buona attitudine al problem solving e al lavoro in team
* Inglese tecnico (lettura documentazione e contesto lavorativo internazionale)
Cosa offriamo
* Sede di lavoro: da remoto, con eventuali rientri periodici in sede a TORINO
* Contratto a tempo indeterminato o collaborazione in P.IVA
* Ambiente di lavoro dinamico e in continua evoluzione
* Contesto tecnico su progetti complessi in ambito Data & Cloud
* Percorsi di crescita e sviluppo delle competenze in ambito Data Engineering e Architetture Cloud