Panoramica:
Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali.
Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario.
Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services.
È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un'esperienza nell'elaborazione di dati geospaziali e nei database a grafo.
Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell'informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc.
Questo ruolo offre l'opportunità di contribuire all'evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.
Principali responsabilità:
* Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services.
* Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web.
* Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica.
* Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve).
* Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata.
* Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali.
* Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria.
* Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati.
* Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale.
Formazione:
Laurea magistrale o dottorato di ricerca in:
* Informatica
* Ingegneria
* Statistica
* Fisica
* Matematica
Competenze tecniche richieste:
* Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage
* Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix
* Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL
* Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial
* Database a grafo: Neo4j, Cosmos DB con Gremlin
* Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.)
Soft Skills e capacità di leadership:
* Forte pensiero analitico e capacità di problem solving.
* Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici.
* Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali.
* Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente.
* Capacità di adattamento ad ambienti dinamici e tecnologie emergenti.
* Leadership tecnica e capacità di mentoring.
* Visione strategica e approccio orientato al business per le soluzioni dati.
Qualifiche preferenziali:
* Certificazioni Azure, Databricks e Teradata.
* Esperienza con pipeline CI/CD, Git e pratiche DevOps.
* Familiarità con framework di governance dei dati e conformità al GDPR.
#J-18808-Ljbffr