Panoramica:
È questo il suo prossimo lavoro? Legga la descrizione completa qui sotto per scoprirlo e non esiti a candidarsi.
Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali.
Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario.
Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services.
È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un'esperienza nell'elaborazione di dati geospaziali e nei database a grafo.
Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell'informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc.
Questo ruolo offre l'opportunità di contribuire all'evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.
Principali responsabilità:
Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services.
Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web.
Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica.
Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve).
Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata.
Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali.
Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria.
Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati.
Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale.
Formazione:
Laurea magistrale o dottorato di ricerca in:
Informatica
Ingegneria
Statistica
Fisica
Matematica
Competenze tecniche richieste:
Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage
Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix
Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL
Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial
Database a grafo: Neo4j, Cosmos DB con Gremlin
Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.)
Soft Skills e capacità di leadership:
Forte pensiero analitico e capacità di problem solving.
Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici.
Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali.
Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente.
Capacità di adattamento ad ambienti dinamici e tecnologie emergenti.
Leadership tecnica e capacità di mentoring.
Visione strategica e approccio orientato al business per le soluzioni dati.
Qualifiche preferenziali:
Certificazioni Azure, Databricks e Teradata.
Esperienza con pipeline CI/CD, Git e pratiche DevOps. xivgfpx
Familiarità con framework di governance dei dati e conformità al GDPR.