Data Engineer - End User – Hybrid Working
Realtà di Prodotto Multinazionale è alla ricerca di un Data Engineer;
Modalità ibridae flessibile: 3 giorni a settimana da remoto garantiti;
Sede di lavoro: Milano;
Budget: 50K.
Il candidato selezionato entrerà a far parte di un team dedicato a un progetto strategico aziendale: la realizzazione di un nuovo Data Warehouse su piattaforma Cloud. La figura lavorerà in stretta collaborazione con un team interno multidisciplinare e con partner esterni, occupandosi di progettare, sviluppare e, in seguito, mantenere l'infrastruttura dati necessaria per le attività di analisi aziendale.
Responsabilità
Entrerai a far parte del team di Data Engineering e contribuirai alla progettazione e realizzazione di soluzioni data-driven, occupandoti in particolare di:
* Disegnare, sviluppare e mantenere flussi di integrazione dati ed ETL/ELT.
* Realizzare e gestire data warehouse e lakehouse in cloud, garantendo scalabilità, affidabilità e performance.
* Introdurre e migliorare processi di automazione per ottimizzare i flussi di lavoro e ridurre attività manuali.
* Assicurare elevati standard di qualità del dato, sicurezza e compliance alle policy di governance.
* Lavorare a stretto contatto con data analyst e data scientist, traducendo i requisiti di business in soluzioni tecniche efficaci.
* Produrre e mantenere documentazione tecnica chiara e aggiornata su codice, architetture e processi.
* Supportare la raccolta, trasformazione ed esposizione dei dati a supporto delle decisioni strategiche aziendali.
* Analizzare processi di business, logiche applicative e modelli dati esistenti per proporre miglioramenti.
* Mantenersi costantemente aggiornato/a su tecnologie, strumenti e best practice del data engineering.
Requisiti
* Laurea in Informatica, Ingegneria Informatica o percorsi equivalenti.
* Almeno 3 anni di esperienza in ruoli di Data Engineering.
* Solida competenza in Python, Java o Scala.
* Esperienza con database SQL e NoSQL (ad esempio MySQL, PostgreSQL, SQL Server, Hadoop).
* Conoscenza pratica di Azure Fabric (Data Factory, Lakehouse, Data Warehouse) e di Google Cloud Platform, in particolare BigQuery.
* Familiarità con i principi di data governance, sicurezza e gestione del dato.
Costituiscono un plus
* Esperienza con strumenti di data visualization e reporting (come Tableau, Looker o Power BI).
* Conoscenza di framework e strumenti di data processing e orchestration quali Apache Spark, Airflow o AWS Glue.
Cosa si offre
* Un ambiente di lavoro giovane, dinamico e collaborativo.
* Colleghi appassionati con cui condividere e accrescere le competenze.
* Possibilità di giocare un ruolo chiave in un progetto rilevante nel campo dei dati.
* Riconoscimento del merito, indipendentemente dall'anzianità.
* Flessibilità lavorativa, smart working e vantaggi di welfare.
* Feedback periodici per lo sviluppo professionale e il miglioramento delle performance.
* Momenti dedicati alla socializzazione e celebrazione dei successi.
* Iniziative di formazione e condivisione di competenze.
* Opportunità di collaborazione con team internazionali su progetti specifici.