PPer importante azienda di consulenza IT, attiva anche su progetti internazionali per soluzioni in ambito Big Data, Cloud e sviluppo software; si ricerca bDATA ENGINEER. /b /ppbr/ppbr/ppbDescrizione /b /ppLa persona inserita nel progetto si occuperà della progettazione e gestione di pipeline di dati. /ppSi occuperà di progettare, costruire e mantenere le infrastrutture che permettono alle aziende clienti di raccogliere, organizzare e trasformare grandi quantità di dati in informazioni utilizzabili. /ppLa figura ideale ha già maturato competenze in ambito data integration e cloud, ed è motivata a contribuire a progetti innovativi in un ambiente giovane e dinamico. /ppbr/ppbr/ppNel dettaglio: /pp- bProgettazione e manutenzione di database /b: creazione e ottimizzazione dei sistemi di archiviazione dei dati (relazionali e non). /pp- bData pipeline /b: sviluppo di flussi di dati (ETL – Extract, Transform, Load) per integrare informazioni da diverse fonti. /pp- bData processing /b: gestione e trasformazione dei dati grezzi in formati strutturati e pronti per l’analisi. /pp- bIntegrazione sistemi /b: collegamento applicazioni, servizi e piattaforme cloud (AWS, Azure, GCP) per garantire accesso ai dati. /pp- bOttimizzazione performance /b: assicurandosi che i sistemi siano scalabili, sicuri e veloci. /pp- bCollaborazione /b: lavoro a stretto contatto con Data Scientist e Data Analyst, fornendo loro dati puliti e affidabili. /ppbr/ppbr/ppb Requisiti /b /pp- Laurea ad indirizzo Informatica, Matematica, Statistica o Data Science /pp- Almeno 2 anni di esperienza in Data Engineering o ruoli simili /pp- Conoscenza di SQL e dei principali database relazionali /pp- Esperienza in data integration e strumenti ETL (Apache Airflow, Talend o simili) /pp- Familiarità con tecniche di data processing e gestione flussi di dati /pp- Ottima conoscenza di Python /pp- Conoscenza base di data warehousing (es. Amazon Redshift) /pp- Conoscenza di cloud platforms (AWS, Azure) /pp- Conoscenza di Databricks /pp- Buona conoscenza della lingua inglese /ppbr/ppbNice to Have (non mandatorio) /b /pp- Esperienza base con strumenti di data orchestration (es. Apache Kafka) /pp- Competenze di base nell’automazione delle pipeline di dati /ppbr/ppbr/ppbL’azienda offre: /b /pp- Contratto a tempo indeterminato /pp- CCNL Commercio /pp- Ticket da 7 € /pp- Possibilità di smart working (gestione a seconda delle esigenze aziendali) /ppbr/p pbSede di Lavoro /b: Milano, raggiungibile con i mezzi /ppbr/p pIl presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77, 125/91 ed in conformità alla UNI PdR 125:2022, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03. /ppbr/ppbEmail: /b /p