Lavoro
I miei annunci
Le mie notifiche
Accedi
Trovare un lavoro Consigli per cercare lavoro Schede aziende Descrizione del lavoro
Cerca

Data engineer

Agap2 Italia
Pubblicato il 4 dicembre
Descrizione

PulliPosti di lavoro per Data engineer in milan /li /ul pAkkodis è un'azienda leader che opera nel settore della consulenza e dei servizi tecnologici. È specializzata in soluzioni di ingegneria, IT e digitalizzazione, offrendo supporto a diverse industrie, tra cui automotive, aerospaziale, energia, life sciences e telecomunicazioni. Akkodis si concentra sull'innovazione e sulla trasformazione digitale, aiutando le aziende a ottimizzare i loro processi e a implementare nuove tecnologie. /p pCon la passione per la tecnologia e il talento, il gruppo, composto da più di 40.000 ingegneri ed esperti digitali e con un fatturato di €4bn, offre una profonda esperienza intersettoriale in 28 paesi tra Nord America, EMEA e APAC. /p pAkkodis vanta un’esperienza quarantennale e un forte know-how in settori tecnologici chiave come la mobilità, i servizi software e tecnologici, la robotica, i test, la sicurezza dei dati, l'intelligenza artificiale e l'analisi dei dati. /p pLa divisione IT di Akkodis è dedicata all'ICT e alla Digital Transformation, composta da oltre 200 consulenti altamente specializzati presenti su scala nazionale. Offriamo una vasta gamma di servizi, unendo talento e tecnologia per ottimizzare i processi IT e promuovere l'innovazione. Tra i nostri servizi principali troviamo Digital Transformation, Cloud Technologies e Data Strategy, che comprendono attività come ad esempio Software Engineering, Migrazione al Cloud, Data Governance, Artificial Intelligence, etc. /p pNell’ottica di un potenziamento della divisione, ricerchiamo una figura di: /p pEntra a far parte della nostra divisione Digital, un gruppo di 200 consulenti che operano in Italia, specializzati nel settore bICT /b e nella bDigital Transformation /b. La nostra forza risiede nell'integrazione delle nostre competenze, che ci consente di avere una visione a 360° delle esigenze tecnologiche e innovative delle aziende. /p pbQuale sarà il tuo contributo in Akkodis? /b /p pAll'interno nella nostra Divisione Digital, sarai coinvolto/a in un progetto in ambito Digital. /p pIl candidato ideale avrà la responsabilità di progettare, sviluppare e mantenere pipeline di integrazione dati end-to-end (ETL/ELT). Il candidato lavorerà su ingestion, trasformazione e caricamento dati in data warehouse/data lake, collaborando con team di Analytics, Data Science e prodotto. Sarà responsabile di garantire qualità, affidabilità e scalabilità delle pipeline, nonché di seguire best practice di data governance e CI/CD. /p pTi occuperai di: /p ul liPogettare, costruire e mantenere pipeline ETL/ELT robuste ed efficienti per ingestion, trasformazione e caricamento dati. /li liSviluppare trasformazioni dati robuste utilizzando Python e SQL, includendo data cleaning, enrichment e validation. /li liImplementare orchestrazione di workflow con Apache Airflow (DAG, task, sensori, SLA, gestione errori) e monitorare l’esecuzione delle pipeline. /li liGestire integrazione con database relazionali (es. PostgreSQL) e data warehousing, modellando dati e ottimizzando query/indici. /li liCollaborare con Analytics, Data Science e prodotto per tradurre requisiti di business in soluzioni tecniche robuste e scalabili. /li liApplicare pratiche di CI/CD per pipeline di dati (versioning, test, deployment automatizzato). /li liMonitorare le pipeline, gestire incidenti, log e remediation. /li /ul pRequisiti per iniziare il tuo percorso di crescita: /p ul liLaurea in Informatica, Ingegneria, Data Science o campo affine (o esperienza equivalente). /li liEsperienza 3–5 anni come Data Engineer o ETL Developer. /li liCompetenze solide in Python per pipeline ETL/ELT e trasformazioni dati. /li liEsperienza pratica con Apache Airflow (DAG, operatori, SLA, gestione errori). /li liEsperienza con PostgreSQL (SQL avanzato, ottimizzazione, indici, partizioni). /li liConoscenza di containerizzazione e deployment (Docker; Kubernetes è preferibile ma non obbligatorio). /li liBuona conoscenza di Git e principi di CI/CD. /li liOttime capacità analitiche e problem-solving, unite a una forte attitudine al lavoro di squadra e alla comunicazione interpersonale. /li /ul pContratto a tempo indeterminato /p pCosa troverai in Akkodis? /p ul libUn percorso di carriera /bstrutturato e personalizzato, con possibilità di crescita verticale e trasversale /li liTi supporteremo grazie ai nostri bpiani di formazione /b, ad una bperformance review annuale /b, ad un baffiancamento /bnelle fasi iniziali di ingresso, unitamente a bfollow-up /b con bfigure Manageriali e HR Business Partner /b /li liAvrai a disposizione una bPiattaforma di Corporate Benefits /b /li liItalian (Fluent) /li /ul pHays Solutions, società del gruppo multinazionale Hays, quotata al London Stock Exchange, offre servizi di consulenza mirati all’individuazione, alla comprensione e al raggiungimento degli obiettivi concreti di un progetto di business in ambito IT, Engineering o Digital. /p pSiamo alla ricerca di un Data engineer da inserire nel nostro team. /p pResponsabilità principali: /p ul liProgettare e sviluppare pipeline ETL/ELT su Azure Data Factory e Databricks. /li liImplementare soluzioni di data processing ad alte prestazioni utilizzando PySpark. /li liGestire e ottimizzare data lake e data warehouse su Azure (es. Azure Data Lake, Synapse). /li liCollaborare con Data Scientist e Business Analyst per garantire la disponibilità dei dati. /li liMonitorare e migliorare le performance delle pipeline dati. /li liAssicurare la conformità alle best practice di data governance, sicurezza e qualità dei dati. /li liLaurea in Informatica, Ingegneria o discipline affini. /li liEsperienza comprovata nello sviluppo di soluzioni dati su Azure (Data Factory, Data Lake, Synapse). /li liOttima conoscenza di PySpark per il processamento distribuito di grandi volumi di dati. /li liEsperienza pratica con Databricks per la gestione e l’orchestrazione di pipeline dati. /li liConoscenza di linguaggi di programmazione come Python e SQL. /li liFamiliarità con metodologie DevOps e strumenti di CI/CD. /li liCapacità di lavorare in team multidisciplinari e di comunicare efficacemente con stakeholder tecnici e non tecnici. /li /ul pModalità di lavoro: Ibrido, Milano /p pSe sei interessato a questa opportunità, clicca su "Candidarsi ora". Se questa opportunità non è in linea con le tue aspettative, ma sei alla ricerca di un nuovo lavoro, visita il nostro sito Internet per scoprirne di nuove. I candidati di ambo i sessi, dopo aver visionato l'informativa obbligatoria sulla privacy sul sito sono pregati di inviare il proprio CV. Hays Solutions S.r.l. con Socio unico. Soggetta a direzione e coordinamento da parte di Hays Plc. /p pOggi /p h3Descrizione Del Lavoro /h3 pPer primaria realtà bData Driven Transformation Consulting Company /b, Grafton è alla ricerca di un bData Engineer /b. /p pSedi applicabili: Milano/Bologna /p pModalità di lavoro: 2 giorni di presenza a settimana /p pbCore Business /b: servizi di Advisory quali la realizzazione di Data Strategy, attività di implementazione con il design e la realizzazione di soluzioni di Business Analytics, Big Data Platform Artificial Intelligence. /p pll candidato/a ideale ha esperienza nell'utilizzo della piattaforma Snowflake come Data Warehouse/Data Platform. Ha implementato almeno uno scenario cliente di media-alta complessità utilizzando bSnowflake /b in contesti produttivi (es: migrazione da contesto on-prem, implementazione Data Mesh/Data Product, ecc.), guidando le scelte tecniche end-to-end. /p pLa figura dovrà rappresentare un riferimento tecnico per il cliente e per il team, consigliando attivamente le best practice, guidando nelle scelte architetturali critiche e supportando risorse junior nei task operati. Dovrà inoltre supportare il PM nella valutazione dell’effort in termini di tempi, costi, rischi e fattibilità. /p ul liAlmeno 3 anni di esperienza nella bgestione e modellazione di dati /b in ambito consulenziale. /li libSnowflake /b: Conoscenza approfondita come Data Warehouse/Data Platform. /li liCompetenza approfondita in database SQL e tecnologie di data warehouse. /li liConoscenza dell'architettura a tre livelli. /li liEsperienza nella progettazione di pipeline di ingestione dati, utilizzando External Volumes, diversi file format (CSV, JSON, Parquet, Apache Iceberg), External Locations, COPY INTO, Snowpipe e, se applicabile, il framework OpenFlow. /li liProgettazione e implementazione di Ruoli, RBAC; configurazione di Resource Monitors, Network Policies, Integrazione SSO/OAuth; gestione della sicurezza dei dati con Dynamic Data Masking, Row Access Policies, Tagging e Object dependencies; e implementazione di Secure Data Sharing tra account/organizzazioni. /li liProgettare e implementare l'integrazione di Snowflake con strumenti esterni per ETL/ELT e Orchestrazione (es. Informatica Cloud Data Integration, Airflow, Fivetran), BI e Analytics (es. Power BI, Tableau). /li liMassima flessibilità operativa (previsti 3 giorni di smart working a settimana) /li /ul pbGrafton è il brand globale che si occupa di Professional Recruitment di Gi Group Holding, la prima multinazionale italiana del lavoro e una tra le principali realtà che offrono servizi e consulenza HR a livello globale. /b /p pbL’offerta si intende rivolta a candidati ambosessi, nel rispetto del D.Lgs. n. 198/2006 e ss.mm.ii. e dei Decreti Legislativi n. 215 e n. 216 del 2003 sulle parità di trattamento. /b /p pbI candidati sono invitati a leggere l’informativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 al seguente indirizzo (Aut. Min. del 15/04/2014 Prot. N: 39/4903) /b /p pbLocation: /bMilan /p p20121 milan, Presinaci Randstad Digital Italia /p pOggi /p h3Descrizione Del Lavoro /h3 ul liFluent English /li /ul pInformazioni sulle ultime novità Data engineer Posti di lavoro;/Posti Vacantinella Italia ! /p pImposta avviso e-mail: /p pInserisci il tuo indirizzo email /p ptitolo di lavoro /p pPosizione /p pOggi /p h3Descrizione Del Lavoro /h3 pbBLUVACANZE SpA /b, leader nella distribuzione turistica e parte di bMSC Cruises /b (Mediterranean Shipping Company), è alla ricerca di un/unab Senior Data Engineer /b, a supporto del proprio dipartimento IT. /p ul libSviluppo e mantenimento delle pipeline di dati /b: Progettare, costruire e mantenere pipeline di dati efficienti e scalabili in ambiente Cloud Azure. Garantire l'acquisizione, la trasformazione e il caricamento dei dati da diverse fonti (batch e real-time). /li libSupporto alla data architecture /b: Collaborare con il Senior Data Architect nella definizione e implementazione dell'architettura dati, garantendo che le soluzioni tecniche rispettino i requisiti di scalabilità, sicurezza ed efficienza. /li libIntegrazione di sistemi e dati /b: Gestire l'integrazione di dati da vari sistemi e fonti, inclusi database relazionali e non relazionali, strumenti di Data Visualization e Business Intelligence, e API esterne. /li libGestione del ciclo di vita dei dati /b: Assicurare la qualità e l'integrità dei dati attraverso processi di cleansing, anonimizzazione/crypting/masking, aggregazione e strutturazione dei dati. Supportare la creazione di dataset per modelli di Machine Learning. /li libOttimizzazione delle performance /b: Monitorare e ottimizzare le prestazioni delle pipeline di dati e delle soluzioni di storage, identificando e risolvendo colli di bottiglia e problemi di prestazioni. /li libCollaborazione interfunzionale /b: Lavorare a stretto contatto con team interfunzionali, inclusi sviluppatori, analisti di dati e stakeholder aziendali, per comprendere le esigenze dei dati e tradurle in soluzioni tecniche efficaci. /li libInnovazione e miglioramento continuo /b: Mantenere aggiornate le conoscenze sulle tecnologie emergenti e le migliori pratiche nel campo dell'ingegneria dei dati. Proporre e implementare miglioramenti continui alle infrastrutture e ai processi esistenti. /li /ul pbEssenziali /b /p ul liLaurea in Informatica, Ingegneria Informatica, Sistemi Informativi o campi correlati. Certificazioni professionali nel campo del cloud computing e dell'ingegneria dei dati sono considerate un plus. /li libDa 3 a 5 anni di esperienza /b in ruoli di Data Engineering, con competenze dimostrate nella progettazione e implementazione di pipeline di dati in ambiente cloud. /li liEsperienza comprovata con Cloud Azure, database MS SQL, e una solida comprensione delle architetture di dati basate su cloud. /li liCapacità avanzate nell'integrazione di dati complessi e nella gestione di API. /li liConoscenza della metodologia DevOps e delle pratiche di governance dei servizi Cloud. /li liCertificazioni in "Data Engineering on Microsoft Azure" o competenze equivalenti. Esperienza con API Cloud di AI dei principali cloud provider (Microsoft, AWS, Google) è un plus. /li liContratto da lavoratore dipendente, ai sensi del CCNL Federturismo, con retribuzione commisurata all'effettiva expertise. /li liAccesso a benefit aziendali e di gruppo: Ticket Restaurant, scontistiche riservate per i viaggi, accesso privilegiato a convenzioni interne circa una vasta gamma di servizi (sport, salute, moda, e molto altro). /li /ul pREVO è una compagnia di assicurazione con circa 250 dipendenti, quotata sul mercato Euronext STAR Milan e attiva nei rami danni con particolare riguardo ai rischi speciali (specialty lines) e ai rischi parametrici, con un focus prevalente sul comparto delle PMI. In REVO tecnologia, esperienza e capacità di vedere possibilità dove gli altri vedono solo limiti sono le chiavi per portare l’assicurazione tradizionale nel futuro. /p pCome Junior DataOps Engineer verrai inserito all’interno del team di Data Engineering Governance, in stretta collaborazione con il team di Data Science/AI Analytics e con tutte le aree di business di REVO. Siamo un team competente e ambizioso, ricco di energia e voglia di innovare, dedicato a progettare e sviluppare la Data Platform proprietaria di REVO: un data lake ibrido, fully on-cloud, che viene utilizzato quotidianamente per supportare e automatizzare i processi operativi chiave, mettendo a disposizione della Compagnia dati di qualità e dotati di un chiaro contesto di business lungo tutto il loro ciclo di vita. /p pbAree di responsabilità /b /p ul liMonitorare e garantire l’efficienza dei processi in esecuzione su Data Platform (Kubernetes + Databricks). /li liPartecipare alla progettazione del Data Model e della Data Platform. /li liSupportare gli utenti di Business nell’uso dei dati e nello sviluppo dei loro scripts. /li /ul pbEsperienze lavorative /b /p pSiamo alla ricerca di brillanti laureati discipline STEM con esperienza nell’uso di basi dati relazionali e no-SQL e nella progettazione, sviluppo ed esercizio di software back-end. Il candidato ideale possiede una discreta esperienza maturata nella creazione e sviluppo di pipeline complesse, preferibilmente on-cloud, ed è in grado di operare con elevata autonomia rapportandosi in maniera collaborativa sia all’interno del team di sviluppo, sia con i team di Artificial Intelligence, Data Science e Analytics. /p ul liConoscenza di base del linguaggio SQL. /li liConoscenza dei fondamenti di database relazionali: utilizzo, progettazione e sviluppo delle strutture dati (ad es. PostgreSQL, MS SQL, Oracle). /li liConoscenza del linguaggio Python e delle principali librerie per ETL. /li liConoscenza del sistema di versionamento Git. /li liConoscenza di base di Apache Spark e dell’API PySpark. /li liEsperienza di base nello sviluppo software in modalità DataOps o DevOps e nello sviluppo di pipelines CI/CD. /li liConoscenza di base di almeno un ambiente Cloud (ad es. AWS, GCP, Azure). /li /ul pPreferenziali: /p ul liConoscenza della piattaforma Databricks. /li liEsperienza nell’utilizzo di AWS Cloud e dei principali servizi annessi per lo sviluppo della pipeline dati (e.g. S3, Glue, Lambda, ECR, Athena, EC2). /li liConoscenza di ambienti basati su tecnologia Docker. /li liConoscenza di un linguaggio di sviluppo embedded su RDBMS (e.g. PL/SQL, PL/pgSQL). /li liesperienza nell’utilizzo di un sistema di orchestrazione di pipeline (ad es. Airflow, Prefect Cloud). /li liutilizzo di agenti AI per l’accelerazione dello sviluppo. /li /ul pbCaratteristiche personali /b /p ul liSpiccato spirito analitico. /li liForte senso di responsabilità e capacità di organizzazione. /li liApproccio dinamico con elevata proattività, curiosità e apertura a nuovi approcci, tecnologie e strumenti. /li liForte orientamento al risultato. /li liOttime capacità comunicative e relazionali. /li liOttima capacità di lavorare efficacemente in team. /li /ul pIl presente annuncio si rivolge a candidati di entrambi i sessi ai sensi della legge (L.903/77 e D.Lgs n. 98/2006, art 27). L'interessato è invitato a inviare la propria candidatura rilasciando specifico consenso al trattamento dei dati personali, ai sensi della nuova Normativa Europea sulla Privacy, conforme agli artt. 13 e 14 del GDPR (Regolamento (UE), 27 aprile 2016, n. 2016/679). /p pAGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy. /p pPresente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo brafforzando e ampliando /b il nostro team con persone che condividano gli stessi valori della nostra società: AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale leb relazioni umane /bsono sempre al primo posto. /p pbDescrizione del ruolo: /b /p pPer un'importante realtà, leader nel settore IT, siamo alla ricerca di un/una bData Engineer. /b /p pLa risorsa sarà coinvolta nella bprogettazione, sviluppo e ottimizzazione /b di pipeline di bdata ingestion, trasformazione e modellazione /b, assicurando qualità, efficienza e scalabilità delle soluzioni. /p pbResponsabilità principali: /b /p ul liImplementazione di bdata pipeline /bsu Databricks e Azure /li liTrasformazione e modellazione dati con bPySpark /b /li liCollaborazione con i team di progetto per comprendere i requisiti di business e tradurli in soluzioni dati /li liManutenzione e ottimizzazione di processi ETL/ELT in ambienti cloud /li liMonitoraggio della qualità e consistenza dei dati /li liSupporto a iniziative di bData Science e AI /b, garantendo un’infrastruttura dati robusta /li liEsperienza comprovata in bDatabricks /b /li liOttima padronanza di bPySpark /bper la gestione e manipolazione dei dati /li liConoscenza approfondita della bpiattaforma Azure /b(Data Lake, Data Factory, Azure Synapse, ecc.) /li liOpportunità di lavorare su progetti innovativi in un settore in continua evoluzione; /li liAmbiente di lavoro stimolante e dinamico, bformazione continua /b; /li liRetribuzione commisurata all’esperienza e pacchetto benefit aziendali. /li /ul pAGAP2 è un equal opportunities employer: crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo da cui? ... /p /p #J-18808-Ljbffr

Rispondere all'offerta
Crea una notifica
Notifica attivata
Salvato
Salva
Offerta simile
Direttore di farmacia - agap2 italia (bardi)
Bardi
agap2 Italia
Offerte simili
Home > Lavoro > Data Engineer

Jobijoba

  • Consigli per il lavoro
  • Recensioni Aziende

Trova degli annunci

  • Annunci per professione
  • Annunci per settore
  • Annunci per azienda
  • Annunci per località

Contatti/Partnerships

  • Contatti
  • Pubblicate le vostre offerte su Jobijoba

Note legali - Condizioni generali d'utilizzo - Politica della Privacy - Gestisci i miei cookie - Accessibilità: Non conforme

© 2025 Jobijoba - Tutti i diritti riservati

Rispondere all'offerta
Crea una notifica
Notifica attivata
Salvato
Salva