PSiamo alla ricerca di unb Data Engineer Freelance /bche supporterà la progettazione, lo sviluppo e la manutenzione di architetture e pipeline di dati robuste e scalabili per il prodotto di un'azienda cliente attiva nella gestione di pagamenti verso la pubblica amministrazione. /ppbr/ppSarà cruciale per razionalizzare i modelli dati, garantire la consistenza e la qualità delle informazioni attraverso l'implementazione di sistemi di data lineage e data quality, e gestire tabelle su diversi sistemi, inclusi il data lake e l'infrastruttura AWS /ppbr/ppbAttività /b /pulliProgettare e sviluppare bpipeline di data ingestion /b e trasformazione per integrare /lilidati provenienti da diverse fonti nel data lake. /liliCollaborare con i Data Analyst e i team di sviluppo per definire e implementare /lilibmodelli dati consistenti e razionalizzati /b a supporto delle metriche e delle /lilifunzionalità core del prodotto. /liliGestire e manutenere btabelle e schemi dati /b su piattaforme diverse (es. sistemi /lilibasati su AWS come S3, DynamoDB, e Data Lake/Warehouse). /liliImplementare sistemi di bData Lineage /b per tracciare il flusso dei dati e garantire la /lililoro provenienza e trasformazione. /liliSviluppare e applicare bcontrolli di Data Quality /b automatizzati per assicurare /lilil'affidabilità dei dati utilizzati per l'analisi e il monitoraggio. /liliOttimizzare le performance delle query e delle pipeline di elaborazione dati. /liliLavorare a stretto contatto con i team DevOps per il bdeploy e l'orchestrazione /b delle /lilipipeline dati. /li /ulpbr/ppbr/ppbRequisiti richiesti /b /pulliEsperienza consolidata nel ruolo di bData Engineer /b o ruolo simile. /liliOttima padronanza di bSQL /b e esperienza con sistemi di database NoSQL (es. /liliDynamoDB). /liliCompetenza nello sviluppo di soluzioni di data processing utilizzando bpyspark e/o python. /b /liliEsperienza nella progettazione e implementazione di bpipeline ETL/ELT /b e nella modellazione dei dati (Dimensional Modeling, Data Vault, etc.). /liliForte conoscenza di bAWS /b e dei servizi rilevanti per i dati (es. S3, Glue, EMR, Athena, Redshift, Kinesis/MSK). /liliFamiliarità con i concetti e l'implementazione di bData Lineage e Data Quality /b. /liliEsperienza con strumenti di orchestrazione di workflow (es. Apache Airflow). /liliBuona conoscenza dell'barchitettura data-lake /b e dei principi di Data Governance. /liliCapacità di problem solving e approccio orientato alla scalabilità e all'affidabilità del sistema. /liliConoscenza fluente della lingua Italiana /li /ulpbr/ppbSeniority: /b4+ /ppbModalità di lavoro: /b remoto /ppbInizio: /bDicembre 2025/Gennaio 2026 /ppbDurata ingaggio: /b 6 mesi con possibile estensione /ppbr/ppbProcesso di selezione: /b /ppIl nostro processo di selezione prevede 2 fasi: /pulliColloquio conoscitivo con il nostro team HR /liliColloquio con il cliente e il team di lavoro /li /ulpbr/ppbCome inviare la tua candidatura: /b /ppVia LinkedIn o inviando il tuo cv all’indirizzo /p