 
        AizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale ricerca un / una Data Engineer.Il / La candidato / a verrà inserito / a nell'area IT della divisione di mercato Transportation ed opererà per un notevole cliente in ambito mobilità sostenibile.Parteciperà a progetti complessi di integrazione dati su AWS, lavorerà su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati.In particolare si occuperà di:• Progettare e implementare pipeline ETL per l'integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda.• Creare soluzioni di migrazione dei dati utilizzando AWS DMS, Debezium e altri strumenti di change data capture per consentire la sincronizzazione continua dei dati tra microservizi e sistemi esterni.• Progettare soluzioni di data lake su S3, strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge.• Gestire l'evoluzione degli schemi e le sfide relative alla qualità dei dati, risolvendo le incongruenze dei tipi di dati tra sistemi NoSQL e SQL.PROFILO- Laurea in materie tecnico/scientifiche.- Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions).- Ottima conoscenza della lingua inglese, minimo B2.COMPETENZE TECNICHE- Esperienza pratica con con strumenti di migrazione dati e CDC, tra cui AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione del database.- Esperienza nell'elaborazione di dati in batch e streaming con Apache Spark (Scala/Python), PySpark e architetture di pipeline di dati distribuite.- Ottime competenze di database che includono SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server).- Competenza nell'architettura dei microservizi e nei modelli di integrazione API, tra cui API REST, limitazione della velocità, meccanismi di ripetizione e tolleranza agli errori.- Esperienza con formati di dati e gestione degli schemi, tra cui Parquet, JSON, evoluzione degli schemi e convalida della qualità dei dati.- Competenza nella programmazione in Python per l'elaborazione dei dati, lo scripting e l'integrazione con AWS SDK.Nice to have:- Esperienza di Infrastructure as Code (IaC) con Terraform o CloudFormation per la distribuzione automatizzata di pipeline di dati- Esperienza di governance e monitoraggio dei dati con CloudWatch, metriche personalizzate, tracciamento della discendenza dei dati e sistemi di avviso.- Gestione di pipeline CI/CD per la distribuzione e il test automatizzati di soluzioni di data engineering.- Pratiche DevOps ed esperienza con tecnologie di containerizzazione e orchestrazione.INFORMAZIONI AGGIUNTIVESono previste saltuarie e brevi trasferte presso il cliente a Torino.The job search refers to candidates of both genders