AizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale ricerca un / una Data Engineer.
Il / La candidato / a verrà inserito / a nell'area IT della divisione di mercato Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.
Parteciperà a progetti complessi di integrazione dati su AWS, lavorerà su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati.
In particolare si occuperà di:
• Progettare e implementare pipeline ETL per l'integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda.
• Creare soluzioni di migrazione dei dati utilizzando AWS DMS, Debezium e altri strumenti di change data capture per consentire la sincronizzazione continua dei dati tra microservizi e sistemi esterni.
• Progettare soluzioni di data lake su S3, strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge.
• Gestire l'evoluzione degli schemi e le sfide relative alla qualità dei dati, risolvendo le incongruenze dei tipi di dati tra sistemi NoSQL e SQL.
PROFILO
* Laurea in materie tecnico/scientifiche.
* Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions).
* Ottima conoscenza della lingua inglese, minimo B2.
COMPETENZE TECNICHE
* Esperienza pratica con con strumenti di migrazione dati e CDC, tra cui AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione del database.
* Esperienza nell'elaborazione di dati in batch e streaming con Apache Spark (Scala/Python), PySpark e architetture di pipeline di dati distribuite.
* Ottime competenze di database che includono SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server).
* Competenza nell'architettura dei microservizi e nei modelli di integrazione API, tra cui API REST, limitazione della velocità, meccanismi di ripetizione e tolleranza agli errori.
* Esperienza con formati di dati e gestione degli schemi, tra cui Parquet, JSON, evoluzione degli schemi e convalida della qualità dei dati.
* Competenza nella programmazione in Python per l'elaborazione dei dati, lo scripting e l'integrazione con AWS SDK.
Nice to have:
* Esperienza di Infrastructure as Code (IaC) con Terraform o CloudFormation per la distribuzione automatizzata di pipeline di dati
* Esperienza di governance e monitoraggio dei dati con CloudWatch, metriche personalizzate, tracciamento della discendenza dei dati e sistemi di avviso.
* Gestione di pipeline CI/CD per la distribuzione e il test automatizzati di soluzioni di data engineering.
* Pratiche DevOps ed esperienza con tecnologie di containerizzazione e orchestrazione.
INFORMAZIONI AGGIUNTIVE
Sono previste saltuarie e brevi trasferte presso il cliente a Torino.
The job search refers to candidates of both genders