AizoOn, società di tecnologia e consulenza, indipendente, operante a livello globale, ricerca un / a Data Engineer.
Il/La candidato/a verrà inserito/a nell’area IT della divisione Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.
Parteciperà a progetti complessi di integrazione dati su AWS, lavorando su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati basate su eventi, con focus sull’integrazione tra sistemi eterogenei.
Attività previste
* Progettare e implementare pipeline ETL per l’integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda
* Creare soluzioni di migrazione dati e CDC utilizzando AWS DMS, Debezium e strumenti di Change Data Capture per la sincronizzazione continua dei dati tra microservizi e sistemi esterni
* Progettare soluzioni di data lake su S3, definendo strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge
* Sviluppare integrazioni dati a bassa latenza per la sincronizzazione CRM su più ecosistemi di microservizi
* Gestire l’evoluzione degli schemi e le problematiche legate alla qualità dei dati, risolvendo incongruenze tra sistemi NoSQL e SQL
PROFILO
* Laurea in discipline tecnico-scientifiche
* Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)
* Buona conoscenza della lingua inglese scritta, parlata e compresa (minimo B2)
COMPETENZE TECNICHE
* Buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)
* Esperienza con strumenti di migrazione dati e CDC (AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione)
* Esperienza nell’elaborazione dati batch e streaming con Apache Spark (Scala/Python), PySpark e architetture distribuite
* Competenze su database: SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server)
* Conoscenza dell’architettura a microservizi e modelli di integrazione API (REST, gestione errori, retry, rate limiting)
* Esperienza con formati dati e gestione schemi (Parquet, JSON, evoluzione schemi, data quality)
* Programmazione in Python per data processing, scripting e integrazione con AWS SDK
Nice to have
* Esperienza in Infrastructure as Code (Terraform o CloudFormation)
* Esperienza con stream processing (Apache Kafka, AWS Kinesis, architetture event-driven)
* Esperienza in data governance e monitoring (CloudWatch, metriche custom, data lineage, alerting)
* Gestione pipeline CI/CD per deployment e testing
* Esperienza DevOps e tecnologie di containerizzazione/orchestrazione
Sede di lavoro
Full remote working con saltuaria presenza presso il cliente a Torino
The job search refers to candidates of both genders