Si cerca un Data Engineer che si occupi dell'evoluzione della piattaforma dati centralizzata. La persona ideale dovrebbe avere esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP). Inoltre, dovrebbe conoscere Python e/o Java, Scala, SQL, Apache Spark, Apache Beam, Kafka o Google Pub/Sub e Docker.
Il candidato selezionato lavorerà in un team decisamente skillato e sarà responsabile per la progettazione e lo sviluppo di pipeline di dati, sia in modalità batch che streaming. Inoltre, dovrà collaborare con i Data Scientist per industrializzare modelli predittivi applicando principi di MLOps.
Le responsabilità includono:
* Progettare e sviluppare data pipeline
* Collaborare con i Data Scientist
* Definire e implementare l'orchestrazione dei processi
* Sviluppare microservizi per l'esposizione e la fruizione dei dati
* Monitorare l'intero ciclo di vita dei processi
In cambio, verranno offerti un ambiente meritocratico, welfare aziendale tra i migliori, formazione tech e percorsi di crescita interni.