Cerchiamo un Data Engineer per integrare il nostro team di esperti tecnologici ed aiutare a sviluppare soluzioni innovative per i nostri clienti.
Descrizione del ruolo:
Il candidato ideale sarà responsabile dell'evoluzione della piattaforma dati centralizzata, raccogliendo e elaborando grandi quantità di dati per supportare le Business Unit (come Marketing, Servizi Finanziari, Assicurazioni) che lavorano su analisi e machine learning.
Svilupperai data pipeline sia in modalità batch che streaming, collaborerai con i Data Scientist per industrializzare modelli predittivi e applicherai principi di MLOps. Definirai e implementerai l'orchestrazione dei processi in ambienti containerizzati e svilupperai microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali.
Responsabilità:
* Progettare e sviluppare data pipeline, sia in modalità batch che streaming
* Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps
* Definire e implementare l'orchestrazione dei processi in ambienti containerizzati
* Sviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali
* Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc
* Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform)
* Modellare e trasformare i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business
Per questo ruolo cerchiamo candidati con esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP). L'ideale sarebbe avere una solida padronanza di SQL, preferibilmente su BigQuery, e conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub. La possibilità di lavorare in un ambiente meritocratico, con un welfare aziendale tra i migliori e percorsi di crescita interni, renderà il tuo lavoro ancora più appassionante.