Ecco alcune delle tue responsabilità:
* Progettare e sviluppare pipeline di dati, sia in modalità batch che streaming;
* Collaborare con i data scientist per industrializzare modelli predittivi, applicando principi di MLOps;
* Definire e implementare l'orchestrazione dei processi in ambienti containerizzati;
* Sviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali;
* Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc;
* Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform);
Ecco invece alcuni dei nostri requisiti:
* Laurea in Informatica, Ingegneria Informatica o campi affini;
* 1-3 anni di esperienza in ruoli come Data Engineer o Software Engineer;
* Esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP);
* Ottima conoscenza di Python (e/o Java, Scala);
* Solida padronanza di SQL, preferibilmente su BigQuery;