Data Scientist dei Dati
I candidati ideali saranno in grado di progettare e sviluppare pipeline dati, sia in modalità batch che streaming. Inoltre, collaboreranno con i data scientist per industrializzare modelli predittivi, applicando principi di MLOps.
Si occuperanno anche dell'orchestrazione dei processi in ambienti containerizzati, sviluppando microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali.
Tra le responsabilità vi sono anche la monitorazione dell'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc e l'automatizzazione del ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code.
Inoltre, modelleranno e trasformeranno i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business.
Requisiti:
* Laurea in Informatica, Ingegneria Informatica o campi affini
* 1-3 anni di esperienza in ruoli come Data Engineer o Software Engineer
* Esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP)
* Ottima conoscenza di Python (e/o Java, Scala)
* Solidad padronanza di SQL, preferibilmente su BigQuery
* Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)
* Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub
* Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)
* Familiarità con sistemi di versionamento del codice (GIT)
* Attitudine al problem solving, proattività e orientamento al miglioramento continuo