Pubblicato il 14 giugno
Descrizione
Lavoriamo nel settore tecnologico ed innovativo e cerchiamo una persona con esperienza in Data Engineering per sviluppare le nostre piattaforme dati centralizzate. Che cosa dobbiamo cercare?
* Una laurea in Informatica, Ingegneria Informatica o campi affini;
* 1-3 anni di esperienza in ruoli come Data Engineer o Software Engineer;
* Ottima conoscenza di Python (e/o Java, Scala);
* Solidissima padronanza di SQL, preferibilmente su BigQuery;
* Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam);
* Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub;
* Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes);
* Familiarità con sistemi di versionamento del codice (GIT);
* Attitudine al problem solving, proattività e orientamento al miglioramento continuo.
In cambio offriamo:
* Ambiente meritocratico;
* Formazione tech e giornate dedicate alla contaminazione reciproca;
* Percorsi di crescita interni;
* Cultura aziendale positiva e attenta al benessere delle persone;
* Azienda solida, strutturata e in crescita.
L'impiego sarà situato a Milano oppure full remote con momenti di incontro. Tra le mansioni ci sono:
* Progettare e sviluppare data pipeline, sia in modalità batch che streaming;
* Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps;
* Definire e implementare l'orchestrazione dei processi in ambienti containerizzati;
* Sviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali;
* Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc;
* Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform);
* Modellare e trasformare i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business.