Cerchiamo un Data Engineer Innovativo
Siamo alla ricerca di un esperto in data engineering che sia in grado di guidare l'evoluzione della nostra piattaforma dati centralizzata. Sei tu la persona giusta per questo ruolo?
Obiettivi del Ruolo
Il nostro obiettivo è quello di raccogliere e elaborare grandi quantità di dati, creando prodotti innovativi per milioni di italiani. Collaborerai con il team di Product Manager, Data Scientist, Data Analyst e altri Data Engineer per mettere a disposizione delle Business Unit (come Marketing, Servizi Finanziari, Assicurazioni) i dati necessari per le loro analisi e machine learning.
Responsabilità
* Progettazione e Sviluppo di Data Pipeline : progetti e sviluppa pipeline di dati in modalità batch e streaming
* Industrializzazione di Modelli Predittivi : collabora con i Data Scientist per industrializzare modelli predittivi applicando principi di MLOps
* Orchestrazione dei Processi : definisci e implementa l'orchestrazione dei processi in ambienti containerizzati
* Esposizione e Fruizione dei Dati : sviluppa microservizi per esporre e fruire dei dati da parte degli stakeholder aziendali
* Monitoraggio dei Cicli di Vita : monitora l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc
* Automatizzazione del Ciclo di Vita del Software : automatizza il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform)
* Modellazione e Trasformazione dei Dati : modella e trasforma i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business
Requisiti e Qualifiche
* Laurea in Informatica, Ingegneria Informatica o campi affini
* Esperienza in ruoli come Data Engineer o Software Engineer
* Esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP)
* Conoscenza di Python (e/o Java, Scala)
* Solida padronanza di SQL, preferibilmente su BigQuery
* Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)
* Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub
* Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)
* Familiarità con sistemi di versionamento del codice (GIT)
* Attitudine al problem solving, proattività e orientamento al miglioramento continuo
Benefici dell'Impiego
* Ambiente meritocratico
* Welfare Aziendale tra i migliori
* Formazione tech e giornate dedicate alla contaminazione reciproca
* Percorsi di crescita interni
* Cultura aziendale positiva e attenta al benessere delle persone
* Azienda solida, strutturata e in crescita
Altre Informazioni
Luogo di lavoro: Milano, con possibilità di lavorare full remote (con momenti di incontro)