Società tecnologicamente all’avanguardia, specializzata nella ricerca e selezione di profili di Middle e Top Management in ambito nazionale e internazionale, è alla ricerca di un Data Engineer.
Il nostro Cliente è una delle principali web Company italiane. Con più di 1000 dipendenti, raggiunge oltre 10 milioni di utenti, in crescita costante, attraverso le proprie piattaforme web e punti fisici distribuiti in tutta Italia.
Obiettivo:
Inserito in un team altamente qualificato, ti occuperai dell'evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e contribuendo alla creazione di prodotti innovativi per milioni di italiani. Collaborando con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, supporterai le Business Unit (come Marketing, Servizi Finanziari, Assicurazioni) nelle analisi e nel machine learning.
Responsabilità:
1. Progettare e sviluppare data pipeline, sia in modalità batch che streaming.
2. Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps.
3. Definire e implementare l'orchestrazione dei processi in ambienti containerizzati.
4. Sviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali.
5. Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti dedicati.
6. Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform).
7. Modellare e trasformare i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business.
Requisiti:
* Laurea in Informatica, Ingegneria Informatica o campi affini.
* Da 1 a 3 anni di esperienza come Data Engineer o Software Engineer.
* Esperienza in ambienti cloud, preferibilmente Google Cloud Platform (GCP).
* Ottima conoscenza di Python (e/o Java, Scala).
* Solida padronanza di SQL, preferibilmente su BigQuery.
* Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam).
* Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub.
* Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes).
* Familiarità con sistemi di versionamento del codice (GIT).
* Capacità di problem solving, proattività e orientamento al miglioramento continuo.
Cosa offriamo:
* Ambiente meritocratico.
* Welfare aziendale tra i migliori.
* Formazione tech e giornate di contaminazione reciproca.
* Percorsi di crescita interni.
* Cultura aziendale positiva e attenzione al benessere delle persone.
* azienda solida, strutturata e in crescita.
Luogo di lavoro:
HQ Milano, con possibilità di lavoro full remote (con incontri periodici).
#J-18808-Ljbffr