Selection 4.0 società tecnologicamente all’avanguardia, specializzata nella ricerca e selezione di profili di Middle e Top Management in ambito nazionale e internazionale è alla ricerca di un
Il nostro Cliente è una delle principali web Company Italiane. Con piu' di 1000 dipendenti raggiunge piu' di 10MLN di utenti, in crescita costante, con le proprie piattaforme web e punti fisici sparsi in tutta Italia.
Inserito in un team decisamente skillato ti occuperai dell'evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e guidando la creazione di prodotti innovativi per milioni di italiani. Applicando le tue competenze tecniche e collaborando con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, metterai a disposizione di tutta l'organizzazione grandi quantità di dati supportando le Business Unit (come Marketing, Servizi Finanziari, Assicurazioni) che lavorano su analisi e machine learning.
Responsabilità :
* Progettare e sviluppare data pipeline, sia in modalità batch che streaming
* Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps
* Definire e implementare l'orchestrazione dei processi in ambienti containerizzati
* Sviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali
* Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc
* Automatizzare il ciclo di vita del software con soluzioni CI / CD e Infrastructure as Code (es. GitLab CI, Terraform)
* Modellare e trasformare i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business
* Laurea in Informatica, Ingegneria Informatica o campi affini
* 1–3 anni di esperienza in ruoli come Data Engineer o Software Engineer
* Esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP)
* Ottima conoscenza di Python (e / o Java, Scala)
* Solida padronanza di SQL, preferibilmente su BigQuery
* Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)
* Conoscenza di sistemi di messaggistica come Kafka o Google Pub / Sub
* Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)
* Familiarità con sistemi di versionamento del codice (GIT)
* Attitudine al problem solving, proattività e orientamento al miglioramento continuo
* Ambiente meritocratico ;
* Welfare Aziendale tra i migliori ;
* Formazione teche giornate dedicate alla contaminazione reciproca;
* Percorsi di crescita interni;
* cultura aziendale positiva e attenta al benessere delle persone;
* azienda solida,strutturata e in crescita.
Luogo di lavoro :
HQ Milano, Possibilità di lavorare full remote (con momenti di incontro)
Creare un avviso di lavoro per questa ricerca
Data Engineer • Pisa (PI), Provincia di Pisa, Italia
#J-18808-Ljbffr