Selection 4.0 società tecnologicamente all’avanguardia, specializzata nella ricerca e selezione di profili di Middle e Top Management in ambito nazionale e internazionale è alla ricerca di un*:DATA ENGINEERIl nostro Cliente è una delle principali web Company Italiane. Con piu' di 1000 dipendenti raggiunge piu' di 10MLN di utenti, in crescita costante, con le proprie piattaforme web e punti fisici sparsi in tutta Italia. Obiettivo :Inserito in un team decisamente skillato ti occuperai dell'evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e guidando la creazione di prodotti innovativi per milioni di italiani. Applicando le tue competenze tecniche e collaborando con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, metterai a disposizione di tutta l'organizzazione grandi quantità di dati supportando le Business Unit (come Marketing, Servizi Finanziari, Assicurazioni) che lavorano su analisi e machine learning.Responsabilità:Progettare e sviluppare data pipeline, sia in modalità batch che streamingCollaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOpsDefinire e implementare l'orchestrazione dei processi in ambienti containerizzatiSviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendaliMonitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hocAutomatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform)Modellare e trasformare i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di businessRequisiti: Laurea in Informatica, Ingegneria Informatica o campi affini1–3 anni di esperienza in ruoli come Data Engineer o Software EngineerEsperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP)Ottima conoscenza di Python (e/o Java, Scala)Solida padronanza di SQL, preferibilmente su BigQueryEsperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)Conoscenza di sistemi di messaggistica come Kafka o Google Pub/SubEsperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)Familiarità con sistemi di versionamento del codice (GIT)Attitudine al problem solving, proattività e orientamento al miglioramento continuoCosa offriamo:Ambiente meritocratico ;Welfare Aziendale tra i migliori ;Formazione tech e giornate dedicate alla contaminazione reciproca;Percorsi di crescita interni;cultura aziendale positiva e attenta al benessere delle persone;azienda solida, strutturata e in crescita.Luogo di lavoro: HQ Milano, Possibilità di lavorare full remote (con momenti di incontro)