Immobiliare.It S.P.A.
è un gruppo italiano composto da società specializzate in servizi Digital Tech per la compravendita e l'affitto di immobili, rivolti a privati, professionisti del real estate, istituti bancari e operatori del settore finanziario.
Fondata nel **** Immobiliare.It, il portale immobiliare N.1 in Italia, ha ampliato la propria offerta con portali specializzati come Trovacasa.It, MioAffitto e LuxuryEstate.Com, dedicato agli immobili di lusso.
Immobiliare.It Insights, la proptech della società, offre servizi digitali di advisory, insights e data diligence a banche, investitori e valutatori.
Riferimento in Italia nel settore dei mutui, il gruppo comprende Immobiliare.It Mutui, specializzato nella mediazione creditizia a distanza, Euroansa con una rete di oltre 800 mediatori creditizi sul territorio e Genio Diligence, azienda focalizzata sul credit risk e sulla prevenzione delle frodi per mediatori e istituzioni finanziarie.
Il gruppo è inoltre presente sui mercati esteri in Spagna (Pisos.Com, Indomio.Es e Enalquiler.Com), Grecia (Spitogatos.Gr, Indomio.Gr), Slovenia (Nekretnine.Net) e Croazia (Crozilla.Com e Indomio.Hr).
Immobiliare Labs
è il dipartimento tecnologico di immobiliare.It, composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source.
Negli ultimi venti anni anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.
Team:
Data Platforms è il team che progetta e sviluppa la piattaforma dati del gruppo.
Forniamo le tecnologie necessarie a rendere i dati accessibili, affidabili e di valore per diverse funzioni aziendali e a supporto di prodotti e decisioni data-driven.
Ruolo: Data Engineer
Come Data Engineer del team, sarai coinvolto nello sviluppo di pipeline, flussi di elaborazione e strumenti che abilitano l'utilizzo dei dati a supporto di prodotti e decisioni data-driven.
In particolare, svolgerai attività quali:
sviluppare e mantenere pipeline di ingestion ed elaborazione dati in contesto batch e streaming, garantendo scalabilità e affidabilità;
collaborare coni team aziendali per rendere i dati accessibili e di qualità;
partecipare alla definizione e all'evoluzione dell'architettura dati basata su lakehouse e modello a medaglione;
contribuire al miglioramento continuo delle pratiche di data engineering, testing e aspetti di data quality e governance.
Requisiti:
conoscenza di Python e/o Java/Spring e dei principali design pattern;
conoscenza di Spark;
conoscenza basedi Airflow;
conoscenza di database relazionali (es. MySQL) e query sui dati;
conoscenza di GIT.
Requisiti preferenziali:
conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Flink;
conoscenza di open table format come Iceberg e Hudi;
conoscenza di database documentali (es. MongoDB);
conoscenza Docker;
familiarità congli strumenti cloud (aws, google cloud) per la gestione dei dati.
Luogo di lavoro:
Roma, Termini/Full remote
Cosa Offriamo:
Team di lavoro in continua espansione
Ambiente stimolante e meritocratico
Sviluppo tecnologico allo stato dell'arte
Opportunità di apprendimento
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi ****** e ******, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi ****** e ******.