Immobiliare.It S.P.A. è un gruppo italiano composto da società specializzate in servizi Digital Tech per la compravendita e l'affitto di immobili, rivolti a privati, professionisti del real estate, istituti bancari e operatori del settore finanziario.
Fondata nel 2005 Immobiliare.It, il portale immobiliare N.1 in Italia, ha ampliato la propria offerta con portali specializzati come Trovacasa.It, MioAffitto e LuxuryEstate.Com, dedicato agli immobili di lusso.
Immobiliare.It Insights, la proptech della società, offre servizi digitali di advisory, insights e data diligence a banche, investitori e valutatori. Riferimento in Italia nel settore dei mutui, il gruppo comprende Immobiliare.It Mutui, specializzato nella mediazione creditizia a distanza, Euroansa con una rete di oltre 800 mediatori creditizi sul territorio e Genio Diligence, azienda focalizzata sul credit risk e sulla prevenzione delle frodi per mediatori e istituzioni finanziarie. Il gruppo è inoltre presente sui mercati esteri in Spagna (Pisos.Com, Indomio.Es e Enalquiler.Com), Grecia (Spitogatos.Gr, Indomio.Gr), Slovenia (Nekretnine.Net) e Croazia (Crozilla.Com e Indomio.Hr).
Immobiliare Labs è il dipartimento tecnologico di immobiliare.It, composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source. Negli ultimi venti anni anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.
Team:
Data Platforms è il team che progetta e sviluppa la piattaforma dati del gruppo. Forniamo le tecnologie necessarie a rendere i dati accessibili, affidabili e di valore per diverse funzioni aziendali e a supporto di prodotti e decisioni data-driven.
Ruolo: Data Engineer
Come Data Engineer del team, sarai coinvolto nello sviluppo di pipeline, flussi di elaborazione e strumenti che abilitano l'utilizzo dei dati a supporto di prodotti e decisioni data-driven. In particolare, svolgerai attività quali:
* sviluppare e mantenere pipeline di ingestion ed elaborazione dati in ambiente batch e streaming, garantendo scalabilità e affidabilità;
* collaborare coni team aziendali per rendere i dati accessibili e di qualità;
* partecipare alla definizione e all'evoluzione dell'architettura dati basata su lakehouse e modello a medaglione;
* contribuire al miglioramento continuo delle pratiche di data engineering, testing e aspetti di data quality e governance.
Requisiti:
* conoscenza di Python e/o Java/Spring e dei principali design pattern;
* conoscenza di Spark;
* conoscenza basedi Airflow;
* conoscenza di database relazionali (es. MySQL) e query sui dati;
* conoscenza di GIT.
Requisiti preferenziali:
* conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Flink;
* conoscenza di open table format come Iceberg e Hudi;
* conoscenza di database documentali (es. MongoDB);
* conoscenza Docker;
* familiarità congli strumenti cloud (aws, google cloud) per la gestione dei dati.
Luogo di lavoro:
Roma, Termini/Full remote
Cosa Offriamo:
* Team di lavoro in continua espansione
* Ambiente stimolante e meritocratico
* Sviluppo tecnologico allo stato dell'arte
* Opportunità di apprendimento
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.