Stiamo cercando un/una Data Engineer esperto/a e motivato/a con un forte background nell'ecosistema Hadoop e una comprovata esperienza con Java Spring Boot (API Rest & Batches) e Oracle DB.
Il/la candidato/a ideale avrà almeno 3 anni di esperienza pratica nell'ingegneria dei dati e una passione per la progettazione, la costruzione e la manutenzione di applicazioni complesse e robuste.
L'esperienza nel settore finanziario è un plus, in quanto aiuterà a comprendere meglio le esigenze dei clienti e il dominio funzionale dell'applicazione.
Responsabilità chiave
* Competenza nell'ecosistema Hadoop
* Progettare, implementare e ottimizzare pipeline di dati e flussi di lavoro sfruttando strumenti e tecnologie dell'ecosistema Hadoop, tra cui: HDFS, YARN, Spark, HBase, Impala, HIVE
Esperienza Java per API e processi batch
* Costruire e distribuire API RESTful utilizzando Java Spring Boot per facilitare l'integrazione dei dati e l'interoperabilità tra i sistemi.
* Progettare e mantenere processi batch utilizzando Java, garantendo l'esecuzione efficiente dei flussi di lavoro dei dati e della logica aziendale.
* Implementare soluzioni robuste per la gestione degli errori, la registrazione e il monitoraggio.
Gestione dei database
* Mantenere e ottimizzare soluzioni di database relazionali utilizzando Oracle DB.
* Scrivere query SQL e Spark SQL complesse ed efficienti per garantire prestazioni ottimali del database.
Ottimizzazione delle prestazioni e risoluzione dei problemi
* Monitorare, risolvere i problemi e migliorare le prestazioni dei processi.
* Garantire l'integrità, la qualità e la sicurezza dei dati.
Collaborazione e supporto
* Partecipare attivamente alle pratiche Agile, tra cui stand-up e retrospettive quotidiane, per garantire il raggiungimento efficiente degli obiettivi del progetto.
* Partecipare alle revisioni del codice, alle discussioni sul design e alla collaborazione del team per mantenere standard elevati.
Qualifiche richieste
* Competenza nei framework di calcolo distribuito e nell'elaborazione dei dati su scala.
* Esperienza con pipeline ETL e modellazione dei dati.
* Solida conoscenza della gestione dei cluster, della risoluzione dei problemi dei big data e dello sviluppo di API con Java Spring.
* Forti capacità analitiche e di risoluzione dei problemi con attenzione ai dettagli.
Se ti rivedi nel profilo descritto, fai application e noi daremo spazio al tuo talento!
Hai qualche domanda? Non ti ritrovi in questo profilo ma vuoi comunque un confronto con noi? Contattaci alla mail careeritaly@gft.com
Chi siamo?
GFT Technologies SE (GFT) fondata nel 1987, è oggi rappresentata da un team globale di circa 12.000 dipendenti in Europa, Nord e Sud America e Asia. Siamo costantemente impegnati a guidare la trasformazione digitale nel settore dei servizi finanziari, forniamo consulenza alle principali istituzioni finanziarie a livello mondiale e sviluppiamo soluzioni IT su misura – dalle applicazioni bancarie e sistemi di trading fino all’implementazione e al supporto di piattaforme complete, e modernization di sistemi core banking. Il nostro innovation team, che opera a livello globale, sviluppa, inoltre, nuovi modelli di business, focalizzandosi su temi quali blockchain, cloud engineering, intelligenza artificiale e Internet of Things, transversalmente in tutti i settori.
In GFT potrai lavorare da remoto 5/5. Per informazioni sulle nostre policy sulla Privacyart13 L.679/2016 (GDPR), Diversity Equality & Inclusion, e Sostenibilitàvai su:https://www.gft.com/it/it/about-us/Sustainability. GFT Technologies garantisce le pari opportunità nel percorso di selezione, assunzione e nei processi di crescita professionale.
#J-18808-Ljbffr