REVO è una compagnia di assicurazione con circa 250 dipendenti, quotata sul mercato Euronext STAR Milan e attiva nei rami danni con particolare riguardo ai rischi speciali (specialty lines) e ai rischi parametrici, con un focus prevalente sul comparto delle PMI. In REVO tecnologia, esperienza e capacità di vedere possibilità dove gli altri vedono solo limiti sono le chiavi per portare l'assicurazione tradizionale nel futuro.
Come Junior DataOps Engineer verrai inserito all'interno del team di Data Engineering & Governance, in stretta collaborazione con il team di Data Science/AI & Analytics e con tutte le aree di business di REVO. Siamo un team competente e ambizioso, ricco di energia e voglia di innovare, dedicato a progettare e sviluppare la Data Platform proprietaria di REVO: un data lake ibrido, fully on-cloud, che viene utilizzato quotidianamente per supportare e automatizzare i processi operativi chiave, mettendo a disposizione della Compagnia dati di qualità e dotati di un chiaro contesto di business lungo tutto il loro ciclo di vita.
Aree di responsabilità
Sviluppare pipelines in SQL, Python e Spark per Data Platform (Kubernetes + Databricks).
Monitorare e garantire l'efficienza dei processi in esecuzione su Data Platform (Kubernetes + Databricks).
Partecipare alla progettazione del Data Model e della Data Platform.
Supportare gli utenti di Business nell'uso dei dati e nello sviluppo dei loro scripts.
Esperienze lavorative
Siamo alla ricerca di brillanti laureati discipline STEM con esperienza nell'uso di basi dati relazionali e no-SQL e nella progettazione, sviluppo ed esercizio di software back-end. Il candidato ideale possiede una discreta esperienza maturata nella creazione e sviluppo di pipeline complesse, preferibilmente on-cloud, ed è in grado di operare con elevata autonomia rapportandosi in maniera collaborativa sia all'interno del team di sviluppo, sia con i team di Artificial Intelligence, Data Science e Analytics.
Requisiti tecnici
Necessari:
Conoscenza di base del linguaggio SQL.
Conoscenza dei fondamenti di database relazionali: utilizzo, progettazione e sviluppo delle strutture dati (ad es. PostgreSQL, MS SQL, Oracle).
Conoscenza del linguaggio Python e delle principali librerie per ETL.
Conoscenza del sistema di versionamento Git.
Conoscenza di base di Apache Spark e dell'API PySpark.
Esperienza di base nello sviluppo software in modalità DataOps o DevOps e nello sviluppo di pipelines CI/CD.
Conoscenza di base di almeno un ambiente Cloud (ad es. AWS, GCP, Azure).
Preferenziali:
Conoscenza della piattaforma Databricks.
Esperienza nell'utilizzo di AWS Cloud e dei principali servizi annessi per lo sviluppo della pipeline dati (e.g. S3, Glue, Lambda, ECR, Athena, EC2).
Conoscenza di ambienti basati su tecnologia Docker.
Conoscenza di un linguaggio di sviluppo embedded su RDBMS (e.g. PL/SQL, PL/pgSQL).
esperienza nell'utilizzo di un sistema di orchestrazione di pipeline (ad es. Airflow, Prefect Cloud).
utilizzo di agenti AI per l'accelerazione dello sviluppo.
Caratteristiche personali
Spiccato spirito analitico.
Forte senso di responsabilità e capacità di organizzazione.
Approccio agile con elevata proattività, curiosità e apertura a nuovi approcci, tecnologie e strumenti.
Forte orientamento al risultato.
Ottima attitudine al problem solving.
Ottime capacità comunicative e relazionali.
Ottima capacità di lavorare efficacemente in team.
Il presente annuncio si rivolge a candidati di entrambi i sessi ai sensi della legge (L.****** e D.Lgs n. *******, art 27). L'interessato è invitato a inviare la propria candidatura rilasciando specifico consenso al trattamento dei dati personali, ai sensi della nuova Normativa Europea sulla Privacy, conforme agli artt. 13 e 14 del GDPR (Regolamento (UE), 27 aprile ****, n. ********).