Lenis Srl è una società di Consulenza Informatica e Sviluppo Software che supporta lo sviluppo dei propri clienti nelle aree dell’innovazione.
Descrizione del ruolo
Stiamo cercando un* Data Engineer altamente qualificat* e motivat* per unirsi al nostro team e contribuire alla progettazione, implementazione e gestione di soluzioni dati scalabili basate su AWS e Databricks. La risorsa lavorerà a stretto contatto con team internazionali, supportando iniziative di data engineering e modernizzazione delle piattaforme dati.
Responsabilità principali
* Progettare, sviluppare e mantenere pipeline dati scalabili e ad alte prestazioni su AWS e/o Databricks.
* Sviluppare job di elaborazione dati utilizzando Apache Spark (PySpark/Scala) e framework cloud-native.
* Gestire e ottimizzare Data Lakehouse basati su Delta Lake, Unity Catalog, e cluster Databricks.
* Modellare architetture dati efficienti (Star Schema, Inmon, Data Vault) per supportare Data Warehouse e Analytics.
* Collaborare con Data Analyst, Data Scientist e stakeholder internazionali per comprendere i requisiti e tradurli in soluzioni tecniche.
* Garantire sicurezza, governance e qualità dei dati tramite best practice su IAM, catalogazione, versioning e monitoraggio.
* Ottimizzare costi, performance e affidabilità delle piattaforme dati.
Requisiti Essenziali
* Almeno 2 anni di esperienza recente nello sviluppo e gestione di soluzioni dati in ambienti AWS e/o Databricks.
* Ottima conoscenza dei servizi chiave AWS: S3, Lambda, Glue, EC2, VPC, IAM.
* Profonda padronanza di Apache Spark (PySpark o Scala) e della piattaforma Databricks (Delta Lake, Unity Catalog, gestione cluster).
* Ottima competenza in SQL e Python (o Scala).
* Solida comprensione dei principali modelli di data modeling: Star Schema, Inmon, Data Vault.
* Ottima conoscenza della lingua inglese, sia scritta che parlata.
Requisiti Preferenziali (Nice to Have)
* Certificazioni AWS (es. AWS Certified Data Analytics – Specialty, Solutions Architect Associate)
* e/o Certificazioni Databricks (es. Data Engineer Associate/Professional).
* Esperienza con strumenti di orchestrazione workflow: Apache Airflow, AWS Step Functions.
* Conoscenza di tecnologie di streaming come Kafka o Kinesis.
* Familiarità con servizi AWS avanzati per l’analisi dati (es. Athena, SageMaker).
Cosa Offriamo
* Opportunità di lavorare su progetti innovativi e ad alto impatto.
* Collaborazione con team internazionali in un contesto dinamico e in crescita.
* Contratto a tempo indeterminato con RAL commisurata all'esperienza
La ricerca è rivolta ad entrambi i sessi ex L. 903/77. Inviare curriculum vitae dettagliato e consenso al trattamento dei dati personali. I candidati sono invitati a leggere l’informativa sulla privacy (art. 13 D.Lgs. 196/2003)