S2E è un'azienda italiana di consulenza in ambito Business Technology, all'avanguardia nell'innovazione tecnologica nei settori Fintech, Insurtech e Cybertech. Con oltre 400 collaboratori, sede principale a Milano e uffici a Roma, Lecce, Lussemburgo, riprogetta, personalizza e sviluppa soluzioni digitali per il business delle imprese che operano in particolare nei settori finance, telecom, retail, energy and oil, industry.
S2E è un'azienda attenta alle pari occasione. Celebriamo la diversità e ci impegniamo a creare un ambiente inclusivo per tutti i dipendenti.
Siamo alla ricerca di un/una DevOps Engineer con solida esperienza su Databricks per entrare a far parte del nostro team Data & Analytics. La figura sarà responsabile della gestione, dell'ottimizzazione e dell'automazione dell'intera piattaforma dati basata su Databricks, collaborando strettamente con i team di data engineering e data science.
Responsabilità:
Gestione e ottimizzazione dell'infrastruttura Databricks (workspace, cluster, job, Unity Catalog)
Progettazione e mantenimento di pipeline CI/CD per il deploy automatizzato di notebook, job e workflow Databricks
Integrazione di Databricks con servizi cloud (Azure Data Factory, AWS Glue, GCP Dataproc) e strumenti di orchestrazione
Implementazione e gestione di MLflow per il tracking degli esperimenti e il deploy di modelli ML in produzione
Monitoraggio delle performance dei job Spark e ottimizzazione dei costi cloud
Definizione di standard DevOps, best practice e documentazione tecnica
Supporto al team nella risoluzione di problemi infrastrutturali e nella migrazione di workload
Collaborazione con il team presales per la definizione di architetture e stime di effort
Competenze richieste:
3–5 anni di esperienza in ruoli DevOps o Data Engineering
Esperienza comprovata con Databricks: cluster management, job scheduling, Databricks Asset Bundles o dbx
Conoscenza approfondita di Apache Spark (tuning, ottimizzazione query, gestione risorse)
Esperienza con pipeline CI/CD: GitLab CI o GitHub Actions applicati a progetti dati/Databricks
Buona conoscenza di almeno uno dei principali cloud provider: Azure (preferito), AWS o GCP
Esperienza con MLflow: experiment tracking, model registry, deployment
Familiarità con Infrastructure as Code (Terraform o Pulumi)
Conoscenza di Python a livello script/automazione
Gradite
Certificazione Databricks (Certified Associate Developer o superiore)
Esperienza con Delta Lake e Lakehouse architecture
Conoscenza di strumenti di orchestrazione (Apache Airflow, Prefect, Dagster)
Esperienza con container (Docker, Kubernetes)
Familiarità con strumenti di monitoring (Datadog, Grafana, Elastic)
Esperienza in contesti di consulenza o progetti multi-cliente
COSA SIGNIFICA FAR PARTE DEL TEAM S2E
Lasciare il segno!
Farai parte di un team
collaborativo
e
intraprendente
Crescere professionalmente
perché seguiamo un processo continuo di scouting tecnologico e di miglioramento individuale ed un continuo
training on the job
Work-life balance
: Diamo valore agli obiettivi raggiunti e ci impegniamo per creare un ambiente di lavoro
sereno
Essere
proattivi
ed orientati al
problem solving
COSA TROVERAI IN S2E
Team di lavoro
friendly, open-minded e collaborativi
Progetti in crescita,
innovativi
e
sfidanti
su tutti gli ambiti applicativi
Scouting di nuove tecnologie
IL TUO RAPPORTO DI LAVORO CON S2E
Disponibilità a collaborare in
regime di Partita IVA
.
Formazione hard e soft skills
online
Flessibilità oraria
, in base alle esigenze di progetto e/o di servizio
SEDE DI LAVORO
Full Remote