CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.
Stiamo costruendo una
Self-Serve Data Platform enterprise
ispirata ai principi della
Data Mesh architecture. Il nostro modello prevede:
Data Owner
(domain experts e business owner) responsabili dei propri dati. Ogni dominio definisce autonomamente i propri
Data Product : struttura, semantica, politiche di accesso. Il nostro team realizza la
piattaforma tecnologica
che abilita questa autonomia: infrastruttura cloud-native, data engineering, streaming, orchestrazione, governance e tooling self-service.
Il tuo ruolo Sarai il
punto di riferimento tecnico
per l’architettura e l’implementazione della
self-serve data platform : il layer abilitante che consente ai data owner di creare e gestire i loro data product in autonomia. Collaborerai con stakeholder business e tecnici per tradurre requisiti in soluzioni scalabili, sicure e innovative. Se provieni da architetture tradizionali (es. DWH) e vuoi affrontare le sfide delle moderne piattaforme dati, questa è la tua opportunità!
Responsabilità Guidare l’architettura
della data platform e dei microservizi: definizione ecosistema, integrazione, scalabilità, sicurezza. Sviluppare capabilities self-service : API, SDK e framework per abilitare la creazione autonoma di data product. Progettare automazioni end-to-end : pipeline CI/CD, processi di deployment, monitoraggio e governance. Definire standard e best practice : linee guida, template riusabili, coding standards. Technical leadership e mentoring : supporto al team, code review, knowledge sharing. Collaborare con stakeholder : traduzione requisiti, contributo alla roadmap strategica. Monitorare e ottimizzare la piattaforma : performance, affidabilità, cost optimization, strumenti di osservabilità.
Requisiti Essenziali 5+ anni
nello sviluppo backend e architetture complesse in contesti enterprise. Esperienza con
.NET Core
o
Java/Spring Boot
per API e microservizi. Competenze su
microservizi, containerizzazione e orchestrazione
(Docker, Kubernetes). Esperienza con
cloud provider
(Azure, AWS, GCP) e infrastrutture distribuite. Padronanza di
CI/CD, DevOps, automazione
e strumenti di osservabilità. Esperienza con
IaC
(Terraform). Conoscenza di orchestratori (Airflow, Dagster, Prefect). API REST, OpenAPI, JSON Schema. Conoscenza di
TDD .
Nice to Have Background in
data engineering
e data platform moderne. Esperienza con
ETL/ELT, CDC, data quality. Conoscenza di
data streaming
(Kafka, Flink). Familiarità con
Databricks, Apache Iceberg, Delta Lake. Familiarità con
AI e automazione
(RAG pipelines, LLM integration). Certificazioni:
Databricks ,
AWS/Azure/GCP ,
Confluent Kafka .
Sede:
Napoli