CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.
Stiamo costruendo una
Self-Serve Data Platform enterprise
ispirata ai principi della
Data Mesh architecture
. Il nostro modello prevede:
* Data Owner
(domain experts e business owner) responsabili dei propri dati.
* Ogni dominio definisce autonomamente i propri
Data Product
: struttura, semantica, politiche di accesso.
* Il nostro team realizza la
piattaforma tecnologica
che abilita questa autonomia: infrastruttura cloud-native, data engineering, streaming, orchestrazione, governance e tooling self-service.
Il tuo ruolo
Sarai il
punto di riferimento tecnico
per l'architettura e l'implementazione della
self-serve data platform
: il layer abilitante che consente ai data owner di creare e gestire i loro data product in autonomia. Collaborerai con stakeholder business e tecnici per tradurre requisiti in soluzioni scalabili, sicure e innovative.
Se provieni da architetture tradizionali (es. DWH) e vuoi affrontare le sfide delle moderne piattaforme dati, questa è la tua opportunità
Responsabilità
* Guidare l'architettura
della data platform e dei microservizi: definizione ecosistema, integrazione, scalabilità, sicurezza.
* Sviluppare capabilities self-service
: API, SDK e framework per abilitare la creazione autonoma di data product.
* Progettare automazioni end-to-end
: pipeline CI/CD, processi di deployment, monitoraggio e governance.
* Definire standard e best practice
: linee guida, template riusabili, coding standards.
* Technical leadership e mentoring
: supporto al team, code review, knowledge sharing.
* Collaborare con stakeholder
: traduzione requisiti, contributo alla roadmap strategica.
* Monitorare e ottimizzare la piattaforma
: performance, affidabilità, cost optimization, strumenti di osservabilità.
Requisiti Essenziali
* 5+ anni
nello sviluppo backend e architetture complesse in contesti enterprise.
* Esperienza con
.NET Core
o
Java/Spring Boot
per API e microservizi.
* Competenze su
microservizi, containerizzazione e orchestrazione
(Docker, Kubernetes).
* Esperienza con
cloud provider
(Azure, AWS, GCP) e infrastrutture distribuite.
* Padronanza di
CI/CD, DevOps, automazione
e strumenti di osservabilità.
* Esperienza con
IaC
(Terraform).
* Conoscenza di orchestratori (Airflow, Dagster, Prefect).
* API REST, OpenAPI, JSON Schema.
* Conoscenza di
TDD
.
Nice to Have
* Background in
data engineering
e data platform moderne.
* Esperienza con
ETL/ELT
, CDC, data quality.
* Conoscenza di
data streaming
(Kafka, Flink).
* Familiarità con
Databricks, Apache Iceberg, Delta Lake
.
* Familiarità con
AI e automazione
(RAG pipelines, LLM integration).
* Certificazioni:
Databricks
,
AWS/Azure/GCP
,
Confluent Kafka
.
Sede:
Napoli