Cerved è la tech company italiana che, grazie a segnali predittivi unici e a un patrimonio esclusivo di dati e analytics, supporta la crescita sostenibile, la gestione del rischio e la trasformazione digitale di imprese e istituzioni.Con Cerved Rating Agency, elaboriamo valutazioni sul merito di credito, rating ESG e analisi sulle emissioni di debito.Dal 2021 Cerved è parte di ION Group, uno dei più grandi operatori FinTech internazionali.In un contesto in costante evoluzione normativa e tecnologica, stiamo cercando un/a Data Architect da inserire nell’area Data Management.Il/la candidato/a sarà parte attiva nella (progettazione e governo dell’architettura dati aziendale, contribuendo alla costruzione di una piattaforma dati moderna, scalabile e orientata al dato come asset strategico).Le principali responsabilità:* Progettare e mantenere l’**architettura della piattaforma dati** (Data Lake, Data Warehouse, Lakehouse) su AWS e Databricks* Definire standard, best practice e linee guida architetturali per la gestione e la governance del dato (data modeling, data lineage, data quality, data catalog);* Disegnare e supervisionare pipeline di ingestione, trasformazione e distribuzione dei dati utilizzando **Apache Spark**, **Databricks** e **servizi AWS*** Guidare la scelta delle tecnologie e dei pattern architetturali (batch, streaming, lambda/kappa architecture, medallion architecture) in base ai requisiti di business;* Sviluppare componenti e prototipi in **Java** e **Python** per validare soluzioni architetturali e accelerare l’adozione di nuovi pattern* Collaborare con i team di Data Engineering, Data Science, BI e Product per garantire coerenza architetturale e qualità dei dati end-to-end;* **Presidiare aspetti di sicurezza**, compliance e data governance (GDPR, controllo degli accessi, cifratura, auditing) all’interno della piattaforma dati;* Valutare e introdurre nuove tecnologie e framework del panorama dati (Apache Iceberg, Delta Lake, dbt, Apache Kafka, Flink) in ottica di miglioramento continuo;* Collaborare con i team di Data Science e AI/ML per progettare infrastrutture dati a supporto di **modelli di Machine Learning** e soluzioni di **Intelligenza Artificiale Generativa** (Feature Store, model serving, RAG pipeline, LLMOps);* Supportare l’adozione di servizi AWS AI/ML garantendo la disponibilità e la qualità dei dati necessari all’addestramento e all’inferenza dei modelli.I requisiti:* Esperienza di almeno 3-5 anni in ambito architettura dati, data engineering o ruoli analoghi;* Laurea in Informatica, Ingegneria Informatica, Matematica o discipline affini; certificazioni AWS (es. AWS Solutions Architect, AWS Data Analytics) o Databricks sono considerate un plus* Solida conoscenza di **Apache Spark** e **Databricks** (Spark SQL, Structured Streaming, Delta Lake, Unity Catalog);* Competenze avanzate in Python e/o Java per lo sviluppo di pipeline dati e componenti di integrazione;* Esperienza concreta con i **principali servizi AWS** per i dati: S3, Glue, Athena, Redshift, EMR, Kinesis, Lake Formation, Step Functions, IAM;* Conoscenza approfondita dei paradigmi di **data modeling** (relazionale, dimensionale, Data Vault) e dei formati di storage columnar (Parquet, ORC, Iceberg, Delta);* Familiarità con **strumenti di orchestrazione** (Apache Airflow, Databricks Workflows) e di trasformazione dati (dbt);* Conoscenza dei principi di **data governance**, data quality e metadata management; gradita esperienza con soluzioni di data catalog (es. Apache Atlas, AWS Glue Data Catalog, Databricks Unity Catalog);* Comprensione delle architetture streaming (Apache Kafka, Kinesis Data Streams) e dei relativi pattern di integrazione* Capacità di lavorare in ambienti **Agile/DevOps**; conoscenza di IaC (Terraform, CloudFormation) e CI/CD per pipeline dati costituisce un plus;* Ottime capacità comunicative e relazionali, con attitudine al problem solving, alla collaborazione cross-funzionale e alla condivisione della conoscenza tecnica;* Conoscenza dei principali paradigmi e **tecnologie di AI/ML applicati ai dati**: MLflow, SageMaker, Databricks MLflow/AutoML, Vector Database (es. Pinecone, OpenSearch, pgvector) e architetture per Generative AI (RAG, embedding pipeline, LLM fine-tuning);* Familiarità con il ciclo di vita end-to-end dei **modelli ML** (MLOps/LLMOps): versionamento dei dati e dei modelli, feature engineering, monitoraggio del modello in produzione e data drift detection.** Modalità di lavoro:** ibrida, con ampia possibilità di smart working.** Sede di lavoro:** Milano, Padova, Roma o Mangone (CS)#LI-Hybrid*Cerved Group garantisce (ai sensi del D.Lgs 198/2006, D.Lgs.215/2003 e D.Lgs.216/2003) pari opportunità di accesso al lavoro a tutt\* i/le candidat\* e si impegna a favorire il rispetto delle diversità e l’inclusione sul posto di lavoro.*
#J-18808-Ljbffr