Cerved è la tech company italiana che, grazie a segnali predittivi unici e a un patrimonio esclusivo di dati e analytics, supporta la crescita sostenibile, la gestione del rischio e la trasformazione digitale di imprese e istituzioni.
Con Cerved Rating Agency, elaboriamo valutazioni sul merito di credito, rating ESG e analisi sulle emissioni di debito.
Dal 2021 Cerved è parte di ION Group, uno dei più grandi operatori FinTech internazionali.
In un contesto in costante evoluzione normativa e tecnologica, stiamo cercando un/a Data Architect da inserire nell’area Data Management.
Il/la candidato/a sarà parte attiva nella (progettazione e governo dell’architettura dati aziendale, contribuendo alla costruzione di una piattaforma dati moderna, scalabile e orientata al dato come asset strategico).
Le principali responsabilità:
1. Progettare e mantenere l’architettura della piattaforma dati (Data Lake, Data Warehouse, Lakehouse) su AWS e Databricks
2. Definire standard, best practice e linee guida architetturali per la gestione e la governance del dato (data modeling, data lineage, data quality, data catalog);
3. Disegnare e supervisionare pipeline di ingestione, trasformazione e distribuzione dei dati utilizzando Apache Spark, Databricks e servizi AWS
4. Guidare la scelta delle tecnologie e dei pattern architetturali (batch, streaming, lambda/kappa architecture, medallion architecture) in base ai requisiti di business;
5. Sviluppare componenti e prototipi in Java e Python per validare soluzioni architetturali e accelerare l’adozione di nuovi pattern
6. Collaborare con i team di Data Engineering, Data Science, BI e Product per garantire coerenza architetturale e qualità dei dati end-to-end;
7. Presidiare aspetti di sicurezza, compliance e data governance (GDPR, controllo degli accessi, cifratura, auditing) all’interno della piattaforma dati;
8. Valutare e introdurre nuove tecnologie e framework del panorama dati (Apache Iceberg, Delta Lake, dbt, Apache Kafka, Flink) in ottica di miglioramento continuo;
9. Collaborare con i team di Data Science e AI/ML per progettare infrastrutture dati a supporto di modelli di Machine Learning e soluzioni di Intelligenza Artificiale Generativa (Feature Store, model serving, RAG pipeline, LLMOps);
10. Supportare l’adozione di servizi AWS AI/ML garantendo la disponibilità e la qualità dei dati necessari all’addestramento e all’inferenza dei modelli.
I requisiti:
11. Esperienza di almeno 3-5 anni in ambito architettura dati, data engineering o ruoli analoghi;
12. Laurea in Informatica, Ingegneria Informatica, Matematica o discipline affini; certificazioni AWS (es. AWS Solutions Architect, AWS Data Analytics) o Databricks sono considerate un plus
13. Solida conoscenza di Apache Spark e Databricks (Spark SQL, Structured Streaming, Delta Lake, Unity Catalog);
14. Competenze avanzate in Python e/o Java per lo sviluppo di pipeline dati e componenti di integrazione;
15. Esperienza concreta con i principali servizi AWS per i dati: S3, Glue, Athena, Redshift, EMR, Kinesis, Lake Formation, Step Functions, IAM;
16. Conoscenza approfondita dei paradigmi di data modeling (relazionale, dimensionale, Data Vault) e dei formati di storage columnar (Parquet, ORC, Iceberg, Delta);
17. Familiarità con strumenti di orchestrazione (Apache Airflow, Databricks Workflows) e di trasformazione dati (dbt);
18. Conoscenza dei principi di data governance, data quality e metadata management; gradita esperienza con soluzioni di data catalog (es. Apache Atlas, AWS Glue Data Catalog, Databricks Unity Catalog);
19. Comprensione delle architetture streaming (Apache Kafka, Kinesis Data Streams) e dei relativi pattern di integrazione
20. Capacità di lavorare in ambienti Agile/DevOps; conoscenza di IaC (Terraform, CloudFormation) e CI/CD per pipeline dati costituisce un plus;
21. Ottime capacità comunicative e relazionali, con attitudine al problem solving, alla collaborazione cross-funzionale e alla condivisione della conoscenza tecnica;
22. Conoscenza dei principali paradigmi e tecnologie di AI/ML applicati ai dati: MLflow, SageMaker, Databricks MLflow/AutoML, Vector Database (es. Pinecone, OpenSearch, pgvector) e architetture per Generative AI (RAG, embedding pipeline, LLM fine-tuning);
23. Familiarità con il ciclo di vita end-to-end dei modelli ML (MLOps/LLMOps): versionamento dei dati e dei modelli, feature engineering, monitoraggio del modello in produzione e data drift detection.
💻 Modalità di lavoro:ibrida, con ampia possibilità di smart working.
📍 Sede di lavoro:Milano,Padova,Roma oMangone(CS)
#LI-Hybrid
Cerved Group garantisce (ai sensi del D.Lgs 198/2006, D.Lgs.215/2003 e D.Lgs.216/2003) pari opportunità di accesso al lavoro a tutt* i/le candidat* e si impegna a favorire il rispetto delle diversità e l’inclusione sul posto di lavoro.