Azienda italiana specializzata nella gestione dei diritti d’autore musicali e nella raccolta delle royalty.
Hanno rivoluzionato la raccolta dei diritti musicali portando trasparenza e innovazione.
Oggi rappresentiamo oltre 48.000 autori, compositori ed editori in tutto il mondo, incluse centinaia di leggende della musica, hitmaker contemporanei e autori multi-platino, garantendo un’efficiente amministrazione dei diritti in oltre 90 nazioni.
Sviluppano soluzioni tecnologiche per monitorare, raccogliere e massimizzare le royalty in maniera semplice, trasparente e veloce.
Stiamo cercando un Data Engineer da inserire nel team tech di Roma.
Contribuirai ad evolvere la piattaforma dati, il cuore pulsante dell'azienda.
Lavorerai a stretto contatto con il CTO su processi dati critici, con reale responsabilità su affidabilità e correttezza delle pipeline core di business.
Principali mansioni
• Data pipeline: progetterai ed implementerai pipeline di ogni genere (migrazioni, backfill, sync sorgenti dati, trasformazioni, …);
• Data quality: progetterai e svilupperai test d'integrità/qualità dei dati, insieme ai relativi KPI di monitoraggio;
• Automation: contribuirai ad automatizzare e ottimizzare i processi interni di gestione dei
dati;
• Core components: contribuirai allo sviluppo dei moduli core di distribuzione delle royalty.
• Ottime capacità di data modeling sia in ambito transazionale che analitico;
• Ottime capacità di modellazione concettuale;
• Data Engineering solido: progettazione e gestione di pipeline ETL/ELT in puro Python/SQL o con l’ausilio di orchestratori (es. Airflow);
• Database relazionali: ottima conoscenza di MySQL/PostgreSQL, query avanzate, performance tuning;
• Python per data processing (Pandas, SQLAlchemy, Pydantic, …);
• Esperienza nella gestione di grandi volumi di dati in process critici (affidabilità, idempotenza, retry, controllo errori);
• Linux: utilizzo quotidiano da riga di comando (processi, filesystem, permessi, log, debugging operativo);
• Versioning e qualità del codice: GIT, code review, logging strutturato, test;
• Buona conoscenza dell’inglese scritto e parlato;
• Affidabilità e autonomia.
Nice to have
• Cloud (AWS): uso pratico e reale di S3, RDS/Aurora, SNS, SQS;
• Tecnologie NoSQL: esperienza pratica con almeno uno tra Redis, MongoDB ed Elastic Cloud;
• Esperienza nell’implementazione di job asincroni, batch processing o event consumers.
• RAL: da € 40.000 a € 50.000, in base alla seniority del candidato;
• Modalità di lavoro ibrida: 2 giorni da remoto + 3 giorni in presenza;
• Sede: Roma (vicino Piazza Barberini);
• Buoni pasto;
• Ambiente informale e meritocratico.