Solvhealth (Solv)\nè un’azienda americana fondata nel 2016, con sede a San Francisco, California. Solv sviluppa una piattaforma online di prenotazione e gestione di appuntamenti per pazienti.
\n
At SolvHealth, we believe everyone deserves to be free from the stress of everyday healthcare. That’s why it’s our mission to make care more convenient by increasing access and connection. Being sick or injured is painful.
\n
Getting better shouldn’t be. At Solv, we’re building a mobile-first digital health marketplace that enables convenient, quality healthcare for millions of people. As part of our growing team, you’ll play a critical role in reshaping what consumers can expect from healthcare and how providers interact with patients daily.
\n
It’s work that matters.
\n
Il Ruolo
\nSarai il responsabile dell’intersezione tra affidabilità della pipeline dati, qualità della modellazione e performance del database. Questo ruolo si trova al punto di incontro tra il team Data & Analytics e il team di Platform Engineering — ed esiste perché abbiamo bisogno di qualcuno che sappia tenere insieme entrambi i lati. Qualcuno che capisce perché un modello dbt è lento e sa risolverlo a livello di warehouse, non solo a livello SQL.\n
In pratica, sarai il responsabile EU-timezone della nostra pipeline analytics quotidiana: la persona che mantiene dbt funzionante e in salute, che conosce Aurora e Redshift abbastanza in profondità da ottimizzare i modelli dati e prevenire il degrado delle performance del warehouse. È un ruolo concreto, da chi ama stare nel merito: lavorerai nel terminale, nell’editor SQL, direttamente sui sistemi — non nelle presentazioni.
\n
Modello di Lavoro
\nLavori con orari italiani. La collaborazione con il team US avviene prevalentemente in modalità asincrona — il team è in Pacific Time, quindi la sovrapposizione è limitata e si concentra verso la fine della tua giornata. La maggior parte della tua ownership avviene nelle ore EU: sei la persona che vede i problemi per prima e li risolve in autonomia, sapendo quando è il momento di coinvolgere il team oltreoceano.\n
Abbiamo un ufficio a Verona: sei il benvenuto a lavorare in presenza (modalità ibrida, circa 3 giorni a settimana) oppure completamente da remoto se non sei nella zona — con la flessibilità di venire in ufficio quando possibile. Tempo indeterminato.
\n
Di Cosa Ti Occuperai
\n
Operazioni sulla Pipeline Dati
\n
- Monitora e gestisci il triage EU delle failure giornaliere della pipeline dbt — errori di connessione,
\nschema drift, type mismatch su JSON, timeout dei modelli — che occorrono durante la mattina italiana\n
- Mantieni e migliora l’affidabilità della pipeline: logiche di retry, soglie di alerting, runbook per le modalità di failure più comuni
- Collabora con il team analytics per fare debug dei problemi dati end-to-end, dai sistemi sorgente attraverso i modelli dbt fino alle dashboard Looker a valle
\nModellazione Dati & Qualità dbt\n
- Fai rispettare gli standard di modellazione dbt: naming convention, pattern di testing, schema design, documentazione
- Identifica e refactora i modelli costosi — riduci il runtime della pipeline, elimina CTE ridondanti,
\nmigliora il design dei modelli incrementali\n
- Revisiona i nuovi contributi ai modelli per le implicazioni sulle performance prima che raggiungano la produzione
- Contribuisci a far evolvere l’architettura di modellazione con la crescita dei volumi di dati
\nPerformance del Database & Infrastruttura\n
- Gestisci l’ottimizzazione delle performance di Redshift: WLM tuning, query profiling, analisi delle sort key e distribution key, configurazione dei data share
- Monitora e gestisci il connection pooling di Aurora (PgBouncer) — prevenzione dell’esaurimento delle connessioni, ottimizzazione delle dimensioni dei pool
- Supporta la valutazione e pianificazione di una potenziale migrazione Redshift → Snowflake
- Fornisci copertura infrastrutturale per gli incidenti al database layer e partecipa ai workflow operativi del team di piattaforma — deployment ArgoCD, modifiche Terraform — per le infrastrutture che toccano il data layer
\nTooling Analytics AI-Assisted\n
- Usa e migliora i tool AI-assisted (Claude Code, integrazioni dbt MCP) per il debug della pipeline e l’automazione analytics
- Supporta il team analytics nel far scalare gli agenti analytics AI interni verso funzionalità customer-facing
\nSarai Perfetto per Questo Ruolo se\n
- Hai 4+ anni in un ruolo di data engineering, analytics engineering o DataOps — con ownership di pipeline da cui altri dipendono
- Hai una solida esperienza in SQL e data modeling: hai preso decisioni architetturali reali su dataset reali e sai spiegarne i