Syntax
è una realtà imprenditoriale con più di 250 dipendenti, con sedi distribuite sul territorio nazionale (Piemonte, Lombardia, Emilia Romagna, Lazio, Puglia), in rapida evoluzione (incremento annuo della produzione maggiore del 20%), che opera nei settori emergenti e strategici (Information and Communication Technology, Impiantistica, Green energy and mobility), con l’obiettivo di favorire la crescita delle piccole, medie e grandi imprese, sia nel settore privato che pubblico (più di 1300 clienti).
Posizione aperta:
Data Analyst
Attività da svolgere: Progettare, sviluppare e mantenere pipeline dati scalabili e robuste per ingestion, trasformazione, arricchimento e storage (formati
Parquet,
CSV ), includendo processi
ETL
ed
ELT. Gestire e ottimizzare ambienti di
datalake
e data warehouse per l’analisi e la conservazione dei dati. Implementare algoritmi di
anomaly detection,
outlier detection
e
previsioni
su dati temporali e metriche. Sviluppare e mantenere componenti
MLOps/MLDevSecOps
per la gestione, il versionamento e il monitoraggio dei modelli. Sperimentare e applicare modelli di
machine learning
(es.
logistic regression,
random forest,
clustering,
forecasting ) e tecniche statistiche avanzate. Lavorare su sistemi distribuiti di elaborazione dati e gestire stream real-time tramite
Kafka
o
JetStream/NATS. Progettare e ottimizzare strutture dati in
PostgreSQL
e database time-series come
TimescaleDB. Integrare soluzioni di storage vettoriale (es.
Qdrant ) e knowledge graph ( Dgraph ) per correlazioni, ontologie e arricchimenti avanzati. Collaborare con team AI e Dev per integrare modelli e insight nei flussi dati.
Competenze richieste: Ottima conoscenza di
Python
per lo sviluppo di pipeline dati e algoritmi di machine learning. Padronanza delle principali librerie per data science e ML:
pandas,
NumPy,
scikit-learn,
TensorFlow. Esperienza nella progettazione e implementazione di processi
ETL/ELT, gestione di
datalake
e architetture dati distribuite. Esperienza con sistemi di messaggistica distribuita e stream processing ( Kafka,
JetStream/NATS ). Competenza nell’uso di
SQL, database relazionali ( PostgreSQL ) e time-series ( TimescaleDB ). Conoscenza di strumenti e metodologie di
MLOps/MLDevSecOps
per l’intero ciclo di vita dei modelli. Esperienza nella modellazione e gestione di
knowledge graph, ontologie e correlazioni causali. Conoscenza dei principi di
Domain-Driven Design (DDD)
e
Test-Driven Development (TDD). Familiarità con architetture
microservizi, container ( Docker ) e orchestrazione ( Kubernetes ). Utilizzo di
Git
per il versionamento del codice e collaborazione. Esperienza in ambienti
Agile/Scrum.
Competenze preferenziali: Esperienza nell’implementazione di pipeline complesse per l’elaborazione dati in tempo reale. Capacità di progettare e mantenere sistemi di osservabilità e metriche ( Prometheus ) e soluzioni per l’arricchimento dei dati.
RAL e inquadramento saranno definiti in sede di colloquio, in funzione della seniority e delle competenze.
Visita il nostro sito per conoscerci meglio Offerta di lavoro rivolta ad entrambi i sessi, promuoviamo le pari possibilità.