Syntax
è una realtà imprenditoriale con più di 250 dipendenti, con sedi distribuite sul territorio nazionale (Piemonte, Lombardia, Emilia Romagna, Lazio, Puglia), in rapida evoluzione (incremento annuo della produzione maggiore del 20%), che opera nei settori emergenti e strategici (Information and Communication Technology, Impiantistica, Green energy and mobility), con l’obiettivo di favorire la crescita delle piccole, medie e grandi imprese, sia nel settore privato che pubblico (più di 1300 clienti).
Posizione aperta:
Data Analyst
Attività da svolgere: Progettare, sviluppare e mantenere pipeline dati scalabili e robuste per ingestion, trasformazione, arricchimento e storage (formati
Parquet
,
CSV
), includendo processi
ETL
ed
ELT
. Gestire e ottimizzare ambienti di
datalake
e data warehouse per l’analisi e la conservazione dei dati. Implementare algoritmi di
anomaly detection
,
outlier detection
e
previsioni
su dati temporali e metriche. Sviluppare e mantenere componenti
MLOps/MLDevSecOps
per la gestione, il versionamento e il monitoraggio dei modelli. Sperimentare e applicare modelli di
machine learning
(es.
logistic regression
,
random forest
,
clustering
,
forecasting
) e tecniche statistiche avanzate. Lavorare su sistemi distribuiti di elaborazione dati e gestire stream real-time tramite
Kafka
o
JetStream/NATS
. Progettare e ottimizzare strutture dati in
PostgreSQL
e database time-series come
TimescaleDB
. Integrare soluzioni di storage vettoriale (es.
Qdrant
) e knowledge graph (
Dgraph
) per correlazioni, ontologie e arricchimenti avanzati. Collaborare con team AI e Dev per integrare modelli e insight nei flussi dati.
Competenze richieste: Ottima conoscenza di
Python
per lo sviluppo di pipeline dati e algoritmi di machine learning. Padronanza delle principali librerie per data science e ML:
pandas
,
NumPy
,
scikit-learn
,
TensorFlow
. Esperienza nella progettazione e implementazione di processi
ETL/ELT
, gestione di
datalake
e architetture dati distribuite. Esperienza con sistemi di messaggistica distribuita e stream processing (
Kafka
,
JetStream/NATS
). Competenza nell’uso di
SQL
, database relazionali (
PostgreSQL
) e time-series (
TimescaleDB
). Conoscenza di strumenti e metodologie di
MLOps/MLDevSecOps
per l’intero ciclo di vita dei modelli. Esperienza nella modellazione e gestione di
knowledge graph
, ontologie e correlazioni causali. Conoscenza dei principi di
Domain-Driven Design (DDD)
e
Test-Driven Development (TDD)
. Familiarità con architetture
microservizi
, container (
Docker
) e orchestrazione (
Kubernetes
). Utilizzo di
Git
per il versionamento del codice e collaborazione. Esperienza in ambienti
Agile/Scrum
.
Competenze preferenziali: Esperienza nell’implementazione di pipeline complesse per l’elaborazione dati in tempo reale. Capacità di progettare e mantenere sistemi di osservabilità e metriche (
Prometheus
) e soluzioni per l’arricchimento dei dati.
RAL e inquadramento saranno definiti in sede di colloquio, in funzione della seniority e delle competenze.
Visita il nostro sito per conoscerci meglio Offerta di lavoro rivolta ad entrambi i sessi, promuoviamo le pari opportunità.