L'Azienda
Il nostro cliente è una nota scale-up del settore Robotica e AI con circa 6 anni di storia, 80 dipendenti e un fatturato milionario. La realtà si pone come pioniere assoluto nel campo dell'applicazione dell'intelligenza artificiale ai robot umanoidi.
La società, recentemente approdata negli Stati Uniti, prevede un ampliamento di ampio raggio nei prossimi anni, sia in termini di organico che di progettualità. I loro prodotti trovano applicazione principalmente nei settori Manufacturing, Healthcare ed Aerospace.
Per il potenziamento del team Perception, siamo alla ricerca di un Computer Vision Robotic Engineer che possa portare un valore aggiunto concreto.
Descrizione del ruolo
Ricerchiamo un/una Robotic Computer Vision Engineer da inserire nel team di percezione per lo sviluppo di sistemi di visione avanzati destinati ai robot umanoidi.
La figura contribuirà alla progettazione e implementazione di pipeline di percezione basate su computer vision, deep learning e 3D vision, con particolare focus su stima della posa 3D degli oggetti, scene understanding e ottimizzazione dell'inferenza su GPU ed edge devices embedded a bordo del robot.
Il ruolo prevede attività ad alto impatto sul comportamento percettivo del robot, contribuendo direttamente alle capacità di manipolazione autonoma, interazione con l'ambiente e comprensione della scena.
La persona selezionata lavorerà su:
* integrazione software di modelli di object detection, segmentation e 3D pose estimation
* sviluppo di pipeline multi-stage di percezione (detection → refinement → pose estimation)
* elaborazione dati RGB-D e point cloud provenienti da sensori onboard
* sviluppo di pipeline robuste per robot operanti in ambienti dinamici e non strutturati
* deployment su hardware embedded (es. NVIDIA Jetson) integrato su piattaforme robotiche umanoidi
* conversione e ottimizzazione modelli (ONNX, TensorRT, quantizzazione FP16 / INT8)
* sviluppo di pipeline modulari in Python
* collaborazione con team software, AI e hardware per integrazione end-to-end del sistema percettivo del robot
Requisiti
* Laurea in Computer Science, Software Engineering, Robotics o discipline affini
* Almeno 2 anni di esperienza nello sviluppo software con focus su computer vision, perception robotica o sistemi di visione 3D
* Ottima conoscenza di Python Object-Oriented Programming, incluse librerie di multithreading e programmazione asincrona
* Esperienza con protocolli di streaming (es. WebRTC) e comunicazione IoT (es. MQTT)
* Esperienza pratica con pipeline RGB-D, elaborazione point cloud e librerie 3D (es. PCL)
* Esperienza nello sviluppo o integrazione di modelli deep learning per object detection, segmentation e pose estimation, utilizzando PyTorch o TensorFlow
* Esperienza nel deployment e nell'ottimizzazione di modelli su GPU ed edge device (es. ONNX Runtime, TensorRT, CUDA, NVIDIA Jetson)
* Esperienza con conversione modelli, quantizzazione (FP16 / INT8) e ottimizzazione inference real-time
* Ottima conoscenza di OpenCV
* Familiarità con workflow collaborativi basati su Git
* Conoscenza almeno intermedia della lingua inglese (quotidianamente utilizzata)
Nice to have
* esperienza con calibrazione camere e setup multi-camera / RGB-D (es. RealSense, ZED)
* esperienza con ROS o ROS2
* esperienza con Docker o infrastrutture MLOps
* esperienza con pipeline CI/CD per modelli ML
* familiarità con Vision-Language Models (VLM) o modelli emergenti per robotica
* esperienza con ambienti di simulazione per testing perception (es. Gazebo o NVIDIA Isaac Sim)
CCNL Metalmeccanico, welfare 250€, budget massimo 45.000€ (l'inquadramento economico sarà definito in base alla reali competenza dei candidati e terrà conto dei valori di partenza).
Smart working 1 giorno a settimana.
Se sei interessato/a, invia la tua candidatura completa di autorizzazione al trattamento dati personali (D.Lgs. 196⁄2003).
La ricerca è condotta nel rispetto del D.Lgs. 198⁄2006 ed è aperta a persone di qualsiasi età, genere, orientamento, provenienza e credo. Questo annuncio è stato redatto nel rispetto della diversità e dell'inclusione.