Ph3Cosa aspettarti /h3 pSiamo uno dei principali gruppi tecnologici in Italia e operiamo come Business Technology Accelerator di Aziende, Istituzioni Finanziarie e Servizi Pubblici, supportando l’evoluzione delle loro strategie IT e digitali. Con un ecosistema di imprese che condividono valori e visione, aiutiamo i clienti a cogliere i benefici della tecnologia, amplificandone l’impatto positivo su economia e società. /p pEntrerai in Istella, partner di Dedagroup, è specializzata in Big Data e Intelligenza Artificiale, con un forte focus su tecnologie di knowledge graph, data intelligence e AI generativa a supporto di soluzioni enterprise. /p pTroverai un contesto di ricerca applicata integrato con lo sviluppo di prodotto, dedicato allo sviluppo, all’addestramento e all’ottimizzazione di Large Language Models di scala medio-grande, con particolare attenzione alla lingua italiana ed europea e alla loro industrializzazione. /p h3Cosa farai /h3 ul liSarai coinvolto nella progettazione e implementazione di pipeline di pre-training, continual pre-training e fine-tuning di modelli linguistici, occupandoti della preparazione, del filtraggio e della deduplicazione di dataset testuali di grandi dimensioni. /li liLavorerai su attività di training su infrastrutture multi-GPU e multi-node e sulla sperimentazione di tecniche di adattamento efficiente dei modelli. /li liContribuirai alla valutazione delle capacità dei modelli in termini di qualità, robustezza e performance e all’ottimizzazione delle fasi di inferenza, con attenzione agli aspetti di efficienza e scalabilità. /li /ul h3Cosa ci aspettiamo da te /h3 ul liLaurea in discipline scientifiche, preferibilmente in Informatica o Ingegneria Informatica. /li liSolida esperienza in Machine Learning e Deep Learning e un’ottima conoscenza di Python e PyTorch. /li liEsperienza diretta nel training o fine-tuning di LLM o modelli NLP di grandi dimensioni. /li liFamiliarità con distributed training (DDP, FSDP, ZeRO, parallelismi) e con l’ecosistema GPU / CUDA. /li liComprensione approfondita delle architetture Transformer. /li liCostituiscono titolo preferenziale l’esperienza con strumenti e framework avanzati (vLLM, DeepSpeed, llama.cpp, Unsloth, Axolotl). /li liGradito background di ricerca accademica. /li /ul h3Cosa ti offriamo /h3 ul liWork life balance grazie a un modello di lavoro agile. /li liLavoro su tecnologie all’avanguardia nel campo Search + LLM e accesso a infrastrutture GPU e modelli proprietari. /li /ul /p #J-18808-Ljbffr