Per un nostro cliente, leader nel mondo della Cybersecurity, siamo alla ricerca di un professionista esperto in Machine Learning, Large Language Models (LLMs) e Generative AI, con competenze avanzate in MLOps, cloud computing e container orchestration.
Consolidata esperienza nello sviluppo, integrazione e monitoraggio di modelli di intelligenza artificiale su piattaforme cloud scalabili, sicure e automatizzate. Responsabilità principali Implementazione e gestione dei processi MLOps per garantire scalabilità, sicurezza e affidabilità dei modelli ML; Utilizzo di approcci innovativi nel campo del Machine Learning, con focus su LLM e AI generativa; Integrazione dei modelli ML nelle infrastrutture cloud tramite strumenti Infrastructure-as-Code (Terraform, CloudFormation); Progettazione e implementazione di architetture container-based con Docker e Kubernetes; Sviluppo e ottimizzazione di script di automazione per migliorare l'efficienza operativa; Collaborazione con team multifunzionali per tradurre i requisiti del cliente in soluzioni AI scalabili e affidabili; Competenze tecniche principali: Linguaggi e Framework: Python, FastAPI, SQLAlchemy, Alembic, Gunicorn, Uvicorn PyTorch, Transformers, Sentence-Transformers, scikit-learn, spaCy, LangChain, LangChain-Community, LangChain-Ollama, Hugging Face Hub, Faiss (vector similarity search), NumPy, SciPy, pandas, Joblib, Torch CUDA stack (nvidia-cuda, cudnn, triton), Rich, Loguru, Typer (CLI e logging avanzato), FastAPI-Healthz, SQLModel, Pydantic, Pydantic-Settings, Requests,
Aio (integrazioni e API async), SpaCy (NLP: NER, POS tagging, dependency parsing, embeddings); MLOps & DevOps Docker, Kubernetes, Terraform, CloudFormation, Kubeflow CI/CD pipelines, logging distribuito, monitoraggio con Prometheus Gestione modelli in produzione (deployment, retraining, audit) PostgreSQL, integrazione con ORM e gestione migrazioni con Alembic Cloud e AI Generativa Integrazione con LLM tramite LangChain + Ollama Esperienza su Hugging Face, OpenAI e modelli Sentence Transformers Vector database con FAISS CPU Utilizzo di Transformers per embedding e text generation