Il corso introduce i concetti fondamentali dell'intelligenza artificiale moderna e dei Large Language Models, spiegando in modo chiaro come funzionano i modelli e quali sono le reali possibilità di utilizzo in contesti aziendali.
Partendo dalle basi teoriche dell'AI e dei modelli linguistici, il corso accompagna i partecipanti nella costruzione pratica di un sistema AI completo: dall'esecuzione di modelli locali alla creazione di una knowledge base interrogabile, fino alla specializzazione di modelli più piccoli su domini tecnici specifici.
Il corso è progettato per fornire una comprensione chiara della tecnologia, evitando sia eccessi teorici sia aspettative irrealistiche sul reale utilizzo dell'AI in azienda.
Attraverso laboratori pratici i partecipanti impareranno a:
Modulo 1 — Introduzione all'Intelligenza Artificiale
Cos'è realmente l'AI, evoluzione dal machine learning ai foundation models, terminologia fondamentale. Differenze tra AI, Machine Learning, Deep Learning e Large Language Models.
Modulo 2 — Fondamenti dei Large Language Models
Tokenizzazione, embedding e rappresentazione semantica, architettura Transformer, meccanismo di attenzione. Parametri di generazione: temperature, top-p, top-k, max tokens.
Modulo 3 — Tipologie di modelli e licenze
Modelli via API, open source, open weight, installabili in locale. Aspetti legali e licenze. Quando usare API cloud, modelli locali o sistemi ibridi.
Modulo 4 — Ambienti per eseguire LLM in locale
Panoramica degli strumenti: Ollama, llama.cpp, Python, LangChain / LlamaIndex. Modelli Qwen 3.5 small. Docker e VSCode per sviluppo e testing.
🔬 Laboratorio 1 — Installazione di un LLM locale, setup Ollama, download modello, test di inferenza, confronto tra modelli di dimensioni diverse.
Modulo 5 — Trasformare documenti in conoscenza
Problemi della documentazione aziendale (PDF, manuali, runbook, wiki). Pipeline di trasformazione con Docling: conversione in Markdown strutturato.
🔬 Laboratorio 2 — Parsing documenti tecnici, conversione PDF in Markdown, pulizia e preparazione dei contenuti per indicizzazione.
Modulo 6 — Retrieval Augmented Generation (RAG)
Limiti dei modelli statici, embedding e ricerca semantica, Sentence Transformers, FAISS / ChromaDB. Pipeline RAG: ingestione, indicizzazione, retrieval, generazione risposta.
🔬 Laboratorio 3 — Costruzione di un sistema RAG: indicizzazione documenti, creazione knowledge base interrogabile, test su manuali tecnici con LLM locale.
Modulo 7 — Generare dataset specialistici
Uso di modelli avanzati come teacher, creazione dataset Q&A, generazione esempi sintetici, valutazione dei dataset.
Modulo 8 — Creare modelli specialistici
Fine tuning vs distillazione vs retrieval. Creazione di modelli piccoli per domini specifici: LLM per sistemisti, sviluppatori, supporto tecnico.
🔬 Laboratorio 4 — Creazione di un dataset specialistico, adattamento di un piccolo modello, test del modello specializzato.
Modulo 9 — Sistemi AI aziendali
Knowledge layer centrale, modelli specialistici locali, deployment in azienda. Costi reali, sicurezza e privacy dei dati.
Alla fine del corso i partecipanti avranno costruito: