Building Practical AI Systems: da LLM Locali a Sistemi AI Specializzati


Descrizione del corso

Il corso introduce i concetti fondamentali dell'intelligenza artificiale moderna e dei Large Language Models, spiegando in modo chiaro come funzionano i modelli e quali sono le reali possibilità di utilizzo in contesti aziendali.

Partendo dalle basi teoriche dell'AI e dei modelli linguistici, il corso accompagna i partecipanti nella costruzione pratica di un sistema AI completo: dall'esecuzione di modelli locali alla creazione di una knowledge base interrogabile, fino alla specializzazione di modelli più piccoli su domini tecnici specifici.

Il corso è progettato per fornire una comprensione chiara della tecnologia, evitando sia eccessi teorici sia aspettative irrealistiche sul reale utilizzo dell'AI in azienda.

🎓 Cosa imparerai

Attraverso laboratori pratici i partecipanti impareranno a:

  • Eseguire modelli LLM localmente con Ollama e llama.cpp
  • Trasformare documentazione tecnica in conoscenza interrogabile
  • Costruire sistemi basati su Retrieval Augmented Generation (RAG)
  • Creare dataset specialistici partendo da documentazione tecnica
  • Adattare modelli più piccoli per domini specifici (fine tuning / distillazione)

Programma del corso

Modulo 1 — Introduzione all'Intelligenza Artificiale
Cos'è realmente l'AI, evoluzione dal machine learning ai foundation models, terminologia fondamentale. Differenze tra AI, Machine Learning, Deep Learning e Large Language Models.

Modulo 2 — Fondamenti dei Large Language Models
Tokenizzazione, embedding e rappresentazione semantica, architettura Transformer, meccanismo di attenzione. Parametri di generazione: temperature, top-p, top-k, max tokens.

Modulo 3 — Tipologie di modelli e licenze
Modelli via API, open source, open weight, installabili in locale. Aspetti legali e licenze. Quando usare API cloud, modelli locali o sistemi ibridi.

Modulo 4 — Ambienti per eseguire LLM in locale
Panoramica degli strumenti: Ollama, llama.cpp, Python, LangChain / LlamaIndex. Modelli Qwen 3.5 small. Docker e VSCode per sviluppo e testing.

🔬 Laboratorio 1 — Installazione di un LLM locale, setup Ollama, download modello, test di inferenza, confronto tra modelli di dimensioni diverse.

Modulo 5 — Trasformare documenti in conoscenza
Problemi della documentazione aziendale (PDF, manuali, runbook, wiki). Pipeline di trasformazione con Docling: conversione in Markdown strutturato.

🔬 Laboratorio 2 — Parsing documenti tecnici, conversione PDF in Markdown, pulizia e preparazione dei contenuti per indicizzazione.

Modulo 6 — Retrieval Augmented Generation (RAG)
Limiti dei modelli statici, embedding e ricerca semantica, Sentence Transformers, FAISS / ChromaDB. Pipeline RAG: ingestione, indicizzazione, retrieval, generazione risposta.

🔬 Laboratorio 3 — Costruzione di un sistema RAG: indicizzazione documenti, creazione knowledge base interrogabile, test su manuali tecnici con LLM locale.

Modulo 7 — Generare dataset specialistici
Uso di modelli avanzati come teacher, creazione dataset Q&A, generazione esempi sintetici, valutazione dei dataset.

Modulo 8 — Creare modelli specialistici
Fine tuning vs distillazione vs retrieval. Creazione di modelli piccoli per domini specifici: LLM per sistemisti, sviluppatori, supporto tecnico.

🔬 Laboratorio 4 — Creazione di un dataset specialistico, adattamento di un piccolo modello, test del modello specializzato.

Modulo 9 — Sistemi AI aziendali
Knowledge layer centrale, modelli specialistici locali, deployment in azienda. Costi reali, sicurezza e privacy dei dati.

Tecnologie utilizzate

  • Runtime LLM: Ollama, llama.cpp
  • Modelli: Qwen 3.5 small models e modelli open compatibili
  • Pipeline documentale: Docling
  • Vector database: FAISS / ChromaDB
  • Framework AI: LangChain / LlamaIndex
  • Ambiente di sviluppo: Python, Docker, VSCode

Risultati del corso

Alla fine del corso i partecipanti avranno costruito:

  • ✅ Un sistema LLM locale funzionante
  • ✅ Una knowledge base interrogabile basata su documenti tecnici
  • ✅ Un modello AI specializzato su un dominio tecnico

Per chi è pensato

  • Sviluppatori e sysadmin che vogliono capire e usare l'AI in modo concreto
  • Professionisti IT che vogliono portare sistemi AI in azienda senza dipendere da API esterne
  • Team tecnici che gestiscono documentazione interna e vogliono renderla interrogabile
  • Chiunque voglia una visione realistica — senza hype — di cosa può fare l'AI oggi

Iscriviti subito – i posti si esauriscono velocemente!

Domande frequenti

  • Serve esperienza in AI? No, partiamo dalle basi teoriche prima di entrare nei laboratori.
  • Serve un server potente? No, i modelli utilizzati girano su un laptop moderno con 16GB di RAM.
  • E se perdo una lezione? Ogni lezione viene registrata e resa disponibile ai partecipanti.
  • Il corso rilascia un attestato? Sì, attestato finale di partecipazione incluso.
  • Posso rifare i laboratori? Sì, tutti i materiali e i notebook rimangono a disposizione.