12 schede di riferimento MCP, RAG e Agents per ingegneri AI (con immagini):
1️⃣ Chiamata di funzione e MCP per LLM Prima che i MCP diventassero popolari, i flussi di lavoro dell'IA si basavano sulla tradizionale Chiamata di Funzione per l'accesso agli strumenti. Ora, il MCP sta standardizzando questo per Agenti/LLM. Il visual mostra come funzionano Chiamata di Funzione e MCP dietro le quinte. Controlla il thread qui sotto 👇
Avi Chawla
Avi Chawla20 apr 2025
Chiamata di funzioni e MCP per LLM, spiegati in modo chiaro (con immagini):
2️⃣ 4 fasi di addestramento degli LLM da zero Questa visualizzazione copre le 4 fasi di costruzione degli LLM da zero per renderli praticamente applicabili. - Pre-addestramento - Affinamento delle istruzioni - Affinamento delle preferenze - Affinamento del ragionamento Ecco il mio thread dettagliato a riguardo 👇
Avi Chawla
Avi Chawla21 lug 2025
4 fasi di addestramento dei LLM da zero, spiegate chiaramente (con immagini):
3️⃣ 3 Tecniche di Prompting per il Ragionamento nei LLM Questo copre tre tecniche di prompting popolari che aiutano i LLM a pensare più chiaramente prima di rispondere. - Catena di Pensiero (CoT) - Auto-Coerenza (o Voto di Maggioranza su CoT) - Albero dei Pensieri (ToT) Leggi il mio thread dettagliato a riguardo qui sotto 👇
Avi Chawla
Avi Chawla29 mag 2025
3 tecniche per sbloccare il ragionamento nei LLM, spiegate chiaramente (con immagini):
4️⃣ Addestra LLM utilizzando altri LLM Gli LLM non apprendono solo da testi grezzi; apprendono anche gli uni dagli altri. - Llama 4 Scout e Maverick sono stati addestrati utilizzando Llama 4 Behemoth. - Gemma 2 e 3 sono stati addestrati utilizzando Gemini. Il visual spiega 3 tecniche popolari. Leggi il thread qui sotto 👇
Avi Chawla
Avi Chawla21 mag 2025
Come gli LLM addestrano gli LLM, spiegato chiaramente (con immagini):
5️⃣ Ottimizzazione supervisionata e per rinforzo nei LLM Questa visualizzazione copre la differenza tra ottimizzazione supervisionata e ottimizzazione per rinforzo. L'ottimizzazione per rinforzo ti consente di trasformare qualsiasi LLM open-source in una potenza di ragionamento senza alcun dato etichettato. Leggi il thread qui sotto 👇
Avi Chawla
Avi Chawla23 apr 2025
Fine-tuning supervisionato e per rinforzo nei LLM, spiegato chiaramente (con immagini):
6️⃣ Trasformatore vs. Miscela di Esperti negli LLM La Miscela di Esperti (MoE) è un'architettura popolare che utilizza diversi "esperti" per migliorare i modelli Transformer. Il visual qui sotto spiega come si differenziano dai Transformer. Ecco il mio thread dettagliato a riguardo👇
Avi Chawla
Avi Chawla25 feb 2025
Trasformatore vs. Miscela di esperti in LLM, spiegato chiaramente (con immagini):
7️⃣ RAG vs Agentic RAG Il RAG naif recupera una sola volta e genera una sola volta, non può cercare dinamicamente ulteriori informazioni e non può ragionare su query complesse. Il RAG agentico risolve questo. Controlla il mio thread esplicativo dettagliato su questo👇
Avi Chawla
Avi Chawla17 gen 2025
RAG tradizionale vs. RAG agentico, spiegato chiaramente (con immagini):
8️⃣ 5 modelli di design popolari per l'AI agentica I comportamenti agentici consentono ai LLM di affinare il loro output incorporando auto-valutazione, pianificazione e collaborazione! Questa visualizzazione illustra i 5 modelli di design popolari per costruire agenti AI. Controlla il mio thread su questo per ulteriori informazioni👇
Avi Chawla
Avi Chawla23 gen 2025
5 modelli di design di AI agentica più popolari, spiegati chiaramente (con immagini):
9️⃣ 5 livelli di sistemi Agentic AI I sistemi agentici non generano solo testo; Prendono decisioni, chiamano funzioni e persino eseguono flussi di lavoro autonomi. L'immagine spiega 5 livelli di agenzia dell'intelligenza artificiale. Ho collegato il mio thread👇 esplicativo dettagliato
Avi Chawla
Avi Chawla21 mar 2025
5 livelli di sistemi di intelligenza artificiale agentica, spiegati in modo chiaro (con immagini):
🔟 RAG tradizionale vs HyDE Le domande non sono semanticamente simili alle risposte, quindi il sistema può recuperare il contesto irrilevante. In HyDE, generare prima una risposta ipotetica (H) per la query. Quindi, utilizzare (H) per recuperare il contesto pertinente (C). Ho scritto un thread dettagliato a riguardo👇
Avi Chawla
Avi Chawla26 dic 2024
RAG tradizionale vs. HyDE, spiegato chiaramente (con immagini):
1️1️⃣ ⃣ RAG vs grafico RAG Rispondere a domande che richiedono un contesto globale è difficile con il RAG tradizionale poiché recupera solo i primi k pezzi rilevanti. Graph RAG rende RAG più robusto con le strutture grafiche. Controlla il mio thread dettagliato qui sotto👇
Avi Chawla
Avi Chawla31 gen 2025
RAG tradizionale vs. RAG grafico, spiegato chiaramente (con immagini):
1️2️⃣ ⃣ Memorizzazione nella cache KV La memorizzazione nella cache KV è una tecnica utilizzata per accelerare l'inferenza LLM. Ho linkato il mio thread dettagliato qui sotto👇
Avi Chawla
Avi Chawla14 feb 2025
Memorizzazione nella cache KV negli LLM, spiegata in modo chiaro (con immagini):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 ago, 14:30
12 schede di riferimento MCP, RAG e Agents per ingegneri AI (con immagini):
254,67K