12 MCP, RAG und Agenten-Spickzettel für KI-Ingenieure (mit visuellen Elementen):
1️⃣ Funktionsaufrufe & MCP für LLMs Bevor MCPs populär wurden, basierten KI-Workflows auf traditionellen Funktionsaufrufen für den Zugriff auf Tools. Jetzt standardisiert MCP dies für Agenten/LLMs. Die Visualisierung zeigt, wie Funktionsaufrufe & MCP im Hintergrund funktionieren. Siehe den Thread unten 👇
Avi Chawla
Avi Chawla20. Apr. 2025
Funktionsaufruf & MCP für LLMs, übersichtlich erklärt (mit visuellen Elementen):
2️⃣ 4 Phasen des Trainings von LLMs von Grund auf Diese Visualisierung zeigt die 4 Phasen des Aufbaus von LLMs von Grund auf, um sie praktisch anwendbar zu machen. - Vortraining - Instruktionsfeinabstimmung - Präferenzfeinabstimmung - Denkfeinabstimmung Hier ist mein detaillierter Thread dazu 👇
Avi Chawla
Avi Chawla21. Juli 2025
4 Phasen des Trainings von LLMs von Grund auf, klar erklärt (mit Visualisierungen):
3️⃣ 3 Aufforderungstechniken für das Denken in LLMs Dies behandelt drei beliebte Aufforderungstechniken, die LLMs helfen, klarer zu denken, bevor sie antworten. - Gedankenkette (CoT) - Selbstkonsistenz (oder Mehrheitsabstimmung über CoT) - Gedankenbaum (ToT) Lies meinen detaillierten Thread dazu unten 👇
Avi Chawla
Avi Chawla29. Mai 2025
3 Techniken, um das Denken in LLMs zu entschlüsseln, klar erklärt (mit Visualisierungen):
4️⃣ Trainiere LLMs mit anderen LLMs LLMs lernen nicht nur aus rohem Text; sie lernen auch voneinander. - Llama 4 Scout & Maverick wurden mit Llama 4 Behemoth trainiert. - Gemma 2 und 3 wurden mit Gemini trainiert. Die Grafik erklärt 3 beliebte Techniken. Lies den Thread unten 👇
Avi Chawla
Avi Chawla21. Mai 2025
Wie LLMs LLMs trainieren, klar erklärt (mit visuellen Elementen):
5️⃣ Überwachtes & Verstärkendes Fine-Tuning in LLMs Diese Visualisierung zeigt den Unterschied zwischen überwachten Fine-Tuning und verstärkendem Fine-Tuning. RFT ermöglicht es Ihnen, jedes Open-Source-LLM in eine Denkmaschine zu verwandeln, ohne dass beschriftete Daten erforderlich sind. Lesen Sie den Thread unten 👇
Avi Chawla
Avi Chawla23. Apr. 2025
Überwachtes & Verstärkungs-Fine-Tuning in LLMs, klar erklärt (mit Visualisierungen):
6️⃣ Transformer vs. Mixture of Experts in LLMs Mixture of Experts (MoE) ist eine beliebte Architektur, die verschiedene "Experten" nutzt, um Transformer-Modelle zu verbessern. Die folgende Visualisierung erklärt, wie sie sich von Transformern unterscheiden. Hier ist mein detaillierter Thread dazu👇
Avi Chawla
Avi Chawla25. Feb. 2025
Transformer vs. Mixture of Experts in LLMs, klar erklärt (mit Bildern):
7️⃣ RAG vs Agentic RAG Naives RAG ruft einmal ab und generiert einmal, es kann nicht dynamisch nach weiteren Informationen suchen und kann nicht durch komplexe Anfragen schlussfolgern. Agentic RAG löst dies. Schau dir meinen detaillierten Erklärungs-Thread dazu an👇
Avi Chawla
Avi Chawla17. Jan. 2025
Traditionelle RAG vs. Agentic RAG, klar erklärt (mit Visualisierungen):
8️⃣ 5 beliebte Agentic AI-Designmuster Agentische Verhaltensweisen ermöglichen es LLMs, ihre Ausgaben durch Selbstbewertung, Planung und Zusammenarbeit zu verfeinern! Diese Visualisierung zeigt die 5 beliebten Designmuster zum Erstellen von KI-Agenten. Schau dir meinen Thread dazu für weitere Informationen an👇
Avi Chawla
Avi Chawla23. Jan. 2025
5 der beliebtesten Agentic AI-Designmuster, klar erklärt (mit Visualisierungen):
9️⃣ 5 Stufen von Agentic AI-Systemen Agentische Systeme generieren nicht nur Text; Sie treffen Entscheidungen, rufen Funktionen auf und führen sogar autonome Workflows aus. Das Visual erklärt 5 Ebenen der KI-Handlungsfähigkeit. Ich habe meinen ausführlichen Erklärthread👇 verlinkt
Avi Chawla
Avi Chawla21. März 2025
5 Ebenen von Agentic AI Systemen, klar erklärt (mit Visualisierungen):
🔟 Traditionelles RAG vs. HyDE Fragen sind semantisch nicht mit Antworten vergleichbar, so dass das System irrelevanten Kontext abrufen kann. Generieren Sie in HyDE zunächst eine hypothetische Antwort (H) für die Abfrage. Verwenden Sie dann (H), um den relevanten Kontext (C) abzurufen. Ich habe einen ausführlichen Thread darüber👇 geschrieben
Avi Chawla
Avi Chawla26. Dez. 2024
Traditionelles RAG vs. HyDE, klar erklärt (mit Bildern):
1️1️⃣ ⃣ RAG gegen Graph RAG Die Beantwortung von Fragen, die einen globalen Kontext erfordern, ist mit herkömmlichen RAG schwierig, da nur die Top-k-relevanten Blöcke abgerufen werden. Graph RAG macht RAG mit Graphenstrukturen robuster. Schauen Sie sich meinen ausführlichen Thread unten an👇
Avi Chawla
Avi Chawla31. Jan. 2025
Traditionelles RAG vs. Graph RAG, klar erklärt (mit Visualisierungen):
1️2️⃣ ⃣ KV-Zwischenspeicherung KV-Caching ist eine Technik, die verwendet wird, um LLM-Inferenz zu beschleunigen. Meinen ausführlichen Thread habe ich unten👇 verlinkt
Avi Chawla
Avi Chawla14. Feb. 2025
KV-Caching in LLMs, klar erklärt (mit Visualisierungen):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6. Aug., 14:30
12 MCP, RAG und Agenten-Spickzettel für KI-Ingenieure (mit visuellen Elementen):
254,72K