12 taháků MCP, RAG a Agents pro inženýry AI (s vizuálními prvky):
1️⃣ Volání funkcí a MCP pro LLM Než se MCP staly populárními, spoléhaly se pracovní postupy umělé inteligence pro přístup k nástrojům na tradiční volání funkcí. Nyní jej MCP standardizuje pro agenty/LLM. Vizuál popisuje, jak Function Calling & MCP fungují pod kapotou. Podívejte se na vlákno níže 👇
Avi Chawla
Avi Chawla20. 4. 2025
Volání funkcí & MCP pro LLM, jasně vysvětleno (s vizuály):
2️⃣ 4 fáze školení LLM od nuly Tento vizuál pokrývá 4 fáze vytváření LLM od nuly, aby byly prakticky použitelné. - Předtrénink - Doladění instrukcí - Doladění preferencí - Doladění uvažování Zde je mé podrobné vlákno o tom 👇
Avi Chawla
Avi Chawla21. 7. 2025
4 fáze školení LLM od nuly, jasně vysvětlené (s vizuálními prvky):
3️⃣ 3 techniky uvažování v LLM To zahrnuje tři oblíbené techniky nápovědy, které pomáhají LLM myslet jasněji, než odpoví. - Řetězec myšlenek (CoT) - Sebekonzistence (nebo většinové hlasování nad CoT) - Strom myšlenek (ToT) Přečtěte si o tom mé podrobné vlákno níže 👇
Avi Chawla
Avi Chawla29. 5. 2025
3 techniky k odemknutí uvažování v LLM, jasně vysvětlené (s vizuálními prvky):
4️⃣ Trénujte LLM pomocí jiných LLM LLM se neučí jen z nezpracovaného textu; Učí se také jeden od druhého. - Llama 4 Scout a Maverick byli vycvičeni pomocí Llama 4 Behemoth. - Gemma 2 a 3 byly trénovány pomocí Gemini. Vizuál vysvětluje 3 populární techniky. Přečtěte si vlákno níže 👇
Avi Chawla
Avi Chawla21. 5. 2025
Jak LLM trénují LLM, jasně vysvětleno (s vizuálními prvky):
5️⃣ Řízené a posilovací doladění v LLM Tento vizuál pokrývá rozdíl mezi dolaďováním pod dohledem a dolaďováním výztuže. RFT vám umožňuje transformovat jakýkoli open-source LLM na argumentační elektrárnu bez jakýchkoli označených dat. Přečtěte si vlákno níže 👇
Avi Chawla
Avi Chawla23. 4. 2025
Řízené a posilující dolaďování v LLM, jasně vysvětleno (s vizuálními prvky):
6️⃣ Transformátor vs. směs odborníků na LLM Směs odborníků (MoE) je populární architektura, která používá různé "odborníky" k vylepšování modelů Transformerů. Níže uvedený vizuál vysvětluje, jak se liší od Transformers. Zde je mé podrobné vlákno o tom👇
Avi Chawla
Avi Chawla25. 2. 2025
Transformátor vs. směs odborníků na LLM, jasně vysvětleno (s vizuálními prvky):
7️⃣ RAG vs Agentic RAG Naivní RAG jednou načte a jednou vygeneruje, nemůže dynamicky vyhledávat další informace a nemůže argumentovat složitými dotazy. Agentic RAG to řeší. Podívejte se na mé podrobné vysvětlující vlákno na toto👇 téma
Avi Chawla
Avi Chawla17. 1. 2025
Tradiční RAG vs. Agentic RAG, jasně vysvětleno (s vizuálem):
8️⃣ 5 oblíbených návrhových vzorů Agentic AI Agentické chování umožňuje LLM zdokonalit své výstupy začleněním sebehodnocení, plánování a spolupráce! Tento vizuál znázorňuje 5 oblíbených návrhových vzorů pro vytváření agentů AI. Pro více informací👇 se podívejte na mé vlákno na něm
Avi Chawla
Avi Chawla23. 1. 2025
5 nejoblíbenějších návrhových vzorů Agentic AI, jasně vysvětlených (s vizuálními prvky):
9️⃣ 5 úrovní Agentic AI systémů Agentické systémy negenerují pouze text; Rozhodují, volají funkce a dokonce spouštějí autonomní pracovní postupy. Vizuál vysvětluje 5 úrovní agentury AI. Propojil jsem své podrobné vysvětlující vlákno👇
Avi Chawla
Avi Chawla21. 3. 2025
5 úrovní systémů Agentic AI, přehledně vysvětlených (s vizuály):
🔟 Tradiční RAG vs HyDE Otázky nejsou sémanticky podobné odpovědím, takže systém může načíst irelevantní kontext. V HyDE nejprve vygenerujte hypotetickou odpověď (H) na dotaz. Poté pomocí (H) načtěte relevantní kontext (C). Napsal jsem o tom👇 podrobné vlákno
Avi Chawla
Avi Chawla26. 12. 2024
Tradiční RAG vs. HyDE, jasně vysvětleno (s vizuálem):
1️1️⃣ ⃣ RAG vs graf RAG Odpovědi na otázky, které vyžadují globální kontext, jsou s tradičním RAG obtížné, protože načítá pouze relevantní části s horními tisíci. Graf RAG dělá RAG robustnější díky grafovým strukturám. Podívejte se na mé podrobné vlákno níže👇
Avi Chawla
Avi Chawla31. 1. 2025
Tradiční RAG vs. Graph RAG, jasně vysvětleno (s vizuálními prvky):
1️2️⃣ ⃣ KV cachování KV caching je technika používaná k urychlení odvozování LLM. Níže👇 jsem propojil své podrobné vlákno
Avi Chawla
Avi Chawla14. 2. 2025
KV cachování v LLM, jasně vysvětleno (s vizuály):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6. 8. 14:30
12 taháků MCP, RAG a Agents pro inženýry AI (s vizuálními prvky):
254,72K