12 jukseark for MCP-, RAG- og agenter for AI-ingeniører (med visuelle elementer):
1️⃣ Funksjonsanrop og MCP for LLM-er Før MCP-er ble populære, var AI-arbeidsflyter avhengige av tradisjonelle funksjonsanrop for verktøytilgang. Nå standardiserer MCP det for agenter/LLM-er. Det visuelle dekker hvordan funksjonsanrop og MCP fungerer under panseret. Sjekk tråden nedenfor 👇
Avi Chawla
Avi Chawla20. apr. 2025
Funksjonskall og MCP for LLM-er, tydelig forklart (med bilder):
2️⃣ 4 stadier av trening av LLM-er fra bunnen av Dette bildet dekker de 4 stadiene i å bygge LLM-er fra bunnen av for å gjøre dem praktisk anvendelige. - Forberedende opplæring - Finjustering av instruksjoner - Finjustering av preferanser - Resonnement finjustering Her er min detaljerte tråd om det 👇
Avi Chawla
Avi Chawla21. juli 2025
4 stadier av opplæring av LLM-er fra bunnen av, tydelig forklart (med bilder):
3️⃣ 3 tilskyndende teknikker for resonnement i LLM-er Dette dekker tre populære tilskyndelsesteknikker som hjelper LLM-er å tenke klarere før de svarer. - Tankekjede (CoT) - Selvkonsistens (eller flertallsavstemning over CoT) - Tankenes (ToT) tre Les min detaljerte tråd om det nedenfor 👇
Avi Chawla
Avi Chawla29. mai 2025
3 teknikker for å låse opp resonnement i LLM-er, tydelig forklart (med bilder):
4️⃣ Tren LLM-er ved hjelp av andre LLM-er LLM-er lærer ikke bare av rå tekst; De lærer også av hverandre. - Llama 4 Scout og Maverick ble trent ved hjelp av Llama 4 Behemoth. - Gemma 2 og 3 ble trent ved hjelp av Gemini. Bildet forklarer 3 populære teknikker. Les tråden nedenfor 👇
Avi Chawla
Avi Chawla21. mai 2025
Hvordan LLM-er trener LLM-er, tydelig forklart (med bilder):
5️⃣ Overvåket og forsterkning finjustering i LLM-er Dette bildet dekker forskjellen mellom overvåket finjustering og finjustering av forsterkning. RFT lar deg forvandle enhver åpen kildekode LLM til et resonnerende kraftsenter uten merkede data. Les tråden nedenfor 👇
Avi Chawla
Avi Chawla23. apr. 2025
Overvåket og forsterkende finjustering i LLM-er, tydelig forklart (med bilder):
6️⃣ Transformator vs. blanding av eksperter på LLM-er Mixture of Experts (MoE) er en populær arkitektur som bruker forskjellige "eksperter" for å forbedre Transformer-modeller. Visualobjektet nedenfor forklarer hvordan de skiller seg fra Transformers. Her er min detaljerte tråd om det👇
Avi Chawla
Avi Chawla25. feb. 2025
Transformer vs. blanding av eksperter i LLM-er, tydelig forklart (med bilder):
7️⃣ RAG vs Agentic RAG Naiv RAG henter én gang og genererer én gang, den kan ikke dynamisk søke etter mer informasjon, og den kan ikke resonnere gjennom komplekse spørringer. Agentic RAG løser dette. Sjekk min detaljerte forklaringstråd om dette👇
Avi Chawla
Avi Chawla17. jan. 2025
Tradisjonell RAG vs. agentisk RAG, tydelig forklart (med bilder):
8️⃣ 5 populære Agentic AI-designmønstre Agentisk atferd lar LLM-er avgrense produksjonen ved å inkludere selvevaluering, planlegging og samarbeid! Dette visualobjektet viser de 5 populære designmønstrene for å bygge AI-agenter. Sjekk tråden min om det for mer info👇
Avi Chawla
Avi Chawla23. jan. 2025
5 mest populære Agentic AI-designmønstre, tydelig forklart (med bilder):
9️⃣ 5 nivåer av Agentic AI-systemer Agentiske systemer genererer ikke bare tekst; De tar beslutninger, kaller funksjoner og kjører til og med autonome arbeidsflyter. Det visuelle forklarer 5 nivåer av AI-byrå. Jeg har koblet til min detaljerte forklaringstråd👇
Avi Chawla
Avi Chawla21. mars 2025
5 nivåer av agentiske AI-systemer, tydelig forklart (med bilder):
🔟 Tradisjonell RAG vs HyDE Spørsmål ligner ikke semantisk på svar, så systemet kan hente irrelevant kontekst. I HyDE, generer først et hypotetisk svar (H) på spørring. Bruk deretter (H) for å hente relevant kontekst (C). Jeg skrev en detaljert tråd om det👇
Avi Chawla
Avi Chawla26. des. 2024
Tradisjonell RAG vs. HyDE, tydelig forklart (med bilder):
1️⃣1️⃣ RAG vs graf RAG Å svare på spørsmål som trenger global kontekst er vanskelig med tradisjonell RAG siden den bare henter de relevante bitene av topp-k. Graph RAG gjør RAG mer robust med grafstrukturer. Sjekk min detaljerte tråd nedenfor👇
Avi Chawla
Avi Chawla31. jan. 2025
Tradisjonell RAG vs. Graph RAG, tydelig forklart (med bilder):
1️⃣2️⃣ KV-bufring KV-caching er en teknikk som brukes til å øke hastigheten på LLM-slutningen. Jeg har lenket til min detaljerte tråd nedenfor👇
Avi Chawla
Avi Chawla14. feb. 2025
KV-bufring i LLM-er, tydelig forklart (med bilder):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6. aug., 14:30
12 jukseark for MCP-, RAG- og agenter for AI-ingeniører (med visuelle elementer):
254,67K