12 lembar contekan MCP, RAG, dan Agen untuk insinyur AI (dengan visual):
1️⃣ Panggilan fungsi & MCP untuk LLM Sebelum MCP menjadi populer, alur kerja AI mengandalkan Panggilan Fungsi tradisional untuk akses alat. Sekarang, MCP menstandarisasikannya untuk Agen / LLM. Visual mencakup bagaimana Function Calling & MCP bekerja di bawah tenda. Periksa utas di bawah ini 👇
Avi Chawla
Avi Chawla20 Apr 2025
Fungsi pemanggilan & MCP untuk LLM, dijelaskan dengan jelas (dengan visual):
2️⃣ 4 tahap pelatihan LLM dari awal Visual ini mencakup 4 tahap membangun LLM dari awal untuk membuatnya dapat diterapkan secara praktis. - Pra-pelatihan - Penyetelan instruksi - Penyetelan preferensi - Penyempurnaan penalaran Berikut utas terperinci saya tentang itu 👇
Avi Chawla
Avi Chawla21 Jul 2025
4 tahap pelatihan LLM dari awal, dijelaskan dengan jelas (dengan visual):
3️⃣ 3 Teknik Dorongan untuk Penalaran di LLM Ini mencakup tiga teknik dorongan populer yang membantu LLM berpikir lebih jernih sebelum mereka menjawab. - Rantai Pemikiran (CoT) - Konsistensi Diri (atau Suara Mayoritas atas CoT) - Pohon Pikiran (ToT) Baca utas terperinci saya tentang itu di bawah ini 👇
Avi Chawla
Avi Chawla29 Mei 2025
3 teknik untuk membuka kunci penalaran di LLM, dijelaskan dengan jelas (dengan visual):
4️⃣ Latih LLM menggunakan LLM lain LLM tidak hanya belajar dari teks mentah; Mereka juga belajar dari satu sama lain. - Llama 4 Scout & Maverick dilatih menggunakan Llama 4 Behemoth. - Gemma 2 dan 3 dilatih menggunakan Gemini. Visual menjelaskan 3 teknik populer. Baca utas di bawah ini 👇
Avi Chawla
Avi Chawla21 Mei 2025
Bagaimana LLM melatih LLM, dijelaskan dengan jelas (dengan visual):
5️⃣ Penyempurnaan Pengawasan & Penguatan di LLM Visual ini mencakup perbedaan antara penyetelan halus yang diawasi dan penyetelan halus penguatan. RFT memungkinkan Anda mengubah LLM sumber terbuka apa pun menjadi pembangkit tenaga penalaran tanpa data berlabel. Baca utas di bawah ini 👇
Avi Chawla
Avi Chawla23 Apr 2025
Penyempurnaan yang diawasi & Penguatan dalam LLM, dijelaskan dengan jelas (dengan visual):
6️⃣ Trafo vs. Campuran Ahli dalam LLM Mixture of Experts (MoE) adalah arsitektur populer yang menggunakan "ahli" yang berbeda untuk meningkatkan model Transformer. Visual di bawah ini menjelaskan perbedaannya dengan Transformers. Berikut utas terperinci saya tentang itu👇
Avi Chawla
Avi Chawla25 Feb 2025
Transformer vs. Campuran Ahli dalam LLM, dijelaskan dengan jelas (dengan visual):
7️⃣ RAG vs RAG Agen Naive RAG mengambil sekali dan menghasilkan sekali, tidak dapat secara dinamis mencari info lebih lanjut, dan tidak dapat bernalar melalui kueri yang rumit. RAG agen memecahkan ini. Periksa utas penjelasan terperinci saya tentang ini👇
Avi Chawla
Avi Chawla17 Jan 2025
RAG tradisional vs. RAG agen, dijelaskan dengan jelas (dengan visual):
8️⃣ 5 pola desain Agentic AI populer Perilaku agen memungkinkan LLM untuk menyempurnakan output mereka dengan menggabungkan evaluasi diri, perencanaan, dan kolaborasi! Visual ini menggambarkan 5 pola desain populer untuk membangun agen AI. Periksa utas saya di dalamnya untuk info👇 lebih lanjut
Avi Chawla
Avi Chawla23 Jan 2025
5 pola desain Agentic AI paling populer, dijelaskan dengan jelas (dengan visual):
9️⃣ 5 tingkat sistem AI Agen Sistem agen tidak hanya menghasilkan teks; Mereka membuat keputusan, memanggil fungsi, dan bahkan menjalankan alur kerja otonom. Visual menjelaskan 5 tingkat agensi AI. Saya telah menautkan utas👇 penjelasan terperinci saya
Avi Chawla
Avi Chawla21 Mar 2025
5 tingkat sistem AI Agen, dijelaskan dengan jelas (dengan visual):
🔟 RAG Tradisional vs HyDE Pertanyaan tidak secara semantik mirip dengan jawaban, sehingga sistem dapat mengambil konteks yang tidak relevan. Di HyDE, pertama-tama hasilkan jawaban hipotetis (H) untuk kueri. Kemudian, gunakan (H) untuk mengambil konteks yang relevan (C). Saya menulis utas terperinci tentang itu👇
Avi Chawla
Avi Chawla26 Des 2024
RAG tradisional vs. HyDE, dijelaskan dengan jelas (dengan visual):
1️⃣1️⃣ RAG vs Grafik RAG Menjawab pertanyaan yang membutuhkan konteks global sulit dengan RAG tradisional karena hanya mengambil potongan relevan k teratas. Graph RAG membuat RAG lebih kuat dengan struktur grafik. Periksa utas terperinci saya di bawah ini👇
Avi Chawla
Avi Chawla31 Jan 2025
RAG tradisional vs. RAG grafik, dijelaskan dengan jelas (dengan visual):
1️⃣2️⃣ Caching KV KV caching adalah teknik yang digunakan untuk mempercepat inferensi LLM. Saya telah menautkan utas terperinci saya di bawah ini👇
Avi Chawla
Avi Chawla14 Feb 2025
KV caching di LLM, dijelaskan dengan jelas (dengan visual):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 Agu, 14.30
12 lembar contekan MCP, RAG, dan Agen untuk insinyur AI (dengan visual):
254,72K