12 arkuszy os cheat dla inżynierów AI (z wizualizacjami):
1️⃣ Wywoływanie funkcji i MCP dla LLM-ów Zanim MCP stały się popularne, przepływy pracy AI opierały się na tradycyjnym wywoływaniu funkcji w celu uzyskania dostępu do narzędzi. Teraz MCP standaryzuje to dla agentów/LLM-ów. Wizualizacja pokazuje, jak działa wywoływanie funkcji i MCP od zaplecza. Sprawdź wątek poniżej 👇
Avi Chawla
Avi Chawla20 kwi 2025
Wywoływanie funkcji i MCP dla LLM, jasno wyjaśnione (z wizualizacjami):
2️⃣ 4 etapy szkolenia LLM od podstaw Ta wizualizacja przedstawia 4 etapy budowy LLM od podstaw, aby uczynić je praktycznie zastosowalnymi. - Wstępne szkolenie - Dostosowanie instrukcji - Dostosowanie preferencji - Dostosowanie rozumowania Oto mój szczegółowy wątek na ten temat 👇
Avi Chawla
Avi Chawla21 lip 2025
4 etapy szkolenia LLM od podstaw, jasno wyjaśnione (z wizualizacjami):
3️⃣ 3 techniki podpowiadania dla rozumowania w LLM-ach Oto trzy popularne techniki podpowiadania, które pomagają LLM-om myśleć jaśniej przed udzieleniem odpowiedzi. - Łańcuch myśli (CoT) - Samo-spójność (lub głosowanie większościowe nad CoT) - Drzewo myśli (ToT) Przeczytaj mój szczegółowy wątek na ten temat poniżej 👇
Avi Chawla
Avi Chawla29 maj 2025
3 techniki odblokowywania rozumowania w LLM, jasno wyjaśnione (z wizualizacjami):
4️⃣ Trenuj LLM-y używając innych LLM-ów LLM-y nie uczą się tylko z surowego tekstu; uczą się również od siebie nawzajem. - Llama 4 Scout i Maverick były trenowane przy użyciu Llama 4 Behemoth. - Gemma 2 i 3 były trenowane przy użyciu Gemini. Wizualizacja wyjaśnia 3 popularne techniki. Przeczytaj wątek poniżej 👇
Avi Chawla
Avi Chawla21 maj 2025
Jak LLM szkolą LLM, jasno wyjaśnione (z wizualizacjami):
5️⃣ Nadzorowane i wzmocnione dostrajanie w LLM Ten obrazek przedstawia różnicę między nadzorowanym dostrajaniem a wzmocnionym dostrajaniem. RFT pozwala na przekształcenie dowolnego otwartego LLM w potęgę rozumowania bez potrzeby posiadania oznaczonych danych. Przeczytaj wątek poniżej 👇
Avi Chawla
Avi Chawla23 kwi 2025
Nadzorowane i wzmacniające dostrajanie w LLM, jasno wyjaśnione (z wizualizacjami):
6️⃣ Transformer vs. Mieszanka Ekspertów w LLM-ach Mieszanka Ekspertów (MoE) to popularna architektura, która wykorzystuje różne "eksperty" do poprawy modeli Transformer. Poniższa wizualizacja wyjaśnia, jak różnią się od Transformerów. Oto mój szczegółowy wątek na ten temat👇
Avi Chawla
Avi Chawla25 lut 2025
Transformator kontra mieszanka ekspertów w LLM, jasno wyjaśnione (z wizualizacjami):
7️⃣ RAG vs Agentic RAG Naive RAG pobiera raz i generuje raz, nie może dynamicznie wyszukiwać więcej informacji i nie potrafi rozwiązywać złożonych zapytań. Agentic RAG to rozwiązuje. Sprawdź mój szczegółowy wątek wyjaśniający na ten temat👇
Avi Chawla
Avi Chawla17 sty 2025
Tradycyjny RAG vs. Agentic RAG, jasno wyjaśnione (z wizualizacjami):
8️⃣ 5 popularnych wzorców projektowych Agentic AI Zachowania agentowe pozwalają LLM-om na udoskonalanie swoich wyników poprzez włączenie samooceny, planowania i współpracy! Ten obrazek przedstawia 5 popularnych wzorców projektowych do budowy agentów AI. Sprawdź mój wątek na ten temat, aby uzyskać więcej informacji👇
Avi Chawla
Avi Chawla23 sty 2025
5 najpopularniejszych wzorców projektowych Agentic AI, jasno wyjaśnionych (z wizualizacjami):
9️⃣ 5 poziomów agentycznych systemów sztucznej inteligencji Systemy agentyczne nie tylko generują tekst; Podejmują decyzje, wywołują funkcje, a nawet uruchamiają autonomiczne przepływy pracy. Wizualizacja wyjaśnia 5 poziomów sprawczości AI. Podlinkowałem mój szczegółowy wątek👇 wyjaśniający
Avi Chawla
Avi Chawla21 mar 2025
5 poziomów systemów Agentic AI, przejrzyście wyjaśnionych (z wizualizacjami):
🔟 Tradycyjny RAG kontra HyDE Pytania nie są semantycznie podobne do odpowiedzi, więc system może pobrać nieistotny kontekst. W HyDE najpierw wygeneruj hipotetyczną odpowiedź (H) na zapytanie. Następnie użyj (H), aby pobrać odpowiedni kontekst (C). Napisałem szczegółowy wątek na ten👇 temat
Avi Chawla
Avi Chawla26 gru 2024
Tradycyjny RAG kontra HyDE, jasno wyjaśnione (z wizualizacjami):
1️1️⃣ ⃣ RAG a wykres RAG Odpowiadanie na pytania, które wymagają globalnego kontekstu, jest trudne w przypadku tradycyjnego RAG, ponieważ pobiera on tylko pierwsze k odpowiednich fragmentów. Graph RAG sprawia, że RAG jest bardziej niezawodny dzięki strukturom grafów. Sprawdź mój szczegółowy wątek poniżej👇
Avi Chawla
Avi Chawla31 sty 2025
Tradycyjny RAG vs. Graph RAG, jasno wyjaśnione (z wizualizacjami):
1️2️⃣ ⃣ Buforowanie KV Buforowanie KV to technika stosowana w celu przyspieszenia wnioskowania LLM. Poniżej👇 zamieściłem link do mojego szczegółowego wątku
Avi Chawla
Avi Chawla14 lut 2025
Buforowanie KV w LLM, jasno wyjaśnione (z wizualizacjami):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 sie, 14:30
12 arkuszy os cheat dla inżynierów AI (z wizualizacjami):
254,71K