12 folhas de dicas MCP, RAG e Agentes para engenheiros de IA (com visuais):
1️⃣ Chamada de função & MCP para LLMs Antes de os MCPs se tornarem populares, os fluxos de trabalho de IA dependiam da Chamada de Função tradicional para acesso a ferramentas. Agora, o MCP está padronizando isso para Agentes/LLMs. A visualização cobre como a Chamada de Função & MCP funcionam nos bastidores. Confira o tópico abaixo 👇
Avi Chawla
Avi Chawla20/04/2025
Chamada de função & MCP para LLMs, claramente explicada (com elementos visuais):
2️⃣ 4 etapas de treino de LLMs do zero Esta visualização cobre as 4 etapas de construção de LLMs do zero para torná-las praticamente aplicáveis. - Pré-treinamento - Ajuste fino de instruções - Ajuste fino de preferências - Ajuste fino de raciocínio Aqui está o meu tópico detalhado sobre isso 👇
Avi Chawla
Avi Chawla21/07/2025
4 etapas de treino de LLMs desde o início, claramente explicadas (com visuais):
3️⃣ 3 Técnicas de Prompting para Raciocínio em LLMs Isto cobre três técnicas de prompting populares que ajudam os LLMs a pensar mais claramente antes de responderem. - Cadeia de Pensamento (CoT) - Auto-Consistência (ou Votação da Maioria sobre CoT) - Árvore de Pensamentos (ToT) Leia meu thread detalhado sobre isso abaixo 👇
Avi Chawla
Avi Chawla29/05/2025
3 técnicas para desbloquear o raciocínio em LLMs, claramente explicadas (com visuais):
4️⃣ Treinar LLMs usando outros LLMs Os LLMs não aprendem apenas com texto bruto; eles também aprendem uns com os outros. - Llama 4 Scout e Maverick foram treinados usando Llama 4 Behemoth. - Gemma 2 e 3 foram treinados usando Gemini. A imagem explica 3 técnicas populares. Leia o tópico abaixo 👇
Avi Chawla
Avi Chawla21/05/2025
Como os LLMs treinam LLMs, claramente explicado (com elementos visuais):
5️⃣ Ajuste fino supervisionado e por reforço em LLMs Esta visualização cobre a diferença entre ajuste fino supervisionado e ajuste fino por reforço. O RFT permite transformar qualquer LLM de código aberto em uma potência de raciocínio sem dados rotulados. Leia o tópico abaixo 👇
Avi Chawla
Avi Chawla23/04/2025
Ajuste fino supervisionado e por reforço em LLMs, claramente explicado (com visuais):
6️⃣ Transformer vs. Mistura de Especialistas em LLMs Mistura de Especialistas (MoE) é uma arquitetura popular que utiliza diferentes "especialistas" para melhorar os modelos Transformer. A visualização abaixo explica como eles diferem dos Transformers. Aqui está o meu tópico detalhado sobre isso👇
Avi Chawla
Avi Chawla25/02/2025
Transformador vs. Mistura de Especialistas em LLMs, claramente explicado (com elementos visuais):
7️⃣ RAG vs RAG Agente O RAG ingênuo recupera uma vez e gera uma vez, não consegue pesquisar dinamicamente mais informações e não consegue raciocinar através de consultas complexas. O RAG agente resolve isso. Confira meu tópico explicativo detalhado sobre isso👇
Avi Chawla
Avi Chawla17/01/2025
RAG tradicional vs. RAG agentic, claramente explicado (com elementos visuais):
8️⃣ 5 padrões de design populares de IA Agentic Comportamentos agentic permitem que LLMs refinem sua saída incorporando autoavaliação, planejamento e colaboração! Esta imagem ilustra os 5 padrões de design populares para construir agentes de IA. Confira meu tópico sobre isso para mais informações👇
Avi Chawla
Avi Chawla23/01/2025
5 padrões de design de IA Agente mais populares, claramente explicados (com visuais):
9️⃣ 5 níveis de sistemas de IA Agentic Os sistemas agenticos não geram apenas texto; Eles tomam decisões, chamam funções e até executam fluxos de trabalho autônomos. O visual explica 5 níveis de agência de IA. Eu vinculei meu tópico👇 explicativo detalhado
Avi Chawla
Avi Chawla21/03/2025
5 níveis de sistemas de IA agentic, claramente explicados (com elementos visuais):
🔟 RAG tradicional vs HyDE As perguntas não são semanticamente semelhantes às respostas, de modo que o sistema pode recuperar contexto irrelevante. No HyDE, primeiro gere uma resposta hipotética (H) para consultar. Em seguida, use (H) para recuperar o contexto relevante (C). Eu escrevi um tópico detalhado sobre isso👇
Avi Chawla
Avi Chawla26/12/2024
RAG tradicional vs. HyDE, claramente explicado (com elementos visuais):
1️1️⃣ ⃣ RAG vs Gráfico RAG Responder a perguntas que precisam de contexto global é difícil com o RAG tradicional, uma vez que ele só recupera os blocos relevantes do top-k. O Graph RAG torna o RAG mais robusto com estruturas gráficas. Confira meu tópico detalhado abaixo👇
Avi Chawla
Avi Chawla31/01/2025
RAG Tradicional vs. RAG Gráfico, claramente explicado (com visuais):
1️2️⃣ ⃣ Cache KV O cache KV é uma técnica usada para acelerar a inferência LLM. Eu vinculei meu tópico detalhado abaixo👇
Avi Chawla
Avi Chawla14/02/2025
Cache KV em LLMs, claramente explicado (com elementos visuais):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6/08, 14:30
12 folhas de dicas MCP, RAG e Agentes para engenheiros de IA (com visuais):
254,72K