12 hojas de trucos de MCP, RAG y agentes para ingenieros de IA (con imágenes):
1️⃣ Llamada a funciones y MCP para LLMs Antes de que los MCP se hicieran populares, los flujos de trabajo de IA se basaban en la llamada de funciones tradicional para acceder a las herramientas. Ahora, MCP lo está estandarizando para agentes / LLM. La imagen cubre cómo funcionan la llamada a funciones y MCP bajo el capó. Revisa el hilo a continuación 👇
Avi Chawla
Avi Chawla20 abr 2025
Llamada a funciones y MCP para LLM, claramente explicados (con imágenes):
2️⃣ 4 etapas de entrenamiento de LLM desde cero Esta imagen cubre las 4 etapas de la construcción de LLM desde cero para que sean aplicables en la práctica. - Pre-entrenamiento - Ajuste fino de instrucciones - Ajuste fino de preferencias - Ajuste fino del razonamiento Aquí está mi hilo detallado al respecto 👇
Avi Chawla
Avi Chawla21 jul 2025
4 etapas de entrenamiento de LLM desde cero, claramente explicadas (con imágenes):
3️⃣ 3 Técnicas de incitación para el razonamiento en LLM Esto cubre tres técnicas populares de indicaciones que ayudan a los LLM a pensar con más claridad antes de responder. - Cadena de pensamiento (CoT) - Autoconsistencia (o votación mayoritaria sobre CoT) - Árbol de pensamientos (ToT) Lea mi hilo detallado al respecto a continuación 👇
Avi Chawla
Avi Chawla29 may 2025
3 técnicas para desbloquear el razonamiento en LLM, claramente explicadas (con imágenes):
4️⃣ Entrenar LLM usando otros LLM Los LLM no solo aprenden del texto sin procesar; también aprenden unos de otros. - Llama 4 Scout y Maverick fueron entrenados usando Llama 4 Behemoth. - Gemma 2 y 3 fueron entrenados usando Gemini. La imagen explica 3 técnicas populares. Lea el hilo a continuación 👇
Avi Chawla
Avi Chawla21 may 2025
Cómo entrenan los LLM Los LLM, explicado claramente (con imágenes):
5️⃣ Ajuste fino supervisado y de refuerzo en LLM Esta imagen cubre la diferencia entre el ajuste fino supervisado y el ajuste fino de refuerzo. RFT le permite transformar cualquier LLM de código abierto en una potencia de razonamiento sin ningún dato etiquetado. Lea el hilo a continuación 👇
Avi Chawla
Avi Chawla23 abr 2025
Ajuste fino supervisado y de refuerzo en LLM, claramente explicado (con imágenes):
6️⃣ Transformador vs. Mezcla de expertos en LLM Mezcla de expertos (MoE) es una arquitectura popular que utiliza diferentes "expertos" para mejorar los modelos de transformadores. La siguiente imagen explica en qué se diferencian de los Transformers. Aquí está mi hilo detallado al respecto👇
Avi Chawla
Avi Chawla25 feb 2025
Transformador vs. Mezcla de Expertos en LLMs, explicado claramente (con imágenes):
7️⃣ RAG vs RAG Agentic Naive RAG recupera una vez y genera una vez, no puede buscar dinámicamente más información y no puede razonar a través de consultas complejas. El RAG agéntico resuelve esto. Consulte mi hilo explicativo detallado sobre esto👇
Avi Chawla
Avi Chawla17 ene 2025
RAG tradicional vs. RAG agentico, explicado claramente (con imágenes):
8️⃣ 5 patrones de diseño populares de IA agencial ¡Los comportamientos agénticos permiten a los LLM refinar su producción al incorporar la autoevaluación, la planificación y la colaboración! Esta imagen muestra los 5 patrones de diseño populares para crear agentes de IA. Consulta mi hilo para más información👇
Avi Chawla
Avi Chawla23 ene 2025
Los 5 patrones de diseño de IA agencial más populares, claramente explicados (con imágenes):
9️⃣ 5 niveles de sistemas de IA Agentic Los sistemas agénticos no solo generan texto; toman decisiones, llaman a funciones e incluso ejecutan flujos de trabajo autónomos. La imagen explica 5 niveles de agencia de IA. He enlazado mi hilo👇 explicativo detallado
Avi Chawla
Avi Chawla21 mar 2025
5 niveles de sistemas de IA agentica, explicados claramente (con imágenes):
🔟 RAG tradicional vs HyDE Las preguntas no son semánticamente similares a las respuestas, por lo que el sistema puede recuperar un contexto irrelevante. En HyDE, primero genere una respuesta hipotética (H) para consultar. Luego, use (H) para recuperar el contexto relevante (C). Escribí un hilo detallado al respecto👇
Avi Chawla
Avi Chawla26 dic 2024
RAG tradicional vs. HyDE, explicado claramente (con imágenes):
1️1️⃣ ⃣ RAG vs RAG de gráficos Responder preguntas que necesitan un contexto global es difícil con el RAG tradicional, ya que solo recupera los k fragmentos relevantes. Graph RAG hace que RAG sea más robusto con estructuras de gráficos. Consulta mi hilo detallado a continuación👇
Avi Chawla
Avi Chawla31 ene 2025
RAG tradicional vs. RAG gráfico, claramente explicado (con imágenes):
1️2️⃣ ⃣ Almacenamiento en caché KV El almacenamiento en caché de KV es una técnica utilizada para acelerar la inferencia de LLM. He vinculado mi hilo detallado a continuación👇
Avi Chawla
Avi Chawla14 feb 2025
Almacenamiento en caché de KV en LLM, explicado claramente (con imágenes):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 ago, 14:30
12 hojas de trucos de MCP, RAG y agentes para ingenieros de IA (con imágenes):
254.72K