Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
12 hojas de trucos de MCP, RAG y agentes para ingenieros de IA (con imágenes):
1️⃣ Llamada a funciones y MCP para LLMs
Antes de que los MCP se hicieran populares, los flujos de trabajo de IA se basaban en la llamada de funciones tradicional para acceder a las herramientas. Ahora, MCP lo está estandarizando para agentes / LLM.
La imagen cubre cómo funcionan la llamada a funciones y MCP bajo el capó.
Revisa el hilo a continuación 👇

20 abr 2025
Llamada a funciones y MCP para LLM, claramente explicados (con imágenes):
2️⃣ 4 etapas de entrenamiento de LLM desde cero
Esta imagen cubre las 4 etapas de la construcción de LLM desde cero para que sean aplicables en la práctica.
- Pre-entrenamiento
- Ajuste fino de instrucciones
- Ajuste fino de preferencias
- Ajuste fino del razonamiento
Aquí está mi hilo detallado al respecto 👇

21 jul 2025
4 etapas de entrenamiento de LLM desde cero, claramente explicadas (con imágenes):
3️⃣ 3 Técnicas de incitación para el razonamiento en LLM
Esto cubre tres técnicas populares de indicaciones que ayudan a los LLM a pensar con más claridad antes de responder.
- Cadena de pensamiento (CoT)
- Autoconsistencia (o votación mayoritaria sobre CoT)
- Árbol de pensamientos (ToT)
Lea mi hilo detallado al respecto a continuación 👇

29 may 2025
3 técnicas para desbloquear el razonamiento en LLM, claramente explicadas (con imágenes):
4️⃣ Entrenar LLM usando otros LLM
Los LLM no solo aprenden del texto sin procesar; también aprenden unos de otros.
- Llama 4 Scout y Maverick fueron entrenados usando Llama 4 Behemoth.
- Gemma 2 y 3 fueron entrenados usando Gemini.
La imagen explica 3 técnicas populares.
Lea el hilo a continuación 👇

21 may 2025
Cómo entrenan los LLM Los LLM, explicado claramente (con imágenes):
5️⃣ Ajuste fino supervisado y de refuerzo en LLM
Esta imagen cubre la diferencia entre el ajuste fino supervisado y el ajuste fino de refuerzo.
RFT le permite transformar cualquier LLM de código abierto en una potencia de razonamiento sin ningún dato etiquetado.
Lea el hilo a continuación 👇

23 abr 2025
Ajuste fino supervisado y de refuerzo en LLM, claramente explicado (con imágenes):
6️⃣ Transformador vs. Mezcla de expertos en LLM
Mezcla de expertos (MoE) es una arquitectura popular que utiliza diferentes "expertos" para mejorar los modelos de transformadores.
La siguiente imagen explica en qué se diferencian de los Transformers.
Aquí está mi hilo detallado al respecto👇

25 feb 2025
Transformador vs. Mezcla de Expertos en LLMs, explicado claramente (con imágenes):
7️⃣ RAG vs RAG Agentic
Naive RAG recupera una vez y genera una vez, no puede buscar dinámicamente más información y no puede razonar a través de consultas complejas.
El RAG agéntico resuelve esto.
Consulte mi hilo explicativo detallado sobre esto👇

17 ene 2025
RAG tradicional vs. RAG agentico, explicado claramente (con imágenes):
8️⃣ 5 patrones de diseño populares de IA agencial
¡Los comportamientos agénticos permiten a los LLM refinar su producción al incorporar la autoevaluación, la planificación y la colaboración!
Esta imagen muestra los 5 patrones de diseño populares para crear agentes de IA.
Consulta mi hilo para más información👇

23 ene 2025
Los 5 patrones de diseño de IA agencial más populares, claramente explicados (con imágenes):
9️⃣ 5 niveles de sistemas de IA Agentic
Los sistemas agénticos no solo generan texto; toman decisiones, llaman a funciones e incluso ejecutan flujos de trabajo autónomos.
La imagen explica 5 niveles de agencia de IA.
He enlazado mi hilo👇 explicativo detallado

21 mar 2025
5 niveles de sistemas de IA agentica, explicados claramente (con imágenes):
🔟 RAG tradicional vs HyDE
Las preguntas no son semánticamente similares a las respuestas, por lo que el sistema puede recuperar un contexto irrelevante.
En HyDE, primero genere una respuesta hipotética (H) para consultar. Luego, use (H) para recuperar el contexto relevante (C).
Escribí un hilo detallado al respecto👇

26 dic 2024
RAG tradicional vs. HyDE, explicado claramente (con imágenes):
1️1️⃣ ⃣ RAG vs RAG de gráficos
Responder preguntas que necesitan un contexto global es difícil con el RAG tradicional, ya que solo recupera los k fragmentos relevantes.
Graph RAG hace que RAG sea más robusto con estructuras de gráficos.
Consulta mi hilo detallado a continuación👇

31 ene 2025
RAG tradicional vs. RAG gráfico, claramente explicado (con imágenes):
1️2️⃣ ⃣ Almacenamiento en caché KV
El almacenamiento en caché de KV es una técnica utilizada para acelerar la inferencia de LLM.
He vinculado mi hilo detallado a continuación👇

14 feb 2025
Almacenamiento en caché de KV en LLM, explicado claramente (con imágenes):
That's a wrap!
If you found it insightful, reshare it with your network.
Find me → @_avichawla
Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.

6 ago, 14:30
12 hojas de trucos de MCP, RAG y agentes para ingenieros de IA (con imágenes):
254.72K
Populares
Ranking
Favoritas