Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
12 hojas de trucos de MCP, RAG y Agentes para ingenieros de IA (con visuales):
1️⃣ Llamadas a funciones y MCP para LLMs
Antes de que los MCP se hicieran populares, los flujos de trabajo de IA dependían de las llamadas a funciones tradicionales para acceder a herramientas. Ahora, el MCP está estandarizándolo para Agentes/LLMs.
La visualización cubre cómo funcionan las llamadas a funciones y el MCP bajo el capó.
Consulta el hilo a continuación 👇

20 abr 2025
Llamada a funciones y MCP para LLM, claramente explicados (con imágenes):
2️⃣ 4 etapas de entrenamiento de LLMs desde cero
Esta visual cubre las 4 etapas de construcción de LLMs desde cero para hacerlos prácticamente aplicables.
- Pre-entrenamiento
- Ajuste fino de instrucciones
- Ajuste fino de preferencias
- Ajuste fino de razonamiento
Aquí está mi hilo detallado al respecto 👇

21 jul 2025
4 etapas de entrenamiento de LLMs desde cero, explicadas claramente (con visuales):
3️⃣ 3 Técnicas de Inducción para el Razonamiento en LLMs
Esto cubre tres técnicas de inducción populares que ayudan a los LLMs a pensar más claramente antes de responder.
- Cadena de Pensamiento (CoT)
- Auto-Consistencia (o Votación Mayoritaria sobre CoT)
- Árbol de Pensamientos (ToT)
Lee mi hilo detallado sobre esto a continuación 👇

29 may 2025
3 técnicas para desbloquear el razonamiento en LLMs, explicadas claramente (con visuales):
4️⃣ Entrenar LLMs utilizando otros LLMs
Los LLMs no solo aprenden de texto en bruto; también aprenden unos de otros.
- Llama 4 Scout y Maverick fueron entrenados utilizando Llama 4 Behemoth.
- Gemma 2 y 3 fueron entrenados utilizando Gemini.
La visual explica 3 técnicas populares.
Lee el hilo a continuación 👇

21 may 2025
Cómo entrenan los LLM Los LLM, explicado claramente (con imágenes):
5️⃣ Ajuste fino supervisado y por refuerzo en LLMs
Esta visualización cubre la diferencia entre el ajuste fino supervisado y el ajuste fino por refuerzo.
El ajuste fino por refuerzo (RFT) te permite transformar cualquier LLM de código abierto en una potencia de razonamiento sin necesidad de datos etiquetados.
Lee el hilo a continuación 👇

23 abr 2025
Ajuste fino supervisado y por refuerzo en LLMs, explicado claramente (con visuales):
6️⃣ Transformador vs. Mezcla de Expertos en LLMs
La Mezcla de Expertos (MoE) es una arquitectura popular que utiliza diferentes "expertos" para mejorar los modelos de Transformador.
La visualización a continuación explica cómo se diferencian de los Transformadores.
Aquí está mi hilo detallado sobre ello👇

25 feb 2025
Transformador vs. Mezcla de Expertos en LLMs, explicado claramente (con imágenes):
7️⃣ RAG vs RAG Agente
El RAG ingenuo recupera una vez y genera una vez, no puede buscar dinámicamente más información y no puede razonar a través de consultas complejas.
El RAG agente resuelve esto.
Consulta mi hilo explicativo detallado sobre esto👇

17 ene 2025
RAG tradicional vs. RAG agentico, explicado claramente (con imágenes):
8️⃣ 5 patrones de diseño populares de IA Agente
Los comportamientos agentes permiten a los LLMs refinar su salida al incorporar autoevaluación, planificación y colaboración.
Esta visualización representa los 5 patrones de diseño populares para construir agentes de IA.
Consulta mi hilo sobre esto para más información👇

23 ene 2025
5 patrones de diseño de IA agentiva más populares, claramente explicados (con visuales):
9️⃣ 5 niveles de sistemas de IA Agentic
Los sistemas agénticos no solo generan texto; toman decisiones, llaman a funciones e incluso ejecutan flujos de trabajo autónomos.
La imagen explica 5 niveles de agencia de IA.
He enlazado mi hilo👇 explicativo detallado

21 mar 2025
5 niveles de sistemas de IA agentica, explicados claramente (con imágenes):
🔟 RAG tradicional vs HyDE
Las preguntas no son semánticamente similares a las respuestas, por lo que el sistema puede recuperar un contexto irrelevante.
En HyDE, primero genere una respuesta hipotética (H) para consultar. Luego, use (H) para recuperar el contexto relevante (C).
Escribí un hilo detallado al respecto👇

26 dic 2024
RAG tradicional vs. HyDE, explicado claramente (con imágenes):
1️1️⃣ ⃣ RAG vs RAG de gráficos
Responder preguntas que necesitan un contexto global es difícil con el RAG tradicional, ya que solo recupera los k fragmentos relevantes.
Graph RAG hace que RAG sea más robusto con estructuras de gráficos.
Consulta mi hilo detallado a continuación👇

31 ene 2025
RAG tradicional vs. RAG gráfico, explicado claramente (con visuales):
1️2️⃣ ⃣ Almacenamiento en caché KV
El almacenamiento en caché de KV es una técnica utilizada para acelerar la inferencia de LLM.
He vinculado mi hilo detallado a continuación👇

14 feb 2025
Almacenamiento en caché de KV en LLM, explicado claramente (con imágenes):
That's a wrap!
If you found it insightful, reshare it with your network.
Find me → @_avichawla
Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.

6 ago, 14:30
12 hojas de trucos de MCP, RAG y Agentes para ingenieros de IA (con visuales):
254,71K
Parte superior
Clasificación
Favoritos