12 fiches de triche MCP, RAG et Agents pour les ingénieurs en IA (avec visuels) :
1️⃣ Appel de fonction & MCP pour LLMs Avant que les MCP ne deviennent populaires, les flux de travail de l'IA s'appuyaient sur l'Appel de Fonction traditionnel pour l'accès aux outils. Maintenant, le MCP standardise cela pour les Agents/LLMs. Le visuel montre comment l'Appel de Fonction & le MCP fonctionnent en coulisses. Vérifiez le fil ci-dessous 👇
Avi Chawla
Avi Chawla20 avr. 2025
Appel de fonction et MCP pour les LLM, clairement expliqué (avec des visuels) :
2️⃣ 4 étapes de formation des LLMs depuis zéro Cette illustration couvre les 4 étapes de la construction des LLMs depuis zéro pour les rendre pratiquement applicables. - Pré-formation - Affinage des instructions - Affinage des préférences - Affinage du raisonnement Voici mon fil détaillé à ce sujet 👇
Avi Chawla
Avi Chawla21 juil. 2025
4 étapes de formation des LLMs depuis le début, clairement expliquées (avec des visuels) :
3️⃣ 3 techniques de prompting pour le raisonnement dans les LLMs Cela couvre trois techniques de prompting populaires qui aident les LLMs à penser plus clairement avant de répondre. - Chaîne de Pensée (CoT) - Auto-Consistance (ou Vote Majoritaire sur CoT) - Arbre des Pensées (ToT) Lisez mon fil détaillé à ce sujet ci-dessous 👇
Avi Chawla
Avi Chawla29 mai 2025
3 techniques pour débloquer le raisonnement dans les LLM, clairement expliquées (avec des visuels) :
4️⃣ Former des LLMs en utilisant d'autres LLMs Les LLMs n'apprennent pas seulement à partir de textes bruts ; ils apprennent aussi les uns des autres. - Llama 4 Scout et Maverick ont été formés en utilisant Llama 4 Behemoth. - Gemma 2 et 3 ont été formés en utilisant Gemini. Le visuel explique 3 techniques populaires. Lisez le fil ci-dessous 👇
Avi Chawla
Avi Chawla21 mai 2025
Comment les LLM s’entraînent aux LLM, clairement expliqué (avec des visuels) :
5️⃣ Affinage supervisé et par renforcement dans les LLMs Cette illustration couvre la différence entre l'affinage supervisé et l'affinage par renforcement. L'affinage par renforcement vous permet de transformer n'importe quel LLM open-source en une puissance de raisonnement sans aucune donnée étiquetée. Lisez le fil ci-dessous 👇
Avi Chawla
Avi Chawla23 avr. 2025
Ajustement supervisé et par renforcement dans les LLM, clairement expliqué (avec visuels) :
6️⃣ Transformateur vs. Mélange d'Experts dans les LLMs Le Mélange d'Experts (MoE) est une architecture populaire qui utilise différents "experts" pour améliorer les modèles de Transformateur. L'illustration ci-dessous explique comment ils diffèrent des Transformateurs. Voici mon fil détaillé à ce sujet👇
Avi Chawla
Avi Chawla25 févr. 2025
Transformer vs. Mélange d’experts en LLM, clairement expliqué (avec des visuels) :
7️⃣ RAG vs Agentic RAG Le RAG naïf récupère une fois et génère une fois, il ne peut pas rechercher dynamiquement plus d'infos, et il ne peut pas raisonner à travers des requêtes complexes. Le RAG agentique résout ce problème. Consultez mon fil explicatif détaillé à ce sujet👇
Avi Chawla
Avi Chawla17 janv. 2025
RAG traditionnel vs RAG agentique, clairement expliqué (avec des visuels) :
8️⃣ 5 modèles de conception d'IA agentique populaires Les comportements agentiques permettent aux LLM de peaufiner leur sortie en intégrant l'auto-évaluation, la planification et la collaboration ! Cette illustration montre les 5 modèles de conception populaires pour construire des agents IA. Consultez mon fil de discussion à ce sujet pour plus d'infos 👇
Avi Chawla
Avi Chawla23 janv. 2025
5 modèles de conception d'IA agentique les plus populaires, clairement expliqués (avec visuels) :
9️⃣ 5 niveaux de systèmes d’IA agentique Les systèmes agentiques ne se contentent pas de générer du texte ; Ils prennent des décisions, appellent des fonctions et exécutent même des flux de travail autonomes. Le visuel explique les 5 niveaux d’agence de l’IA. J’ai lié mon fil👇 d’explication détaillé
Avi Chawla
Avi Chawla21 mars 2025
5 niveaux de systèmes d’IA Agentique, clairement expliqués (avec des visuels) :
🔟 RAG traditionnel vs HyDE Les questions ne sont pas sémantiquement similaires aux réponses, de sorte que le système peut récupérer un contexte non pertinent. Dans HyDE, générez d’abord une réponse hypothétique (H) à la requête. Ensuite, utilisez (H) pour récupérer le contexte pertinent (C). J’ai écrit un fil de discussion détaillé à ce sujet👇
Avi Chawla
Avi Chawla26 déc. 2024
RAG traditionnel vs HyDE, clairement expliqué (avec des visuels) :
1️1️⃣ ⃣ RAG vs Graph RAG Il est difficile de répondre à des questions qui nécessitent un contexte mondial avec le RAG traditionnel, car il ne récupère que les k premiers morceaux pertinents. Graph RAG rend RAG plus robuste avec des structures graphiques. Consultez mon fil de discussion détaillé ci-dessous👇
Avi Chawla
Avi Chawla31 janv. 2025
RAG traditionnel vs. RAG graphique, clairement expliqué (avec des visuels) :
1️2️⃣ ⃣ Mise en cache KV La mise en cache KV est une technique utilisée pour accélérer l’inférence LLM. J’ai lié mon fil de discussion détaillé ci-dessous👇
Avi Chawla
Avi Chawla14 févr. 2025
La mise en cache KV dans les LLM, clairement expliquée (avec des visuels) :
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 août, 14:30
12 fiches de triche MCP, RAG et Agents pour les ingénieurs en IA (avec visuels) :
254,71K