Mixture of Experts indeed
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)6 ago, 19:48
Se un LLM è intrinsecamente un'aggregazione di voci e processi di generazione dei dati, «noi» è esattamente corretto. Dal punto di vista delle capacità, non mi sorprenderebbe se aiutasse con la diversità. Ulteriori avanzamenti speculativi: allocazione dinamica dei ruoli in-CoT, potrebbe catturare alcuni benefici multi-agente.
228