トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
2025 年はエージェントの年であり、エージェントの主な機能はツールの呼び出しです。
Claude Codeを使用すると、AIにニュースレターをふるいにかけ、スタートアップへのリンクをすべて見つけ、CRMに存在することを確認するように、1つのコマンドで指示できます。これには、2 つまたは 3 つの異なるツールが呼び出される場合があります。
しかし、ここに問題があります:これに大規模な基盤モデルを使用すると、コストがかかり、多くの場合、レートが制限され、選択タスクには圧倒されます。
ツール呼び出しでエージェントシステムを構築する最良の方法は何ですか?
答えは小さなアクションモデルにあります。NVIDIA は、「小言語モデル (SLM) は、エージェント システムでの多くの呼び出しに十分に強力で、本質的により適しており、必然的により経済的である」と主張する説得力のある論文を発表しました。
私は、コスト削減の演習を検証するために、さまざまなローカルモデルをテストしてきました。私はQwen3:30bパラメータモデルから始めましたが、これは機能しますが、その300億のパラメータのうち30億しか一度にアクティブではないにもかかわらず、非常に大きなモデルであるため、非常に遅くなる可能性があります。
NVIDIA の論文では、ツール選択用に特別に設計された大規模アクション モデルと呼ばれる別のアーキテクチャである Salesforce xLAM モデルを推奨しています。
そこで、各モデルがツールを呼び出して Asana のタスクを一覧表示する独自のテストを実行しました。
その結果は驚くべきもので、xLAMは2.61秒でタスクを完了し、100%の成功率を達成し、Qwenは9.82秒で92%の成功率を要し、ほぼ4倍の時間でした。
この実験では速度の向上が示されていますが、モデルとツール自体にどれだけのインテリジェンスが存在するかというトレードオフがあります。この限定
Qwen のような大規模なモデルでは、モデルのエラー許容度が高く、設計が不十分なインターフェイスを回避できるため、ツールをよりシンプルにすることができます。このモデルは、総当たり推論を通じてツールの制限を補います。
モデルが小さいほど、モデルは間違いから回復する能力が低くなるため、ツールはより堅牢で、選択ロジックはより正確である必要があります。これは制限のように思えるかもしれませんが、実際には機能です。
この制約により、LLM チェーン ツールの複合エラー率が排除されます。大規模なモデルが順次ツール呼び出しを行うと、エラーは指数関数的に蓄積されます。
小さなアクション モデルでは、LLM の長所を維持し、特殊なモデルと組み合わせて、より優れたシステム設計が強制されます。
このアーキテクチャは、より効率的で、より高速で、より予測可能です。


5.12K
トップ
ランキング
お気に入り