Swarm Inference は AI 業界にとって大きな変革をもたらします。その理由を理解するには、通常の推論サプライヤー (データセンターの GPU) の構築者にとってのリターンがどのようなものかから始める必要があります。 投資家の帽子をかぶってください: -AIのブームがわかりますね。あなたは参加したいと思っています。GPUを購入し、どこかに置いて貸し出すことが、このビジネスモデルの核心です。 - モデリングを開始し、損益を構築します。データセンター、サーバー、接続性など。これはCAPEXとCOGSです。トップラインはハイエンド GPU でのみ際立っています。電力は高価です。管理は簡単ではありません。 - あなたは簡単な結論に達します:リターンは...控えめに言っても荒い。 この演習を実行すると、簡単なTLDRがあります。 インフラストラクチャレベルでの AI 経済への貢献は、規模でのみ機能するか、一部は電力/スペースで接続します。推論インフラストラクチャはコモディティ化され、収量は圧縮されています。私はこれをスライスしてさいの目に切る方法を見つけようとし続けていますが、ここにはアルファがまったく見つからないように感じます。 テクノロジーの観点から見ると、これはすべて、今日の推論が歴史的に機能してきた方法の結果です。コンピューティング密度が必要です。高いバススループット、高VRAMなど Swarm Inference は、コンピューティング密度が要件ではなくなったため、ゲームチェンジャーです。 上記のCAPEXとCOGSは、コンピューティング密度の必要性の結果です。しかし、コンピューティング密度が必要ない場合は、データセンターも必要ありません。別の言い方をすれば、個々のインフラストラクチャプロバイダーは、参加するためにスケーリングのハードルを通過する必要はありません。そして、参加するのに最低限の規模が必要ない場合は、個々の家庭でも実際に理にかなった利益で AI に貢献できるかもしれません。 だからこそ、Swarm Inference はゲームチェンジャーです。アルファが見つかる場所を変えるのはイノベーションです。 パラダイムシフトを実行したFortytwoのチーム、おめでとうございます。