これは十分な注目を集められなかったように感じます!本当なら大変なことであり、展開されます。GPU/ASIC の担当者が、データセンター全体でのスケーリングについてすでに話しているのを聞いたことがあるでしょう。これは、互いに離れた州境にあるデータセンターだけではありません。1,000km+について話します。 本当であれば、すべてのMW/GWを1つの場所に配置する必要がなく、複数の場所(および制約の少ない場所)にまたがってネットワークを構築できるため、物理的なインフラ/電力制限の回避策が考えられます。誰がそれを買い、誰が買わないのか?聞いてみましょう 分散トレーニングが登場?「@EpochAIResearch調査によると、数千kmに及ぶネットワークでリンクされた2ダースのサイトで10GWのトレーニングを実施することが実現可能であることが示唆されています。電力可用性の代用として十分に活用されていない発電を使用して、理論的には 10GW の分散型 AI クラスターをサポートできる米国内の 23 サイトからなる 4,800 km のネットワークを特定しました。大規模な分散型トレーニングランの実施は、トレーニング時間や予算を大幅に増やすことなく実現可能です。」