分散型 AI の動きが拡大しています!
Marco De Rossi
Marco De Rossi8月4日 06:46
アクティブな分散型 AI プロジェクトのマップを立ち上げ🤖たばかりです。このエコシステムが10倍に成長するのを見たいです! プライバシー自体は採用を促進するものではありません。私たちは、中央集権的なビッグAIのUXに匹敵し、それを超える必要があります。 データソースコネクタとメモリは堀です。AI アプリの切り替えコストは今後 2 年間で急騰します。 なぜでしょうか。データソースが向上すると、使用量→増加→、より豊富な履歴→、より高い堀→プロバイダーを切り替えると完全に失われるより貴重なメモリが得られます。 だからこそ、私たちは迅速に行動しなければなりません。 今日、@UCBerkeleyで開催されたDeAI Summitで、ユーザーと開発者に同じUXを維持しながら、これを解決するための「バーテンダースタック」を売り込みました。 推論の抽象化: 開発者は汎用推論関数を呼び出すだけで、リモート TEE を使用するかローカル推論を使用するかにかかわらず、ユーザーのデバイスがそれをルーティングするモデルを決定します。現在、開発者はローカル推論用に独自のモデルを導入するか、プライバシーを保護する独自の TEE を提供する必要があります。これはクレイジーなことであり、それが彼らがデフォルトで集中型推論 API を使用する理由です。私が提案しているのは、実際には一般的な計算ですでに行っていることです:カーネルに計算を依頼するだけで、プロセッサやメモリなどを完全に抽象化します。これにより、開発者は AI アプリの特徴であるインターフェイスとプロンプト + コンテキスト エンジニアリングに集中できます。 クロスアプリメモリ:アプリ間でコンテキストを自動的に共有することで「メモリの堀」を破壊し、BigAIと同じUXを実現します。推論を抽象化するのと同じローカルルーターがコンテキストを「拡張」し、ローカルAIアプリを構築する新しいスタートアップは、ペナルティを受けるのではなく、初日からすべてのメモリの恩恵を受けます。 データウォレット:ツールのきめ細かなローカル制御とアプリ間でのデータ共有。アプリごとではなく、一度だけ構成します。メモリはユーザーが所有し、AI アプリが所有するのではなく、AI アプリと共有されます。 ステートレス TEE: プロンプトとコンテキストはローカルで生成され、推論時に共有されます。TEEはデータを保存しないため、TEEのUXキーの問題と信頼の前提が解決されます。 エージェントの分散レピュテーション: エージェントネットワークには、信頼するエージェントを決定するために、パーミッションレスレピュテーションにアクセスするためのエントリポイントが必要です。これがなければ、人々は常にビッグAIや有名ブランドをデフォルトにすることになります。エージェントにとって、信頼は堀です。 AIにはバーテンダーのようになりたい!地元の。交換。忘れっぽい。 彼らは私が必要なときに耳を傾け、私が去ると姿を消し、私の注文履歴を記録しません。2杯目の飲みの後に🍹私が言ったことを思い出すにはプロフェッショナルすぎます! 完全なデッキと建築のデザインはこちら: CC@BerkeleyRDI、🦊 @MetaMask
338