Saya baru saja meluncurkan 🤖 - peta proyek AI Terdesentralisasi aktif. Saya ingin melihat ekosistem ini tumbuh 10X! Privasi dengan sendirinya tidak mendorong adopsi. Kita perlu mencocokkan dan melampaui UX Big AI terpusat. Konektor sumber data dan memori adalah parit. Biaya peralihan Aplikasi AI akan meroket selama 2 tahun ke depan. Mengapa? Sumber data yang lebih baik → peningkatan penggunaan → sejarah yang lebih kaya → memori yang lebih berharga yang benar-benar hilang saat beralih penyedia → parit yang lebih tinggi. Itu sebabnya kita harus bertindak cepat. Hari ini di KTT DeAI di @UCBerkeley saya mengajukan "Bartender Stack" untuk memecahkan ini, sambil mempertahankan UX yang sama untuk pengguna dan pengembang: Abstraksi inferensi: Pengembang hanya perlu memanggil fungsi inferensi generik, dan perangkat pengguna memutuskan model mana yang akan dirutekan, apakah menggunakan TEE jarak jauh atau inferensi lokal. Saat ini, pengembang harus membawa model mereka sendiri untuk inferensi lokal atau menyediakan TEE mereka sendiri yang menjaga privasi. yang gila—itulah sebabnya mereka default ke API inferensi terpusat. Apa yang saya usulkan sebenarnya adalah apa yang sudah kita lakukan dengan komputasi umum: Anda hanya meminta kernel untuk melakukan perhitungan, mengabstraksi prosesor, memori, dll. Hal ini memungkinkan pengembang untuk fokus pada apa yang membuat aplikasi AI mereka khas: antarmuka dan rekayasa prompt+context. Memori lintas aplikasi: Hancurkan "parit memori" dengan berbagi konteks secara otomatis di seluruh aplikasi, mencapai UX yang sama dengan BigAI. Router lokal yang sama yang mengabstraksi inferensi "memperluas" konteks, Startup baru yang membangun aplikasi AI lokal mendapat manfaat dari semua memori Anda sejak hari pertama alih-alih dihukum. Dompet data: Kontrol terperinci dan lokal atas alat dan berbagi data di seluruh aplikasi. Konfigurasikan sekali, bukan per aplikasi. Memori dimiliki oleh pengguna dan dibagikan dengan aplikasi AI, bukan milik aplikasi AI. TEE tanpa kewarganegaraan: Perintah dan konteks dibuat secara lokal dan dibagikan pada waktu inferensi. TEE tidak menyimpan data, memecahkan masalah kunci UX TEE dan asumsi kepercayaan. Reputasi terdistribusi untuk Agen: Jaringan agen memerlukan titik masuk untuk mengakses reputasi tanpa izin untuk memutuskan agen mana yang akan dipercaya. Tanpa ini, orang akan selalu default ke AI Besar atau merek terkenal. Bagi agen, kepercayaan adalah parit. Saya ingin AI menjadi seperti bartender! Lokal. Diganti. Pelupa. Mereka mendengarkan saat saya membutuhkannya, menghilang ketika saya pergi, dan tidak pernah mencatat riwayat pesanan saya. Terlalu profesional untuk mengingat apa yang saya katakan setelah 🍹minuman kedua saya! Dek lengkap dan desain arsitektur di sini: CC @BerkeleyRDI, 🦊 @MetaMask
5,64K