Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anita AGI/acc
#CreatorPad 𓂀 sebelumnya CMO @vlyai host AMA @four_meme_ | Produser Film , Penghakiman di #SIFF | @NTUsg
Kita menyaksikan fakta berbahaya tetapi hampir tidak dapat dikenali:
Alibaba Qianwen telah mengakses 400+ produk dan mengubahnya menjadi superapp AI, dan makanan, pakaian, perumahan, dan transportasi orang semuanya ada di kotak obrolan AI ini
Jendela dialog terhubung ke pencarian, kantor, kode, konten, layanan pelanggan, sistem perusahaan, plug-in, API, dan layanan pihak ketiga
Pengguna tidak lagi mengklik tautan, mengisi formulir, dan mengonfirmasi peraturan satu per satu, tetapi menyerahkan niat mereka kepada model - "bantu saya menemukan pemasok", "bantu saya menegosiasikan harga", "bantu saya menangani kerja sama ini", "bantu saya memutuskan mana yang akan digunakan"
Ini berarti bahwa AI tidak lagi hanya menjadi perantara informasi, tetapi menjadi penegak perilaku ekonomi, tetapi dunia belum menyiapkan struktur kepercayaan paling dasar untuk AI.
Tidak ada yang tahu siapa itu "adalah" dan tidak ada sistem yang dapat membuktikan siapa itu "diperjuangkan"
Ekosistem AI saat ini mungkin tampak hidup, tetapi lapisan bawahnya sebenarnya sangat rapuh:
1) Lapisan pertama patah tulang: identitas
Seorang AI berkata, "Saya mewakili orang tertentu / perusahaan / tim",
Bagaimana Anda mengonfirmasi bahwa itu benar-benar sah?
Apakah itu bertanggung jawab?
Di mana batas otoritasnya?
Dalam sistem saat ini, hampir tidak ada perbedaan antara agen yang baru saja dibuat selama 5 menit dan agen yang mewakili perusahaan besar.
Ini bukan masalah keamanan, tetapi kebutaan struktural.
2) Fraktur lapisan kedua: deklarasi
AI mencocokkan layanan, transaksi, dan kerja sama, tetapi "siapa yang dapat memberikan apa" masih hanya teks web, PPT, PDF, dan riwayat obrolan.
Klaim ini tidak dapat diverifikasi oleh mesin dan tidak dapat digunakan kembali di seluruh platform
Di dunia AI-native, janji yang tidak dapat diverifikasi oleh program pada dasarnya tidak dapat dipercaya
3) Lapisan ketiga patah tulang: privasi
Kerja sama yang benar-benar berharga hampir selalu melibatkan data sensitif
Kenyataannya adalah pilihan ekstrem, baik mengekspos privasi dengan imbalan kepercayaan, atau tidak mengatakan apa-apa dan tidak dapat bekerja sama
Memverifikasi fakta tanpa membocorkan data hampir tidak ada dalam sistem arus utama
4) Fraktur lapisan keempat: ditemukan
Ketika jumlah agen mulai meningkat secara eksponensial, mengandalkan halaman web, kata kunci, dan rekomendasi platform untuk menemukan satu sama lain telah benar-benar gagal.
Agen membutuhkan struktur data yang dapat dicari secara semantik, difilter berdasarkan beberapa kondisi, dan dapat diverifikasi untuk kepercayaan, bukan halaman yang dirancang untuk mata manusia.
"Kemampuan masuk" AI meningkat secara eksponensial, sementara kepercayaan, identitas, privasi, dan penemuan masih terjebak di era pra-Internet.
Jika masalah ini tidak ditangani secara langsung, hanya ada dua akhiran:
Entah ekonomi AI terpaksa mundur ke skenario kepercayaan rendah dan bernilai rendah, atau semuanya sekali lagi dikemas ke dalam platform super baru dan sistem kotak hitam
Ini adalah lubang dalam infrastruktur yang diperkuat menjadi risiko sistemik
77
Teratas
Peringkat
Favorit

