Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Stiamo assistendo a un fatto pericoloso ma quasi ignorato:
Ali Qianwen ha integrato oltre 400 prodotti, diventando un superapp AI, e le persone gestiscono la loro vita quotidiana all'interno di questa chatbox AI.
Una finestra di dialogo, che collega ricerca, lavoro, codice, contenuti, assistenza clienti, sistemi aziendali, plugin, API e servizi di terze parti.
Gli utenti non cliccano più sui link, non compilano moduli, non confermano punto per punto le normative, ma delegano le loro intenzioni al modello: "aiutami a trovare un fornitore", "aiutami a negoziare il prezzo", "aiutami a gestire questa collaborazione", "aiutami a decidere quale usare".
Questo significa che l'AI non è più solo un intermediario informativo, ma sta diventando l'esecutore delle azioni economiche, ma questo mondo non è ancora pronto per la struttura di fiducia più basilare per l'AI.
Nessuno sa "chi" sia, e non esiste un sistema che possa dimostrare "per chi" rappresenta.
L'ecosistema AI di oggi sembra molto vivace, ma alla base è estremamente fragile:
1) Prima rottura: identità
Un'AI dice "rappresento una persona / un'azienda / un team",
come puoi confermare che ha davvero l'autorizzazione?
È perseguibile?
Quali sono i suoi confini di autorizzazione?
Nei sistemi di oggi, un agente creato da 5 minuti e un agente che rappresenta una grande azienda non hanno praticamente alcuna differenza a livello di interazione.
Questo non è un problema di sicurezza, ma una cecità strutturale.
2) Seconda rottura: dichiarazione
L'AI sta facilitando servizi, transazioni e collaborazioni, ma "chi può fornire cosa" rimane solo testo su pagine web, PPT, PDF e chat.
Queste dichiarazioni non possono essere verificate dalle macchine e non possono essere riutilizzate su piattaforme diverse....
Principali
Ranking
Preferiti
