Świadczymy o niebezpiecznej, ale prawie nikt nie zwraca na to uwagi: Ali Qianwen łączy 400+ produktów, stając się superaplikacją AI, a ludzie w codziennym życiu korzystają z tego AI chatboxa. Jedno okno rozmowy, które łączy wyszukiwanie, biuro, kodowanie, treści, obsługę klienta, systemy przedsiębiorstw, wtyczki, API, usługi zewnętrzne. Użytkownicy nie klikają już w linki, nie wypełniają formularzy, nie potwierdzają przepisów punkt po punkcie, lecz przekazują swoje intencje modelowi - „pomóż mi znaleźć dostawcę”, „pomóż mi negocjować cenę”, „pomóż mi zrealizować tę współpracę”, „pomóż mi zdecydować, z której firmy skorzystać”. To oznacza, że AI nie jest już tylko pośrednikiem informacji, ale staje się wykonawcą działań gospodarczych, jednak ten świat nie jest jeszcze gotowy na podstawową strukturę zaufania dla AI. Nikt nie wie, „kim ono jest”, ani nie ma systemu, który mógłby udowodnić, „kogo ono reprezentuje”. Dzisiejsza ekosystem AI wygląda na bardzo tętniący życiem, ale w rzeczywistości jest niezwykle kruchy: 1) Pierwsza warstwa pęknięcia: tożsamość AI mówi: „Reprezentuję kogoś / jakąś firmę / jakiś zespół”, jak możesz potwierdzić, że naprawdę ma upoważnienie? Czy można je pociągnąć do odpowiedzialności? Gdzie są granice jego uprawnień? W dzisiejszych systemach agent stworzony 5 minut temu i agent reprezentujący dużą firmę w interakcji nie różnią się prawie wcale. To nie jest problem bezpieczeństwa, lecz strukturalna ślepota. 2) Druga warstwa pęknięcia: oświadczenia AI pośredniczy w usługach, transakcjach i współpracy, ale „kto może co zaoferować” wciąż pozostaje jedynie tekstem na stronie internetowej, prezentacją, PDF-em, zapisami czatu. Te oświadczenia nie mogą być weryfikowane przez maszyny i nie mogą być ponownie używane na różnych platformach....