Krypto som ett verifierbart substrat för AI har funnits länge. Det har tagit sig många olika former. Hot take, men här är varför im fortfarande baisse (tyvärr): Affärsmodellerna för etablerade AI-företag är strukturellt felanpassade till verifierbarhet OpenAI, Anthropic, Meta AI, Xai, Perplexity, etc. drar nytta av kontroll över dessa Black Box-system, undvikande av ansvarsskyldighet och massantagande av deras produkter/resultat. Verifierbarhet hotar alla dessa saker argument (och mina motargument) "Vi ska bara bygga verifierbara AI-system" >Ja, 100 procent, men låt oss vara lite mer pragmatiska här... Verifiering handlar inte bara om tekniska standarder, det handlar om vem som kontrollerar infrastrukturen. Idag har vi företag som Prime Intellect som satsar på att det enda sättet att närma sig detta är att bygga om hela stacken (träning, inferens, distribution) för att få meningsfull verifiering. Att skruva på verifiering på befintliga centraliserade system kommer aldrig att fungera, eftersom monopolister aldrig frivilligt skulle minska sin marknadsmakt. Med det sagt är det tekniska gapet enormt där dessa decentraliserade AI-infrastrukturföretag utkämpar ett tvåfrontskrig. De måste matcha den befintliga modellens kvalitet samtidigt som de löser verifieringsproblemet. Många av dessa projekt är fortfarande bevis på koncept som fungerar med modeller i mindre skala (max tiotals miljarder i stället för många hundra miljarder) som inte kan hantera verklig skala "Företag vill ha verifiering" >Etablerade företag kan uppfylla dessa krav med sina egna kontrollerade, privata intyg och kräver inte offentliga blockkedjor med mer overhead. Enterprise Rev är ändå liten i förhållande till massmarknadskonsument-AI "Konsumenterna kommer att bry sig om förtroende och ursprung" >Historiskt sett betalar människor aldrig för förtroende om det inte är ett katastrofalt misslyckande. Även då kanske folk fortfarande inte bryr sig. Viraliteten av desinformation konkurrerar ut kostnaden för sanning. Vi har blivit hjärntvättade att tänka på det här sättet sedan internets begynnelse. När jag tänker på det kommer de flesta användare inte ens att veta vad verkligt förtroende och härkomst betyder. om det finns ett proprietärt märke för en utdata som "verifierad av OpenAI", förstärker detta plattformens inlåsning, inte slutanvändarens byrå. Förtroende kommer bara att tjäna pengar på plattformar, inte som offentlig infrastruktur "Regleringen kommer att tvinga dem att göra det" > förmodligen det mest realistiska scenariot, men bara om verkställigheten är globalt konsekvent (LOL no shot). Och låt oss vara ärliga, påtryckningar från dessa etablerade företag kommer att resultera i svaga standarder. Återigen kommer vi att få en värld där det kommer att finnas stängda implementeringar som kryssar i en ruta för tillsynsmyndigheter Så detta är allt för att säga, de enheter som kan genomföra verifiering i stor skala har inget incitament att göra det och de enheter som utmanar dem saknar resurser för att konkurrera på kort sikt
a16z
a16z29 juli 2025
.@balajis says AI is widening the verification gap. A massive number of jobs will be needed to close it. Prompting floods the world with fakes. Crypto brings back proof. “You're gonna need cryptographically hashed posts and crypto IDs ... to know the data wasn't tampered with.” In the AI era, trust has to be engineered.
3,07K