Den senaste tidens AI-förgiftningsproblem illustrerar behovet av AI-verifierbarhet, särskilt när AI går in i kritiska beslut och känsliga områden, vilket är mer uppenbart och är naturligt lämpligt för krypto. AI-förgiftning sker främst på nivån för träningsdata eller modeller: angripare injicerar skadliga data, vilket gör att modellen ger fel eller skadliga resultat, vilket skiljer sig avsevärt från AI-hallucinationer, som kan vara kontrollerade eller illvilligt styrda. Verifierbara scheman som tillhandahålls av Crypto, såsom EigenCloud, säkerställer vanligtvis att inferensprocessen är deterministisk och genererar bevis. Användare kan utföra slutsatsdragning igen och verifiera att utdata matchar den förväntade modellen och indata. Även om det inte direkt kan blockera förgiftning uppströms, kan det minska skadorna på ett bevisat sätt. Detta är den mest logiska AI+Crypto-historien för närvarande.