Isso é exatamente o que estamos construindo no OpenLedger. A prova de atribuição nos ajuda a citar fontes de IA on-chain e recompensá-las cada vez que seus dados são usados em uma inferência de IA. O que torna os modelos ou agentes de IA criados com base no OpenLedger mais poderosos é que a explicabilidade é habilitada por padrão. Isso não apenas nos permite identificar as fontes, mas também mostra por que a IA tomou cada decisão, tornando-a mais confiável.
a16z
a16z29 de jul. de 2025
.@balajis diz que a IA está ampliando a lacuna de verificação. Um grande número de empregos será necessário para fechá-lo. Provocar inunda o mundo com falsificações. A criptografia traz de volta a prova. "Você vai precisar de postagens com hash criptográfico e IDs criptográficos ... para saber que os dados não foram adulterados." Na era da IA, a confiança precisa ser projetada.
39,68K