“Единственный способ гарантировать, что система ИИ работает правильно, - это криптографическая безопасность - доказательства с нулевым разглашением по выводу являются основой проверяемого интеллекта.” - @Ismael_H_R, основатель @lagrangedev На мероприятии по проверке интеллекта @token2049 Исмаэль объяснил, как DeepProve от Lagrange математически доказывает, что вывод модели - фактические вычисления, которые генерируют результат - были выполнены правильно, не раскрывая веса модели, конфиденциальные данные или входные данные. Это переводит ИИ из доверительной модели в криптографически проверяемую, где правильность, конфиденциальность и справедливость могут быть доказаны, а не предположены. ZK переносит ИИ в тот же парадигмальный сдвиг, который блокчейны когда-то принесли финансам: от доверия к учреждениям к доверию к математике. Так мы уходим от “черного ящика” ИИ к системам, которые могут быть независимо проверены - это важный шаг к безопасной, поддающейся аудиту автономии. Смотрите полную панель в партнерстве с @googlecloud и @boundless_xyz, чтобы узнать, как Lagrange и другие определяют уровень проверки для следующего поколения интеллектуальных систем: