Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
.@balajis говорит, что ИИ расширяет разрыв верификации. Потребуется огромное количество рабочих мест, чтобы его закрыть.
Промпты заполняют мир подделками. Криптовалюта возвращает доказательства.
"Вам понадобятся криптографически хэшированные посты и крипто ID ... чтобы знать, что данные не были подделаны."
В эпоху ИИ доверие должно быть спроектировано.

5 июн. 2025 г.
Хороший пост от @balajis о "разрыве верификации".
Вы можете рассматривать это как наличие двух режимов в создании. Заимствуя терминологию GAN:
1) генерация и
2) дискриминация.
Например, живопись - вы делаете мазок кистью (1), а затем некоторое время смотрите, улучшили ли вы картину (2). Эти два этапа переплетаются практически во всех творческих работах.
Второй момент. Дискриминация может быть вычислительно очень сложной.
- изображения, безусловно, самые простые. Например, команды генераторов изображений могут создавать гигантские сетки результатов, чтобы определить, является ли одно изображение лучше другого. Спасибо гигантскому GPU в вашем мозге, созданному для быстрого обработки изображений.
- текст гораздо сложнее. Его можно просмотреть, но нужно читать, он семантический, дискретный и точный, поэтому вам также нужно рассуждать (особенно, например, в коде).
- аудио, возможно, даже сложнее, на мой взгляд, потому что оно требует временной оси, поэтому его даже нельзя просмотреть. Вы вынуждены тратить последовательные вычисления и не можете параллелизовать это вообще.
Можно сказать, что в кодировании LLM сократили (1) до ~мгновенного, но сделали очень мало, чтобы решить (2). Человеку все равно нужно смотреть на результаты и дискриминировать, хороши ли они. Это моя основная критика кодирования LLM в том, что они бездумно выдают *слишком* много кода за запрос с произвольной сложностью, притворяясь, что этапа 2 не существует. Получение такого количества кода плохо и страшно. Вместо этого LLM должно активно работать с вами, чтобы разбить проблемы на маленькие поэтапные шаги, каждый из которых легче проверить. Оно должно предвидеть вычислительную работу (2) и уменьшать ее как можно больше. Оно должно действительно заботиться.
Это приводит меня, вероятно, к самому большому недопониманию, которое не-кодеры имеют о кодировании. Они думают, что кодирование - это написание кода (1). Это не так. Это о том, чтобы смотреть на код (2). Загружать его в свою рабочую память. Ходить взад и вперед. Обдумывать все крайние случаи. Если вы поймаете меня в случайный момент, когда я "программирую", я, вероятно, просто смотрю на экран и, если меня прервут, действительно злюсь, потому что это так вычислительно напряженно. Если мы только ускорим 1, но не уменьшим 2 (что происходит большую часть времени!), тогда, очевидно, общая скорость кодирования не улучшится (см. закон Амдаля).
488,03K
Топ
Рейтинг
Избранное