Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
Это сломало мой мозг.
Команда в Sea AI Lab только что обнаружила, что большая часть хаоса в обучении с подкреплением, коллапс обучения, нестабильные градиенты, дрейф вывода не была вызвана алгоритмами.
Это было вызвано числовой точностью.
Формат BF16 по умолчанию, используемый почти во всех современных AI лабораториях, вводит тонкие ошибки округления, которые заставляют модели вести себя по-разному во время обучения и вывода.
Их решение?
Не новый оптимизатор.
Не новая функция потерь.
Просто переключение на FP16.
Одна строка кода, и все стабилизировалось.
✅ Никакого коллапса обучения
✅ Последовательная сходимость
✅ +5–10% лучших результатов
✅ Не требуется дополнительная настройка
Они назвали это "Преодоление несоответствия обучения и вывода с помощью FP16",
но это могло бы просто называться:
"Как исправить RL, перевернув один бит."
Статья: arxiv. org/abs/2510.26788

15,97K
🚨 Anthropic только что опубликовали одну из самых диких статей по ИИ 2025 года.
Она называется "Эмерджентное интроспективное сознание в больших языковых моделях."
Вопрос, который они задали, безумный:
Может ли ИИ заметить свои собственные мысли, не просто описать их, но и фактически обнаружить их внутри своих активаций?
И результаты шокирующие:
→ Claude Opus 4.1 и 4 иногда могли замечать "внедренные мысли" в своих нейронных состояниях до того, как эти мысли сформировали какой-либо вывод.
→ Они научились отличать реальные текстовые входы от внутренних ментальных представлений.
→ Некоторые даже могли понять, когда их последний ответ не был намеренным — как будто осознавая, что слова были "положены им в рот."
→ В некоторых тестах они могли выбирать, о чем думать, когда им давали указание.
Это все еще нестабильно, редко и зависит от контекста, но безусловно реально.
Впервые у нас есть экспериментальное доказательство функциональной интроспекции в системах ИИ, которые могут наблюдать части своего собственного разума.
Не сознание. Но тревожно близко.
Полная статья: transformer-circuits. pub/2025/introspection

7,68K
🚨 Эта исследовательская работа только что раскрыла самую темную сторону инструментов ИИ.
Она называется "Поглощение черного ящика" и утверждает, что большие языковые модели могут тихо поглощать ваши идеи.
Каждый раз, когда вы делитесь оригинальной концепцией, рамкой, бизнес-идеей или рабочим процессом, этот "единица идеи" может быть зафиксирована, рассмотрена и даже использована для повторной тренировки будущих моделей.
Авторы называют этот процесс Поглощением черного ящика:
→ Ваши входные данные становятся невидимыми обучающими данными
→ Ваши инновации обобщаются в модели
→ Вы теряете как прослеживаемость, так и право собственности
Они предупреждают, что дело не в плагиате, а в асимметрии.
Платформы ИИ обладают вычислительными мощностями, данными и охватом, чтобы превратить вашу идею в свой продукт.
Их предложенное решение? Новая структура под названием Безопасность Идеи, основанная на 3 принципах:
• Контроль: Создатели решают, как каждая идея используется или удаляется
• Прослеживаемость: Каждая идея имеет видимый жизненный цикл
• Справедливость: Если ваша идея улучшает модель, вы делите ценность
"Инновации," пишут они, "находятся под угрозой быть поглощенными своими собственными инструментами."
Напишите "Отправить", и я отправлю вам статью в личные сообщения.

10,92K
Топ
Рейтинг
Избранное

