Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Ми беремо участь у перегонах. Це не США проти Китаю, а люди та централізація влади AGI проти мавп.
@deepseek_ai Стан #1, 2023–Глибокий час
«C'est la guerre». ®1
> старший науковий співробітник @BrookingsInst, раніше головний економіст @IIF та головний валютний стратег @GoldmanSachs
> навіть не думав перевіряти, скільки насправді втратив Китай обсягів експорту (не багато)
США знаходяться на стадії компетенції карго-культингу. Акредитовані мавпи в костюмах


Robin Brooks10 годин тому
Якщо ви коли-небудь хотіли отримати докази того, що китайські дані повністю вигадані, зараз саме час для цієї точки зору. США запровадили величезні додаткові мита для Китаю на початку цього року. Але зростання ВВП Китаю (чорне) є непохитним, а індекс ділової активності також виглядає підозріло стабільним. Це вигадка...

1,06K
> 270 токенів Huggingface
Путін благає... Крінж, це боляче...

Peter Wildeford (hiring!) 🇺🇸🚀3 години тому
Перше відоме використання адаптивного шкідливого програмного забезпечення, яке включає LLM у методологію атаки

1,11K
ніколи не знав, що Джек Ма провів 5 років у таборі перевиховання
лише за критику регулювання. Божевільні речі

Bad Hombre10 серп., 03:05
Він був викрадений КПК, відправлений в табір перевиховання на 5 років, позбавлений багатства і змушений поступитися більшою частиною своїх активів державі за критику державного регулювання.
6,02K
У війнах між джентльменами, принаймні. На кожній землі, де оселилися англомовці, так сталося, що місцеві жителі стали історичною приміткою.
Каміль гірко ставиться до завоювання Казані в 1552 році. І все ж у 2025 році Казань – татарське місто, одне з найпрекрасніших у Росії. Чи є міста Сіу?

Kamil Galeev13 годин тому
Знищення і знищення переможеної сторони є більш-менш загальноприйнятою нормою
Не робити нічого з цього, демонструючи стриманість і поміркованість навіть у перемозі, є англомовним генієм і головною моральною чеснотою англомовців, яку насправді не поділяє решта людства

2,33K
Діаспори і мафії – це в принципі одне й те саме. Немає сенсу говорити про діаспори некланових народів, таких є більшість громад за кордоном. Наприклад, в Аргентині немає «російської діаспори», є лише кількість окремих росіян.
Пакистанці є діаспорними.

Jonatan Pallesen9 серп., 23:42
Це дійсно найважливіший висновок про пакистанських іммігрантів.
Важко до кінця осягнути, наскільки чужою і жахливою є їхня культура.

2,53K
відповідь полягає в тому, що розумний маршрутизатор GPT-5 став проривом в економіці висновків LLM. OpenAI, ймовірно, подвоїла своє співвідношення прибутку та витрат з його допомогою, порівняно з простою подачею контрольованого користувачем поєднання o3 та o4-mini. Чим більше ви зможете передати тупим моделям, тим більше заощадите.

Teknium (e/λ)10 годин тому
Чому це правильний крок? Серйозно?
1. Моделі вже більше думають для більш складних завдань в режимі міркування.
2. Ви просто завжди можете попросити його намагатися міркувати, тоді він ніколи не підведе вас, якщо це буде потрібно.
3. У будь-який момент, коли відповідь незадовільна, якщо у вас не було міркувань, ви можете просто включити її.
Чому це варте стільки зусиль? Які реальні переваги позбавлення користувачів контролю над ситуацією? Чому вони так категорично ставляться до цього?
17,38K
Я вже не знаю, що означають «домен» або «в дистрибуції». Очевидно, що LLM узагальнюються за межами конкретних прикладів.
Це буквально про латентні репрезентації, які прив'язані до конкретних токенів, щось на кшталт того, як люди внутрішньо перекладають речі на першу мову, яку вони вивчають?


steve hsu10 годин тому
Маск: Стів, справжнє питання, яке я постійно ставлю команді, полягає в тому, чи можуть сьогоднішні LLM міркувати, коли вони залишають розподіл тренувань. Усі посилаються на підказки ланцюжка думок, але це може бути лише мімікрія.
Хсу: Згоден. Останні тести показують, що навіть моделі рівня Grok4 різко деградують, як тільки ви форсуєте зсув домену — латентний простір просто не охоплює нову модальність.
Маск: Тобто це скоріше проблема висвітлення, ніж провал міркувань?
Хсу: Частково. Але є більш глибока проблема. Єдиним вбудованим індуктивним зміщенням трансформатора є асоціативне зіставлення шаблонів . Коли підказка дійсно не розподіляється — скажімо, символічна головоломка, чиї токени ніколи не виникали під час тренування — модель не має структури, до якої можна було б повернутися. Він буквально підкидає монети.
Маск: Проте ми бачимо появу «грокінгу» на синтетичних завданнях. Zhong et al. показали, що індукційні головки можуть складати правила, за якими вони ніколи не були явно навчені. Хіба це не схоже на міркування?
Хсу: Композиція купує вам обмежене узагальнення, але правила все одно повинні лежати в межах навчальної граматики. Як тільки ви налаштуєте семантику — зміните один оператор у головоломці — точність падає. Це не є переконливим міркуванням; Це крихка інтерполяція.
Маск: Чи не може навчання з підкріпленням виправити це? DRG-Sapphire використовував GRPO поверх базової моделі 7 B і отримав кодування медичного рівня на клінічних записах, що є класичним завданням OOD.
Хсу: Заковика в тому, що RL працює лише після того, як базова модель засвоїла достатньо знань про предметну область за допомогою контрольованого тонкого налаштування. Коли передтренувальний корпус розріджений, тільки РЛ виходять на плато. Таким чином, «міркування» все ще паразитує на щільності попередніх знань.
Маск: Тобто ваш висновок полягає в тому, що масштабування даних і параметрів не вирішить проблему? Ми завжди будемо вдарятися об стіну, де наступний домен OOD ламає модель?
Хсу: Не обов'язково стіна, а стеля. Емпіричні криві свідчать про те, що помилка узагальнення приблизно логарифмічно зменшується з навчальними прикладами . Це означає, що вам потрібно експоненціально більше даних для кожного нового розподілу хвоста. Для вузьких вертикалей — скажімо, діагностики ракетних двигунів — дешевше запікати в символічних пріорах, ніж масштабувати наосліп.
Маск: Що повертає нас до нейросимволічних гібридів. Надайте LLM доступ до невеликого перевіреного розв'язувача, а потім дозвольте йому організовувати виклики, коли розподіл змінюється.
Хсу: Саме так. LLM стає мета-контролером, який розпізнає, коли він OOD, і передає його спеціалізованому модулю. Ця архітектура обходить помилку «одного гігантського трансформера».
Маск: Гаразд, я скажу команді xAI припинити гонитву за черговим трильйоном токенів і почати будувати рівень маршрутизації. Дякую, Стів.
Хсу: У будь-який час. І якщо вам потрібні тести синтетичного OOD, у моїй лабораторії є генератор, який вже обдурив GPT-5. Я надішлю репозиторій.
Ця розмова з Ілоном може бути згенерована штучним інтелектом.

3,01K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги