Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Моє початкове враження від моделі OSS від OpenAI збігається з тим, що вони рекламували. Він відчувається ближче до o3, ніж до інших відкритих моделей, за винятком того, що він набагато швидший і дешевший. Деякі провайдери пропонують його по 3000 токенів/с, що є божевіллям. Він однозначно розумніший за Kimi K2, R1 і Qwen 3. Я трохи протестував усі моделі, і отримав дуже рішучі результати на користь OpenAI-OSS-120b.
На жаль, є одна річ, яку ці моделі поки не вміють - моя чортова робота. Отже, сподіваюся, хлопці, вам буде весело. Я повернуся до налагодження обчислення 😭 λ-обчислення з накладенням, до зустрічі
Іноді мої ранні враження старіють не так добре (тому я ділюся своїми підказками), але я можу гарантувати, що gpt-oss об'єктивно перевершив інші моделі на моїх початкових тестах. Наприклад, розглянемо:
Маючи помилковий файл Haskell, gpt-oss вказує на точну проблему в першому ж реченні (parseLst є ліво-рекурсивним), тоді як інші моделі OSS сильно дурять і навіть не *згадують* проблему.
Можливо, модель виявиться хорошою в налагодженні, а може моє враження з часом зміниться, але мої перші тести були об'єктивно на користь gpt-oss 🤷 ♂️

6 серп., 03:48
Усі, кого я знаю, поки що не дуже добре справляються з GPT-OSS
Це корисно, тому що зараз, коли я бачу, як популярні акаунти кажуть «це так добре, вау», я знаю, що вони дурні
417,32K
Найкращі
Рейтинг
Вибране