Моє початкове враження від моделі OSS від OpenAI збігається з тим, що вони рекламували. Він відчувається ближче до o3, ніж до інших відкритих моделей, за винятком того, що він набагато швидший і дешевший. Деякі провайдери пропонують його по 3000 токенів/с, що є божевіллям. Він однозначно розумніший за Kimi K2, R1 і Qwen 3. Я трохи протестував усі моделі, і отримав дуже рішучі результати на користь OpenAI-OSS-120b. На жаль, є одна річ, яку ці моделі поки не вміють - моя чортова робота. Отже, сподіваюся, хлопці, вам буде весело. Я повернуся до налагодження обчислення 😭 λ-обчислення з накладенням, до зустрічі
Іноді мої ранні враження старіють не так добре (тому я ділюся своїми підказками), але я можу гарантувати, що gpt-oss об'єктивно перевершив інші моделі на моїх початкових тестах. Наприклад, розглянемо: Маючи помилковий файл Haskell, gpt-oss вказує на точну проблему в першому ж реченні (parseLst є ліво-рекурсивним), тоді як інші моделі OSS сильно дурять і навіть не *згадують* проблему. Можливо, модель виявиться хорошою в налагодженні, а може моє враження з часом зміниться, але мої перші тести були об'єктивно на користь gpt-oss 🤷 ♂️
dax
dax6 серп., 03:48
Усі, кого я знаю, поки що не дуже добре справляються з GPT-OSS Це корисно, тому що зараз, коли я бачу, як популярні акаунти кажуть «це так добре, вау», я знаю, що вони дурні
417,32K