Моє початкове враження від моделі OSS від OpenAI збігається з тим, що вони рекламували. Він відчувається ближче до o3, ніж до інших відкритих моделей, за винятком того, що він набагато швидший і дешевший. Деякі провайдери пропонують його по 3000 токенів/с, що є божевіллям. Він однозначно розумніший за Kimi K2, R1 і Qwen 3. Я трохи протестував усі моделі, і отримав дуже рішучі результати на користь OpenAI-OSS-120b. На жаль, є одна річ, яку ці моделі поки не вміють - моя чортова робота. Отже, сподіваюся, хлопці, вам буде весело. Я повернуся до налагодження обчислення 😭 λ-обчислення з накладенням, до зустрічі
Іноді мої ранні враження старіють не так добре (тому я ділюся своїми підказками), але я можу гарантувати, що gpt-oss об'єктивно перевершив інші моделі на моїх початкових тестах. Наприклад, розглянемо: Маючи помилковий файл Haskell, gpt-oss вказує на точну проблему в першому ж реченні (parseLst є ліво-рекурсивним), тоді як інші моделі OSS сильно дурять і навіть не *згадують* проблему. Можливо, модель виявиться хорошою в налагодженні, а може моє враження з часом зміниться, але мої перші тести були об'єктивно на користь gpt-oss 🤷 ♂️
dax
dax6 серп. 2025 р.
everyone legit i know is having a not good time with gpt-oss so far it's useful because now when i see popular accounts say "it's so good wow" i know they are bullshitting
417,43K