Moje pierwsze wrażenie na temat modelu OSS OpenAI jest zgodne z tym, co reklamowali. Rzeczywiście wydaje się bliższy o3 niż innym otwartym modelom, z wyjątkiem tego, że jest znacznie szybszy i tańszy. Niektórzy dostawcy oferują go z prędkością 3000 tokenów/s, co jest szalone. Zdecydowanie jest mądrzejszy niż Kimi K2, R1 i Qwen 3. Testowałem wszystkie modele przez chwilę i uzyskałem bardzo jednoznaczne wyniki na korzyść OpenAI-OSS-120b. Niestety, jest jedna rzecz, której te modele jeszcze nie potrafią - mojej przeklętej pracy. Mam nadzieję, że będziecie się dobrze bawić. Wrócę do debugowania superpozycji oceny λ-kalkulacji 😭 do zobaczenia.
Czasami moje wczesne wrażenia nie starzeją się zbyt dobrze (dlatego dzielę się swoimi podpowiedziami), ale mogę zagwarantować, że gpt-oss obiektywnie przewyższył inne modele w moich początkowych testach. Na przykład, rozważ: Dany błędny plik Haskell, gpt-oss wskazuje dokładny problem w pierwszym zdaniu (parseLst jest leworekurencyjny), podczas gdy inne modele OSS mocno się mylą i nawet nie *wspominają* o tym problemie. Może model jest po prostu dobry w debugowaniu, a może moje wrażenie zmieni się z czasem, ale moje pierwsze testy były obiektywnie na korzyść gpt-oss 🤷‍♂️
dax
dax6 sie 2025
wszyscy, których znam, mają dość kiepski czas z gpt-oss jak na razie jest to przydatne, ponieważ teraz, gdy widzę popularne konta mówiące "to takie dobre, wow", wiem, że kłamią
417,36K