A minha impressão inicial sobre o modelo OSS da OpenAI está alinhada com o que eles anunciaram. Sinto que está mais próximo do o3 do que de outros modelos abertos, exceto que é muito mais rápido e barato. Alguns fornecedores oferecem-no a 3000 tokens/s, o que é insano. É definitivamente mais inteligente do que o Kimi K2, R1 e Qwen 3. Testei todos os modelos por um tempo e obtive resultados muito decisivos a favor do OpenAI-OSS-120b. Infelizmente, há uma coisa que esses modelos ainda não conseguem fazer - o meu maldito trabalho. Portanto, espero que vocês se divirtam. Estarei de volta para depurar a avaliação do λ-cálculo superposto 😭 até logo.
Às vezes, as minhas primeiras impressões não envelhecem tão bem (é por isso que partilho os meus prompts), mas posso garantir que o gpt-oss superou objetivamente os outros modelos nos meus testes iniciais. Por exemplo, considere: Dado um arquivo Haskell com erros, o gpt-oss aponta o problema exato na primeira frase (parseLst sendo recursivo à esquerda), enquanto outros modelos OSS enrolam e nem sequer *mencionam* o problema. Talvez o modelo seja bom em depuração, ou talvez a minha impressão mude com o tempo, mas os meus primeiros testes foram objetivamente a favor do gpt-oss 🤷‍♂️
dax
dax6/08/2025
everyone legit i know is having a not good time with gpt-oss so far it's useful because now when i see popular accounts say "it's so good wow" i know they are bullshitting
417,36K