Minha impressão inicial sobre o modelo OSS da OpenAI está alinhada com o que eles anunciaram. Parece mais próximo do o3 do que de outros modelos abertos, exceto que é muito mais rápido e barato. Alguns provedores oferecem a 3000 tokens/s, o que é insano. É definitivamente mais inteligente que Kimi K2, R1 e Qwen 3. Testei todos os modelos um pouco e obtive resultados muito decisivos a favor do OpenAI-OSS-120b. Infelizmente, há uma coisa que esses modelos ainda não podem fazer - meu maldito trabalho. Então, espero que vocês se divirtam. Voltarei à depuração da avaliação 😭 de cálculo λ sobreposto, até mais
Às vezes, minhas primeiras impressões não envelhecem tão bem (é por isso que compartilho minhas instruções), mas posso garantir que o gpt-oss superou objetivamente os outros modelos em meus testes iniciais. Por exemplo, considere: Dado um arquivo Haskell com bugs, gpt-oss aponta o problema exato na primeira frase (parseLst sendo recursivo à esquerda), enquanto outros modelos OSS fazem besteira e nem mesmo *mencionam* o problema. Talvez o modelo seja bom em depuração, ou talvez minha impressão mude com o tempo, mas meus primeiros testes foram objetivamente a favor do gpt-oss 🤷 ♂️
dax
dax6 de ago. de 2025
everyone legit i know is having a not good time with gpt-oss so far it's useful because now when i see popular accounts say "it's so good wow" i know they are bullshitting
417,43K