Mi impresión inicial sobre el modelo OSS de OpenAI está alineada con lo que anunciaron. Se siente más cercano a o3 que a otros modelos abiertos, excepto que es mucho más rápido y barato. Algunos proveedores lo ofrecen a 3000 tokens/s, lo cual es una locura. Definitivamente es más inteligente que Kimi K2, R1 y Qwen 3. Probé todos los modelos un poco y obtuve resultados muy decisivos a favor de OpenAI-OSS-120b. Desafortunadamente, hay una cosa que estos modelos aún no pueden hacer: mi maldito trabajo. Así que, espero que ustedes se diviertan. Volveré a depurar la evaluación de λ-cálculo superpuesto 😭 nos vemos.
A veces, mis primeras impresiones no envejecen tan bien (por eso comparto mis indicaciones), pero puedo garantizar que gpt-oss superó objetivamente a los otros modelos en mis pruebas iniciales. Por ejemplo, considera: Dado un archivo Haskell con errores, gpt-oss señala el problema exacto en la primera frase (parseLst siendo recursivo a la izquierda), mientras que otros modelos OSS divagan mucho y ni siquiera *mencionan* el problema. Quizás el modelo resulta ser bueno para depurar, o quizás mi impresión cambiará con el tiempo, pero mis primeras pruebas fueron objetivamente a favor de gpt-oss 🤷‍♂️
dax
dax6 ago 2025
everyone legit i know is having a not good time with gpt-oss so far it's useful because now when i see popular accounts say "it's so good wow" i know they are bullshitting
417,43K