La mia impressione iniziale sul modello OSS di OpenAI è in linea con ciò che hanno pubblicizzato. Sembra davvero più vicino a o3 rispetto ad altri modelli open, tranne che è molto più veloce e più economico. Alcuni fornitori lo offrono a 3000 token/s, il che è pazzesco. È decisamente più intelligente di Kimi K2, R1 e Qwen 3. Ho testato tutti i modelli per un po' e ho ottenuto risultati molto decisivi a favore di OpenAI-OSS-120b. Sfortunatamente, c'è una cosa che questi modelli non possono ancora fare - il mio dannato lavoro. Quindi, spero che vi divertiate. Tornerò a fare debug della valutazione del λ-calcolo sovrapposto 😭 ci vediamo.
A volte le mie prime impressioni non invecchiano così bene (ecco perché condivido i miei suggerimenti), ma posso garantire che gpt-oss ha battuto oggettivamente gli altri modelli nei miei test iniziali. Ad esempio, considera: Data una file Haskell con bug, gpt-oss indica esattamente il problema nella prima frase (parseLst è ricorsivo a sinistra), mentre altri modelli OSS blaterano e non *menzionano* nemmeno il problema. Forse il modello è particolarmente bravo nel debugging, oppure la mia impressione cambierà nel tempo, ma i miei primi test erano oggettivamente a favore di gpt-oss 🤷‍♂️
dax
dax6 ago, 03:48
tutti quelli che conosco e che sono legittimi stanno passando un brutto momento con gpt-oss finora è utile perché ora quando vedo account popolari dire "è così buono wow" so che stanno mentendo
410,39K