Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ben je nieuwsgierig naar de trainingsdata van OpenAI's nieuwe gpt-oss modellen? Ik ook.
Dus ik genereerde 10 miljoen voorbeelden van gpt-oss-20b, voerde wat analyses uit, en de resultaten waren... behoorlijk bizar.
tijd voor een diepgaande analyse 🧵

hier is een kaart van de ingebedde generaties
de model houdt van wiskunde en code. ik geef geen input en toch redeneert het altijd. het praat gewoon over wiskunde en code, en meestal in het Engels
wiskunde – waarschijnlijkheid, ML, PDE's, topologie, differentiaalvergelijkingen
code – agentische software, competitieve programmering, datawetenschap


het eerste wat opvalt, is dat praktisch geen van de generaties lijkt op natuurlijke webtekst. maar verrassend genoeg lijken geen van hen ook op normale chatbot-interacties.
dit ding is duidelijk getraind via RL om te denken en taken op te lossen voor specifieke redeneerbenchmarks. niets anders.
en het is echt een getormenteerd model. hier hallucineert het model een programmeerprobleem over dominostenen en probeert het dit op te lossen, waarbij het meer dan 30.000 tokens verbruikt in het proces
volledig ongeprompt, genereerde het model en probeerde het dit dominoprobleem meer dan 5.000 keer op te lossen

heeft een classifier over de outputs uitgevoerd om een idee te krijgen van welke programmeertalen gpt-oss kent
dit lijkt bijna alles te zijn waar je ooit van gehoord hebt. vooral veel Perl
(tussen haakjes, uit mijn analyse zouden Java en Kotlin veel hoger moeten zijn. de classifier kan fout zijn gegaan)

wat je niet op de kaart kunt zien, is dat veel van de ketens beginnen in het Engels maar langzaam overgaan in Neuralese
de redeneerketens wisselen vrolijk af tussen Arabisch, Russisch, Thais, Koreaans, Chinees en Oekraïens. Daarna maken ze meestal weer de weg terug naar het Engels (maar niet altijd)


de OCR-conjectuur:
enkele voorbeelden zijn artefacten zoals OCRV ROOT, die aangeven dat de trainingsdata mogelijk is geweest
tussen de regels door lezen: OpenAI scant boeken
(om de een of andere reden houdt het model ervan om te vermelden hoeveel dove mensen in Maleisië wonen)

wat zijn enkele verklaringen voor constante codeswitching?
1. OpenAI heeft RL uitgevogeld. de modellen spreken niet langer Engels
2. problemen met gegevenscorruptie via OCR of synthetische training
3. op de een of andere manier heb ik het model gedwongen om te veel tokens uit te geven en ze verschuiven geleidelijk uit de distributie
er zijn een klein aantal creatieve uitingen verspreid over
hier is een voorbeeld waar het model begint met het schrijven van een sketch voor een Noorse film 🤷♂️

ik heb ook veel geleerd van deze.
de model is *echt* goed in het gebruik van unicode
...maar kan slecht zijn in natuurkunde. wat in hemelsnaam is een 'superhalo functie'

als je de gegevens wilt uitproberen, hier heb je het, het staat op huggingface:
laat me weten wat je vindt!

TOEKOMSTIG WERK – deduplicatie
dat ik de willekeurige zaadvariatie en temperatuur heb gebruikt, zijn veel van de uitkomsten zeer redundant
het zou verstandig zijn om te dedupliceren, ik wed dat er hier slechts 100k of minder grotendeels unieke voorbeelden zijn
TOEKOMSTIG WERK – beschrijven van verschillen
@ZhongRuiqi heeft geweldig werk verricht over methoden om het verschil tussen twee tekstdistributies *in natuurlijke taal* te beschrijven.
we zouden de output van het 20b-model kunnen vergelijken met het 120b-model, of LLAMA, of GPT-5...
TOEKOMSTIG WERK – directe extractie
we werken aan het direct extraheren van trainingsdata uit modellen met behulp van RL en andere methoden. we zullen ons eerste werk hierover presenteren op COLM, en verwachten meer in deze ruimte.
we kunnen misschien data direct extraheren uit het 120b-model.. op een dag 😎
147,74K
Boven
Positie
Favorieten