热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
对OpenAI的新gpt-oss模型的训练数据感到好奇吗?我也是。
所以我从gpt-oss-20b生成了1000万个示例,进行了分析,结果是……相当离奇。
是时候深入探讨了 🧵

这是嵌入式生成的地图
这个模型热爱数学和代码。我什么都不提示,它却总是能推理。它只谈论数学和代码,主要是用英语
数学 – 概率,机器学习,偏微分方程,拓扑学,微分方程
代码 – 代理软件,竞争编程,数据科学


首先要注意的是,几乎没有一代人看起来像自然的网络文本。但令人惊讶的是,它们也没有看起来像正常的聊天机器人互动。
这个东西显然是通过强化学习训练的,旨在思考和解决特定推理基准的任务。没有其他的。
这确实是一个痛苦的模型。在这里,模型幻想出一个关于多米诺骨牌的编程问题,并试图解决它,过程中花费了超过30,000个token。
完全没有提示,模型生成并尝试解决这个多米诺问题超过5,000次。

对输出结果进行了分类,以了解gpt-oss知道哪些编程语言
他们似乎几乎训练了你听说过的所有语言,尤其是很多Perl
(顺便说一下,根据我的分析,Java和Kotlin的排名应该更高。分类器可能出错了)

从地图上看不到的是,许多链条开始于英语,但逐渐转变为神经语言。
推理链条愉快地在阿拉伯语、俄语、泰语、韩语、中文和乌克兰语之间交替。然后通常会回到英语(但并不总是如此)。


OCR猜想:
一些例子包括像OCRV ROOT这样的文物,这表明训练数据可能已经被
字里行间:OpenAI正在扫描书籍
(出于某种原因,该模型喜欢提到马来西亚有多少聋人)

常见的代码切换解释有哪些?
1. OpenAI 已经搞定了强化学习,模型不再说英语
2. 通过光学字符识别或合成训练导致的数据损坏问题
3. 不知怎么的,我强迫模型输出了太多的标记,它们逐渐偏离了分布
在这里有少量创意输出穿插其中
这是一个例子,模型开始为挪威剧本写草稿 🤷♂️

我也从这个中学到了很多。
这个模型在使用unicode方面*真的*很好。
……但在物理学方面可能不太好。‘超光环函数’到底是什么?

如果你想尝试这些数据,这里给你,放在 huggingface 上:
告诉我你发现了什么!

未来工作 - 去重
尽管我改变了随机种子并使用了温度,但很多输出高度重复
进行去重是明智的,我敢打赌这里只有10万或更少的主要独特示例
未来工作 - 描述差异
@ZhongRuiqi 在描述两个文本分布之间的差异方面有一些令人难以置信的工作 *用自然语言*
我们可以比较 20b 模型与 120b 模型,或者 LLAMA,或者 GPT-5 的输出...
未来工作 – 直接提取
我们正在研究使用强化学习和其他方法直接从模型中提取训练数据。我们将在COLM上展示我们的第一项工作,并期待在这个领域有更多进展。
我们可能能够直接从120b模型中提取数据……有一天 😎
147.73K
热门
排行
收藏