OpenAI は、120B と 20B の 2 つのサイズのオープンウェイト安全推論モデルである gpt-oss-safeguard (研究プレビュー) をリリースしました TL;博士 推論優先の安全ツール: このモデルは、推論時に開発者が提供するポリシーを採用し、思考連鎖を使用してコンテンツを分類し、その決定を説明します。 - Bring-your-own-policy: 実行時に書面によるポリシーを適用します。ルール変更ごとに分類子を再トレーニングする必要はありません。 - 説明可能なラベル: モデルは、コンテンツに特定の方法でラベルを付けた理由を理解するために検査できる思考連鎖の推論を返します。 - 最適なユースケース: 新たなまたは進化する害、非常に微妙なドメイン、ラベル付けされた例がほとんどない状況。 - トレードオフ: 従来の分類器よりも高いコンピューティングと遅延。複雑なリスクの多くのラベル付き例でトレーニングされたタスク固有の分類器よりも優れている可能性があります。 ライセンスとダウンロード: - Apache 2.0 (寛容)。 - Hugging Faceからダウンロードできるモデル。