A OpenAI lançou gpt-oss-safeguard (visualização da pesquisa), modelos de raciocínio de segurança de peso aberto em dois tamanhos: 120B e 20B TL; DR Uma ferramenta de segurança que prioriza o raciocínio: o modelo usa uma política fornecida pelo desenvolvedor na inferência e usa a cadeia de pensamento para classificar o conteúdo e explicar sua decisão. - Traga sua própria política: aplique qualquer política escrita em tempo de execução; Não há necessidade de treinar novamente um classificador para cada alteração de regra. - Rótulos explicáveis: o modelo retorna um raciocínio de cadeia de pensamento que você pode inspecionar para entender por que ele rotulou o conteúdo de uma determinada maneira. - Melhores casos de uso: danos emergentes ou em evolução, domínios altamente diferenciados e situações com poucos exemplos rotulados. - Compensações: maior computação e latência do que os classificadores tradicionais; podem ser superados por classificadores específicos de tarefas treinados em muitos exemplos rotulados para riscos complexos. Licença e download: - Apache 2.0 (permissivo). - Modelos disponíveis para download no Hugging Face.