OpenAI lanzó gpt-oss-safeguard (vista previa de investigación), modelos de razonamiento de seguridad de peso abierto en dos tamaños: 120B y 20B Resumen Una herramienta de seguridad centrada en el razonamiento: el modelo toma una política proporcionada por el desarrollador en la inferencia y utiliza el razonamiento en cadena para clasificar el contenido y explicar su decisión. - Trae-tu-propia-política: aplica cualquier política escrita en tiempo de ejecución; no es necesario volver a entrenar un clasificador para cada cambio de regla. - Etiquetas explicables: el modelo devuelve un razonamiento en cadena que puedes inspeccionar para entender por qué etiquetó el contenido de cierta manera. - Mejores casos de uso: daños emergentes o en evolución, dominios altamente matizados y situaciones con pocos ejemplos etiquetados. - Compensaciones: mayor computación y latencia que los clasificadores tradicionales; puede ser superado por clasificadores específicos de tareas entrenados con muchos ejemplos etiquetados para riesgos complejos. Licencia y descarga: - Apache 2.0 (permisiva). - Modelos disponibles para descargar desde Hugging Face.