Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¿Alguien ha probado este LLM de pensamiento de contexto largo agentic de ByteDance? 👀
¿O ha disminuido el hype en torno a los modelos chinos de código abierto?
Modelos Instruct y Based de 36B (incluso base sin datos sintéticos) con algunas métricas geniales (¿SOTA?) 🤔
Vamos a cubrirlo mañana en @thursdai_pod.


21 ago, 04:02
ByteDance lanza Seed-OSS (Apache-2.0): serie de LLM abierta (12T tokens) optimizada para 512K ctx, razonamiento, tareas de agente, i18n (uso internacional). La versión incluye Seed-OSS-36B-Base (con y sin datos sintéticos) y Seed-OSS-36B-Instruct
- Arquitectura: 36B parámetros, 64L, oculto 5120, vocab 155K, GQA (80/8/8, cabeza 128), SwiGLU, RMSNorm, RoPE base 1e7
- Presupuesto de Pensamiento: Controlar la longitud del razonamiento (múltiplos de 512), auto-reflexión CoT, 0 = respuestas directas, por defecto = ilimitado
36B-Base (con vs sin sint.)
- MMLU-Pro 65.1 / 60.4 | MMLU 84.9 / 84.8 | TriviaQA 82.1 / 81.9 | GPQA-D 31.7 / 35.2
- BBH 87.7 / 87.2 | AGIEval-en 70.7 / 70.1
- GSM8K 90.8 / 90.3 | MATH 81.7 SOTA / 61.3
- MBPP 80.6 / 74.6 | HumanEval 76.8 / 75.6
36B-Instruct
- MMLU-Pro 82.7 | MMLU 87.4 | GPQA-D 71.4 | SuperGPQA 55.7
- AIME24 91.7 SOTA | AIME25 84.7 | BeyondAIME 65
- ArcAGI V2 40.6 | KORBench 70.6
- LiveCodeBench v6 67.4 SOTA | HLE 10.1
- IFEval 85.8 | TAU1-Retail 70.4 SOTA | TAU1-Airline 46
- SWE-Bench Verificado 56 SOTA | Multi-SWE-Bench 17
- MMMLU 78.4 | RULER (128K) 94.6 SOTA | AIR-Bench 75.6
Inferencia: Transformers, vLLM (≥0.10.0), FlashAttention2, cuantización 4/8 bits

3,01K
Parte superior
Clasificación
Favoritos