Saksikan model Sokoban 30B yang dilatih Echo mengungguli model berkali-kali lipat ukurannya, termasuk DeepSeek-R1 dan GPT-OSS-120B. Alih-alih pusat data yang lebih besar atau armada GPU yang lebih mahal, Echo menskalakan pembelajaran penguatan dengan perangkat keras konsumen yang ditemukan di mana-mana.
45,11K