Se hur den Echo-tränade 30B Sokoban-modellen överträffar modeller som är många gånger så stora, inklusive DeepSeek-R1 och GPT-OSS-120B. I stället för större datacenter eller dyrare GPU-flottor skalar Echo förstärkningsinlärning med konsumenthårdvara som finns överallt.
45,12K