Beobachten Sie, wie das Echo-trainierte 30B Sokoban-Modell Modelle, die vielfach größer sind, übertrifft, einschließlich DeepSeek-R1 und GPT-OSS-120B. Anstatt größere Rechenzentren oder teurere GPU-Flotten zu verwenden, skaliert Echo das verstärkende Lernen mit Verbrauchshardware, die überall zu finden ist.
45,11K