Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Den här MIT-artikeln blåste verkligen bort mitt sinne 🤯
Artikeln handlar om "ARC" och det förändrade helt hur jag ser på benchmarken.
Forskarna behandlade inte ARC som ett logiskt pussel alls. De behandlade varje uppgift som en visuell förvandling.
Rutnät in → rutnät ut. Inget är mer komplicerat än så.
De byggde en liten Vision Transformer, tränade den från grunden på ARC:s lilla dataset och använde ett enkelt canvastrick för att placera varje exempel som en bild.
Sedan lade de till skaländringar, translationer och grundläggande visuella förmågor som man ser i klassiskt datorseendearbete.
Det är allt.
Ingen tankekedja, inga uppmaningar, inga smarta symboliska trick.
Bara en modell som tittar på pixlar och lär sig hur former rör sig, vänder, växer, kollapsar eller förs över.
Den vilda delen?
Denna lilla modell når 54,5 % ensam och 60,4 % i kombination med en U-Net.
Det är ungefär genomsnittlig mänsklig prestation med en modell som passar in i storleken av en liten mobilapp.
Att se ARC löst på detta sätt gör att hela benchmarken känns annorlunda.
Uppgifterna ser plötsligt ut som bildmappningar istället för dolda regler. Reflektionsuppgifter ser faktiskt ut som reflektioner.
Symmetriuppgifter ser ut som symmetri. Gravitationsuppgifter ser ut som delar som "faller" rakt ner på duken.
...

Topp
Rankning
Favoriter

