Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Vi er i et kappløp. Det er ikke USA mot Kina, men mennesker og AGI-er mot apemaktsentralisering.
@deepseek_ai stan #1, 2023–Deep Time
«C'est la guerre.» ®1
vil trolig fungere om vinteren når hele regionen er dekket av snø
(kanskje en grunn til at Russland begynner å bry seg om global oppvarming)
Neste Teknologi Lås opp: Sesongkamuflasje


Dimko Zhluktenko 🇺🇦⚔️22 timer siden
Russere prøver å lure våre AI-avskjæringsdroner ved å sette fugleklistremerker på rekognoseringsdronene sine.
Vanvittig krigføring.

1,92K
og alt snark om utgivelsespresentasjon, Samas karakter, langsiktig forskningsstrategi og brutte løfter til side – GPT-5 er egentlig rett og slett den beste frontiermodellen for øyeblikket. Den typen modell som gjør alt annet, veldedig, "nisje".

Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)11 timer siden
Glad for å ha gått glipp av det
AGI utsatt nok en gang, antar jeg
(sannsynligvis standard modellfamilie, igjen)

2,22K
Som jeg har sagt, GPT-5 er egentlig ikke en forfatter på Kimis nivå

Sam Paech6 timer siden
GPT-5-resultater!
+ Lang skriveoppdatering: Jeg la til nye instruksjoner for å hjelpe dommeren med å legge merke til og straffe overforbruk av usammenhengende metaforer, og kjørte ledertavlen på nytt. Det var i ferd med å bli et problem med mange grensemodeller som konvergerte på denne skråningen.
Noen rangeringsendringer; nå er Opus 4.1 #1




2,28K
sterkt støttet. Modellene våre lærer søppel, og jeg tror det ikke bare er en flat ytelsesskatt – det legger til overfladiskhet, uønsket memorering og "piggete singulariteter" som sannsynligvis øker med skalaen. Jeg lurer på hvordan forskjellige sparsitetsmetoder bidrar til problemet.


Kenneth Stanley14 timer siden
De som intuitivt mangler noe i LLM-er sliter med å finne gapet utover utilstrekkelige metaforer som «stokastisk papegøye» eller «glorifisert autofullføring». Det du famler etter er fragmentert sammenfiltret representasjon (FER). Det er den konkrete kjernen i dine glatte intuisjoner.
Det er grunnen til at disse modellene kan fortsette å forbedre seg på dramatiske og genuint ikke-trivielle måter, men likevel lide av en underliggende sykdom. Det er der reelle muligheter og håp ligger for revolusjonær fremgang,
Representasjon er kjernen i tanken, i kreativiteten og faktisk i selve intelligensen. Det er mulig å "vite" en ufattelig mengde og likevel representere den dårlig.
Og det er mulig for representasjon å bli bedre. Og det vil til slutt skje på en eller annen måte.

2,57K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til