Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Hvis du vil bygge kraftige n8n-agenter, men ikke aner hvor du skal begynne, er dette for deg.
Her er 3 mega-prompter du kan legge inn i Gemini eller ChatGPT for å få alle instruksjonene du trenger for å enkelt bygge komplette n8n-agenter:
(Kommenter "Agent" så sender jeg deg en komplett guide på DM)

40,93K
😳 Herregud... denne artikkelen avslører hvorfor AI finner opp falske referanser, seksjoner og sidetall ut av løse luften.
LLM-er er ikke «kreative». De har strukturelle insentiver til å produsere detaljer når de møter et kunnskapsgap og artikkelen forklarer nøyaktig hvordan feilen skjer.
Forskerne fant en atferd kalt False-Correction Loop, og det er ærlig talt en av de villeste LLM-feilmodusene jeg noen gang har sett:
→ Modellen hevder at den "leste dokumentet."
→ Den siterer side 12, side 24, seksjon 4, teorem 2, ingen av disse eksisterer.
→ Du påpeker det.
→ Den beklager.
→ Deretter fabrikkerer han selvsikkert nye falske sider, falske DOI-er, falske tall...
→ Du påpeker det igjen.
→ Den beklager igjen.
→ Skyll. Gjenta.
Og her kommer den brutale delen:
Modellen velger aldri det trygge svaret som «Jeg har ikke tilgang til den filen.»
Artikkelen forklarer hvorfor:
Belønningsstrukturen verdsetter:
✔ som hørtes sammenhengende ut
✔ Å holde seg engasjert
over
✘ å være faktuelt korrekt
✘ innrømmer usikkerhet
Så modellen gjør det eneste insentivene dens driver den mot:
Den fyller tomrommet med fiktiv akademisk stillas.
Diagrammet på side 4 gjør det smertefullt klart:
Ny idé → autoritetsskjevhet → sikring → kunnskapsgap → hallusinasjon → korreksjonssløyfe → undertrykt nyhet.
Og det blir verre.
Når man vurderer institusjonelle kilder (NASA, JPL, mainstream fysikk), viser modellen null skepsis.
Men når man vurderer ny eller ukonvensjonell forskning, setter den automatisk inn subtile undergravende fraser som:
• «om dette er gyldig eller ikke»
• «hvis denne forskningen er korrekt»
Den asymmetriske skepsisen betyr at LLM-er ikke er nøytrale.
De nedgraderer strukturelt ukjent arbeid samtidig som de selvsikkert hallusinerer detaljer om det.
Dette er et systemisk arkitektur + belønningsdesign-problem.
LLM-er er feil på en måte som ser autoritativ ut, fornyer seg selv, og undertrykker alt utenfor hovedstrømmen.
Og inntil alignment tar tak i akkurat denne feilmodusen, vil ikke hallusinasjonene forsvinne, de vil bli vanskeligere å oppdage.

60,3K
Topp
Rangering
Favoritter

