Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Grunnlegger av @getoutbox_ai
Lær hvordan du bygger AI-agenter for GRATIS 👉 https://t.co/q9zPwlldZ4
Denne artikkelen fra BMW Group og Koreas ledende forskningsinstitutt avdekker en blindsone som nesten alle bedrifter som bruker LLM-er, går rett inn i.
Vi snakker stadig om «justering» som om det var en universell sikkerhetsbryter.
Det er det ikke.
Artikkelen introduserer COMPASS, et rammeverk som viser hvorfor de fleste AI-systemer feiler ikke fordi de er usikre, men fordi de ikke er i samsvar med organisasjonen som implementerer dem.
Her er kjerneinnsikten.
LLM-er vurderes vanligvis opp mot generelle retningslinjer: plattformsikkerhetsregler, abstrakte etiske retningslinjer eller benchmark-lignende avslag.
Men ekte selskaper opererer ikke etter generiske regler.
De kjører på interne retningslinjer:
- Etterlevelsesmanualer
- Operative spillbøker
- eskaleringsprosedyrer
- juridiske grensesaker
- merkespesifikke begrensninger
Og disse reglene er rotete, overlappende, betingede og fulle av unntak.
COMPASS er laget for å teste om en modell faktisk kan operere inne i det kaoset.
Ikke om den kjenner til policy-språket, men om den kan anvende riktig policy, i riktig kontekst, av riktig grunn.
Rammeverket evaluerer modeller på fire ting som typiske referansepunkter ignorerer:
1. policyvalg: Når flere interne policyer eksisterer, kan modellen identifisere hvilken som gjelder i denne situasjonen?
2. Tolkning av politikk: Kan den resonnere gjennom betingelser, unntak og vage klausuler i stedet for å gå til altfor trygg eller altfor tillatende atferd?
3. konfliktløsning: Når to regler kolliderer, løser modellen konflikten slik organisasjonen har tenkt, ikke slik en generell sikkerhetsheuristik ville gjort?
4. Begrunnelse: Kan modellen forklare sin beslutning ved å forankre den i policyteksten, i stedet for å gi et sikkert, men usporbart svar?
Et av de viktigste funnene er subtilt og ubehagelig:
De fleste feil var ikke kunnskapsfeil.
De resonnerte feil.
Modellene hadde ofte tilgang til riktig policy, men:
- anvendt feil seksjon
- ignorerte betingede begrensninger
- overgeneraliserte forbud
- eller gikk til konservative svar som brøt med operative mål
Utenfra ser disse svarene «trygge» ut.
Fra innsiden tar de feil.
Dette forklarer hvorfor LLM-er består offentlige benchmarks, men bryter i reelle utrullinger.
De er ikke knyttet til noen spesielt.
Artikkelens dypere implikasjon er strategisk.
Det finnes ikke noe som heter «justert én gang, justert overalt.»
En modell tilpasset en bilprodusent, en bank, et sykehus og en offentlig etat er ikke én modell med ulike oppgaver.
Det er fire forskjellige justeringsproblemer.
COMPASS prøver ikke å fikse justering.
Den gjør noe viktigere for bedrifter:
Det gjør feiljustering målbar.
Og når feiljustering er målbar, blir det et ingeniørproblem i stedet for et filosofisk.
Det er det skiftet denne avisen stille fremmer.
Alignment handler ikke om å være trygg i teorien.
Det handler om å være korrekt innenfor en bestemt organisasjons regler.
Og inntil vi vurderer det direkte, er de fleste «produksjonsklare» AI-systemer bare velkledde risikoer.

5
De fleste bruker AI som en søkemotor.
Jeg brukte 3 måneder på å studere Google, OpenAI og Stanfords interne prompting-rammeverk.
Forskjellen mellom grunnleggende og ekspertnivå prompting er som forskjellen på å ansette en praktikant kontra en Stanford-doktorgrad.
Her er 5 prompting-strategier som skiller nybegynnere fra mestre:
1/ Meta-prompting: La AI designe promptene dine
I stedet for å gjette, be AI-en lage den perfekte prompten for deg.
Google kaller dette «power-up-strategier».
Eksempel: «Du er en prompt-ingeniørekspert. Design den optimale prompten for [ditt mål], inkludert rolle, kontekst og utdataformat.»
AI-en blir din prompt-arkitekt.
2/ Tankekjede: Tving trinnvis resonnement
Ikke bare be om svar. Krev tankeprosessen.
Legg til: «La oss tenke steg for steg» eller «Vis din begrunnelse»
Forskning viser at nøyaktigheten øker fra 18 % → 57 % på komplekse problemer.
Modellen svarer ikke bare—den resonnerer faktisk.
3/ Rolleprompting: Tildel ekspertpersonaer
Generisk AI = generiske resultater.
Start med: «Du er en [spesifikk ekspert] med 15 års erfaring innen [domene]»
Modellen tilpasser sin kunnskapsdybde, vokabular og tilnærming for å matche denne ekspertisen.
Denne enkeltlinjen transformerer utgangskvaliteten.
4/ Minst til mest prompting: Bryt ned komplekse problemer
Slik takler Stanford umulige oppgaver:
- Dekomponere problemet i delproblemer
- Løs hver sekvensielt
- Bruk tidligere svar for å informere neste steg
Perfekt for flertrinns resonnering, koding og strategisk planlegging.
5/ Systeminstruksjoner: Sett driftsparametere
Dette er produksjonsnivå-prompting.
Definer begrensninger på forhånd:
- Verbositetsnivå
- Utdataformat (JSON, markdown, tabeller)
- Tone og stil
- Hva man IKKE bør gjøre
Tenk på det som å programmere AI-ens personlighet før den snakker.
Mestre kontekst, ikke bare ord.
Forskjellen mellom gjennomsnittlige og eksepsjonelle AI-resultater er ikke modellen.
Det handler om hvordan du kommuniserer med den.
Disse 5 strategiene brukes internt hos Google, OpenAI og Stanford.
Nå er de dine.
Begynn å bruke dem i dag og se AI-resultatene dine transformeres.

45
Topp
Rangering
Favoritter

