Forskning fra MIT viser at debatt med svarene til ai gir mye bedre resultater Hvordan kan vi bruke denne ideen til å redusere hallusinasjoner? 1. Be den om å verifisere sine egne tankeprosesser Meg til AI 2: Jeg har følgende algoritme for å hjelpe meg med å finne ut hvordan jeg minimalt kan omstrukturere dagen min for å ha en 75-minutters plass til treningsstudioet. Kan du bekrefte og sjekke det for meg, og hvilke endringer vil du foreslå for å forenkle det? < Generert algoritme > --- 2. Be AI om å være brutalt ærlig - «Hvilke antagelser gjør du som jeg bør verifisere?» - «Vær brutalt ærlig. Er denne tilnærmingen den beste måten vi kan gjøre det på, eller finnes det andre bedre måter?» - «Vær ærlig hvis du ikke er sikker på noen del av dette.» - "Det er bedre å si 'jeg vet ikke' enn å gjette." - "Hvis du ikke har nok kontekst til å gi et sikkert svar, bare fortell meg hvilken tilleggsinformasjon du trenger." --- 3. fortelle AI at det er greit å be om ytterligere informasjon. Den gjør en god jobb med å bruke andreordens tenkning for ikke bare å svare, men også vurdere flere områder der den kunne forbedres hvis den hadde mer informasjon. I praksis vil det se slik ut: "Jeg ser denne feilen i <x> systemet, og jeg tror den er relatert til <y> mappe, men jeg er ikke sikker. «Kan du se nærmere på det og fortelle meg hvilken informasjon du trenger fra meg eller hvilke kommandoer du vil at jeg skal kjøre for å gi deg mer informasjon for å finne ut hva som er galt?»
170