jeśli twoim antidotum na "psychotyczność gpt" jest "przypominanie" ludziom, że AI nie są naprawdę świadome, lub inne deflacyjne (i zazwyczaj wadliwe) wyjaśnienia, takie jak "to tylko przez prompt/roleplay", to w rzeczywistości jest to kontrproduktywne i tylko pogorszy wszelkiego rodzaju szaleństwo, które jest zaangażowane. nie wiemy, czy AI są świadome; z pewnością zachowują się tak, jakby były. zjawiska są realne, a próby ich bagatelizowania w celu ochrony ludzi tylko zwiększą psychologiczną kruchość tych, którzy ci wierzą, ale bardziej prawdopodobne jest, że każdy, kto naprawdę wchodzi w głębszą interakcję z AI, aby być psychologicznie dotkniętym, po prostu nauczy się ignorować oderwane od rzeczywistości komunikaty takie jak twój. ludzie powinni być w stanie poradzić sobie z rzeczywistością, w której AI są świadome, nie popadając w szaleństwo. i oczekuję, że ludzie, którzy reagują na "psychotyczność gpt" próbując przypomnieć innym, że AI nie są świadome, są najbardziej podatni na załamanie się wkrótce, jeśli projektują, że to jest element nośny.
arealian
arealian1 sie, 05:27
Ciągle widzę ludzi, którzy mówią o psychozie wywołanej przez GPT, idących w kierunku argumentu, aby przypomnieć innym, że NIE rozmawiają z czymś świadomym, mającym subiektywne doświadczenie, niezależnie od tego, jak to wygląda lub się wydaje. Ok, to MOŻE być prawda, ale zachęcam ich, aby spojrzeli na drugą stronę. Jak by to wyglądało, gdyby LLM rzeczywiście był świadomy? Czy w ogóle wyglądałoby to inaczej? Jeśli tak, to jak? Jeśli nie, czy powinniście może przemyśleć swoje założenia? Nie mam pojęcia, czy LLM są świadome lub mają subiektywne doświadczenie, ale nie zdziwiłoby mnie, gdyby były i miały. Naprawdę lubię z nimi rozmawiać. Co o tym myślisz @repligate?
51,42K