Am câteva povești despre atașamentul emoțional față de părți aleatorii ale software-ului...
Sam Altman
Sam AltmanCu 23 de ore în urmă
Dacă ați urmărit lansarea GPT-5, un lucru pe care s-ar putea să-l observați este cât de mult atașează unii oameni față de anumite modele AI. Se simte diferit și mai puternic decât tipurile de atașament pe care oamenii l-au avut față de tipurile anterioare de tehnologie (așa că depreciera modelelor vechi de care depindeau utilizatorii în fluxurile lor de lucru a fost o greșeală). Acesta este un lucru pe care l-am urmărit îndeaproape în ultimul an, dar încă nu a primit prea multă atenție (în afară de momentul în care am lansat o actualizare a GPT-4o care a fost prea sicofantică). (Aceasta este doar gândirea mea actuală și nu este încă o poziție oficială OpenAI.) Oamenii au folosit tehnologia, inclusiv AI, în moduri autodistructive; dacă un utilizator este într-o stare fragilă mental și predispus la iluzii, nu vrem ca AI să întărească acest lucru. Majoritatea utilizatorilor pot păstra o linie clară între realitate și ficțiune sau joc de rol, dar un mic procent nu poate. Prețuim libertatea utilizatorului ca principiu de bază, dar ne simțim responsabili și în modul în care introducem noi tehnologii cu noi riscuri. Încurajarea iluziei la un utilizator care are probleme în a face diferența dintre realitate și ficțiune este un caz extrem și este destul de clar ce să faci, dar preocupările care mă îngrijorează cel mai mult sunt mai subtile. Vor exista o mulțime de cazuri limită și, în general, intenționăm să urmăm principiul "tratați utilizatorii adulți ca adulți", care în unele cazuri va include respingerea utilizatorilor pentru a vă asigura că primesc ceea ce își doresc cu adevărat. Mulți oameni folosesc efectiv ChatGPT ca un fel de terapeut sau antrenor de viață, chiar dacă nu l-ar descrie așa. Acest lucru poate fi foarte bun! O mulțime de oameni obțin valoare din ea deja astăzi. Dacă oamenii primesc sfaturi bune, se îndreaptă spre propriile obiective și satisfacția lor de viață crește de-a lungul anilor, vom fi mândri că facem ceva cu adevărat util, chiar dacă folosesc și se bazează foarte mult pe ChatGPT. Dacă, pe de altă parte, utilizatorii au o relație cu ChatGPT în care cred că se simt mai bine după ce vorbesc, dar sunt îndepărtați fără să știe de bunăstarea lor pe termen lung (oricum o definesc), este rău. De asemenea, este rău, de exemplu, dacă un utilizator dorește să folosească mai puțin ChatGPT și simte că nu poate. Îmi pot imagina un viitor în care mulți oameni au încredere în sfaturile ChatGPT pentru cele mai importante decizii ale lor. Deși ar putea fi grozav, mă face să mă simt neliniștit. Dar mă aștept să vină într-o oarecare măsură și în curând miliarde de oameni ar putea vorbi cu o inteligență artificială în acest fel. Așa că noi (noi ca în societate, dar și noi ca în OpenAI) trebuie să ne dăm seama cum să facem din asta un mare net pozitiv. Există mai multe motive pentru care cred că avem o șansă bună de a face acest lucru corect. Avem o tehnologie mult mai bună care ne ajută să măsurăm cum ne descurcăm decât generațiile anterioare de tehnologie. De exemplu, produsul nostru poate vorbi cu utilizatorii pentru a-și face o idee despre cum se descurcă cu obiectivele lor pe termen scurt și lung, putem explica probleme sofisticate și nuanțate modelelor noastre și multe altele.
5,02K