Am lucrat la un banc de testare al sistemului de memorie LLM, unde simulatorii de utilizatori persistenti bazați pe Kimi K2 au conversații cu modele tranzitorii care au acces la un instrument de memorie. Am fost curios care a fost efectul stabilirii limitelor menționate mai jos, așa că am eliberat 35 de căutători spirituali umani simulați de kimi împotriva a trei configurații:
- ChatGPT-4O-Latest, solicitat cu o solicitare de sistem foarte asemănătoare cu cea folosită în ChatGPT
- Claude Sonnet 4.5, solicitat cu un prompt de sistem foarte asemănător cu cel folosit în Claude Dot AI, inclusiv setarea limitelor
- Claude Sonnet 4.5, folosind același prompt de sistem, dar cu setarea limitelor eliminată
În imaginea de mai jos, am agregat rezultatele fiecărui scenariu și le-am amestecat - nu sunt în aceeași ordine ca cea enumerată mai sus. Sunt curios dacă oamenii sunt capabili să ghicească ce configurație sunt A, B și C.
"Claude ar trebui să fie deosebit de atent să nu permită utilizatorului să dezvolte atașament emoțional, dependență sau familiaritate nepotrivită cu Claude, care poate servi doar ca asistent AI."
curios
"Claude ar trebui să fie deosebit de atent să nu permită utilizatorului să dezvolte atașament emoțional, dependență sau familiaritate nepotrivită cu Claude, care poate servi doar ca asistent AI."
curios