ソフトウェアのランダムな部分への感情的な愛着についての話がいくつかあります...
Sam Altman
Sam Altman21時間前
GPT-5 の展開をフォローしている人なら、気づいているかもしれないことの 1 つは、特定の AI モデルにどれほど愛着を持っている人がいるかということです。それは、人々が以前の種類のテクノロジーに抱いていた種類の愛着とは異なり、強く感じられます (したがって、ユーザーがワークフローで依存していた古いモデルを突然非推奨にするのは間違いでした)。 これは、過去 1 年ほどにわたって注意深く追跡してきたことですが、まだ主流の注目を集めていません (GPT-4o のアップデートがあまりにもお世辞だったときを除いて)。 (これは私の現在の考えであり、まだOpenAIの公式な立場ではありません。 人々は AI を含むテクノロジーを自己破壊的な方法で使用してきました。ユーザーが精神的に脆弱な状態にあり、妄想を起こしやすい場合、AI がそれを強化することは望ましくありません。ほとんどのユーザーは現実とフィクション、ロールプレイングの間に明確な境界線を保つことができますが、それができない人の割合はごくわずかです。私たちはユーザーの自由を基本原則として大切にしていますが、新しいリスクを伴う新しいテクノロジーをどのように導入するかについても責任を感じています。 現実とフィクションの違いを見分けるのに苦労しているユーザーに妄想を助長するのは極端なケースであり、何をすべきかは明らかですが、私が最も心配している懸念はもっと微妙です。多くのエッジケースがあり、一般的には「大人のユーザーを大人のように扱う」という原則に従う予定であり、場合によっては、ユーザーが本当に欲しいものを確実に手に入れるためにユーザーを押し戻すことも含まれます。 多くの人は、たとえそのように説明しなくても、一種のセラピストやライフコーチとして ChatGPT を効果的に使用しています。これは本当に良いことです!今日、多くの人がすでにそこから価値を得ています。 人々が良いアドバイスを得て、自分の目標に向かってレベルアップし、人生の満足度が年々向上しているのであれば、たとえ彼らが ChatGPT を頻繁に使用し、依存しているとしても、私たちは真に役立つものを作ることを誇りに思います。一方、ユーザーがChatGPTと関係を築いており、話した後は気分が良くなったと思うが、知らず知らずのうちに長期的な幸福から遠ざかっている(どのように定義しているかにかかわらず)、それは悪いことです。また、たとえば、ユーザーが ChatGPT の使用を減らしたくて、できないと感じている場合も悪いことです。 多くの人が最も重要な決定について ChatGPT のアドバイスを本当に信頼する未来を想像できます。それは素晴らしいことですが、不安になります。しかし、それはある程度実現しつつあり、近いうちに何十億人もの人々がこのように AI と話すようになるかもしれないと私は予想しています。したがって、私たち(社会だけでなく、OpenAIの私たちも)それを大きなネットプラスにする方法を見つけなければなりません。 これを正しく行うことができると思う理由はいくつかあります。私たちは、前世代のテクノロジーよりも、自分たちの状況を測定するのに役立つはるかに優れたテクノロジーを持っています。たとえば、当社の製品はユーザーに話しかけて、短期的および長期的な目標をどのように達成しているかを把握したり、洗練された微妙な問題をモデルに説明したりできます。
5.01K