ワイルド統計: ~5-1 (!) 人々は、私たちが自分よりも賢い AI モデルを構築すると、必然的にそのモデルを制御できなくなると考えています ~2.5対1は、AIのリスクが社会への利益を上回ると考えています ~3.5対1 AIの進歩が速すぎて社会が安全に進化できないと考える ~3.5対1は、AI企業が超知能を構築しようとしている神を演じていると考えています ~2対1は、すべてのAGI研究を停止すべきだと考えています AI に関する一般の調査では、これらと同様の数字が示されていますが、このような具体的な質問が提起されたのを見たのはこれが初めてです。
PauseAI ⏸
PauseAI ⏸2025年7月19日
58%の人が「自分よりも賢いAIモデルを構築すると、必然的にAIモデルの制御を失うことになる」ことに同意しています。 同意しないのはわずか12%だった。
24.53K