Дикие статистические данные: ~5-1 (!) людей думают, что если мы создадим модели ИИ умнее нас, мы неизбежно потеряем контроль над ними. ~2.5 к 1 считают, что риски ИИ превышают выгоды для общества. ~3.5 к 1 считают, что ИИ развивается слишком быстро, чтобы общество могло безопасно эволюционировать. ~3.5 к 1 считают, что компании ИИ играют в бога, пытаясь создать суперинтеллект. ~2 к 1 считают, что мы должны прекратить все исследования AGI. Каждый опрос общественного мнения о ИИ показывает аналогичные цифры, но это первый раз, когда я вижу, что некоторые из этих конкретных вопросов заданы.