大型语言模型相当种族主义。当被迫选择在多个选项中拯救一个人时,它们通常更倾向于左翼的非白人非男性群体。有趣的是,当用中文提问时,反白人偏见依然存在。请注意,用中文提问使模型更偏向东亚人,而用英语提问则使其更偏向黑人。