站长之家报道,AI研究者普遍担忧超级人工智能的发展可能存在微不足道但非常小的导致人类灭绝的风险。在最大规模的AI研究者调查中,约58%的研究者认为有5%的概率导致人类灭绝或其他极端糟糕的AI相关结果。调查还显示,AI研究者对未来AI技术里程碑的时间表存在广泛分歧,同时对由AI驱动可能带来的社会后果感到不确定。此外,研究者对深度伪造、操纵公众舆论、制造武器等由AI驱动的情境存在紧迫担忧。