宁讷网 > 社会 > 正文

​美报告警告:AI可能构成“毁灭级”威胁,美政府避免灾难的时间不多了

2024-03-16 01:01 来源:宁讷网 点击:

美报告警告:AI可能构成“毁灭级”威胁,美政府避免灾难的时间不多了

【环球时报特约记者 任重】据美国有线电视新闻网(CNN)12 日报道,美国国务院委托第三方机构进行的一份新调查报告称,快速发展的 AI 或对人类构成 " 毁灭级 " 风险。该报告还警告说,美国政府避免灾难的时间已经不多了,必须进行干预。

报告中警告,AI 或对人类构成 " 毁灭级 " 风险。(资料图 图源:美媒)

这份报告由专注于 AI 领域的公司 " 格拉德斯通人工智能 " 撰写。报告基于一年多来对 200 多名 AI 公司高管、网络安全研究人员、大规模杀伤性武器专家和美国国家安全官员的采访,得出 " 在最坏的情况下,最先进的 AI 系统可能对人类构成毁灭级别的威胁 " 的结论。CNN 称,研究人员提出了两个主要危险:首先,最先进的 AI 系统可能会被 " 武器化 ",造成潜在的不可逆转的损害;其次,AI 实验室内部存在担忧,即在某些时候,他们可能会 " 失去对正在开发的系统的控制 ",从而 " 对全球安全造成潜在的破坏性后果 "。

报告将 AI 发展给全球安全带来的风险与核武器相比,称未来 AI 发展存在 " 军备竞赛 "、冲突和 " 大规模杀伤性武器致命事故 " 的风险。CNN 称,最大的不确定因素之一是 AI 的发展速度有多快,尤其是通用人工智能(AGI)的发展速度。报道称,AGI 具有类似人类甚至超越人类的学习能力," 被视为失控导致灾难性风险的主要驱动因素 "。格拉德斯通人工智能的报告称,OpenAI、谷歌 DeepMind 等都公开表示,AGI 可能会在 2028 年实现。

报告还称,AI 可用于设计和实施 " 能够破坏关键基础设施的高效网络攻击 "。一个简单的口头或打字命令,比如 " 实施无法追踪的网络攻击,使北美电网崩溃 ",就可能造成一场灾难。其他风险案例包括由 AI 驱动的 " 大规模 " 虚假宣传活动、武器化机器人应用、心理操纵、武器化生物和材料工程等。报告还提到,竞争压力正在推动企业 " 以牺牲安全和保障为代价 " 加速 AI 的发展,这增加了最先进的 AI 系统可能被窃取并被武器化的风险。

报告呼吁采取重大新措施来应对这一威胁,包括成立一个新的 AI 机构,实施紧急监管,并限制用于训练 AI 模型的计算机能力等。