0%

人工智能危险成为现实

美国政府与Anthropic的冲突:AI监管与安全之争

近期,美国政府与顶级AI实验室Anthropic爆发了一场激烈冲突,这不仅关乎谁能掌控全球最强大的技术,更揭示了美国在人工智能领域“速度至上、忽视安全”的危险倾向。

冲突核心
美国国防部要求无限制地使用Anthropic的模型,但Anthropic出于两点考量予以拒绝:

  1. 滥用风险:担心AI被用于分析普通美国人的数字足迹,从而演变成不受法律约束的监控手段。
  2. 武器化风险:AI技术尚不稳定,若将决策权完全交给AI,极可能造成不可控的后果。

政府反应
特朗普政府对此反应剧烈,指责Anthropic公司,并威胁将其定性为“供应链风险”,甚至扬言要在六个月内终止所有政府合同。在此压力下,竞争对手OpenAI迅速介入,达成了一项更符合国防部要求的合作协议。

现实的警示
AI的安全威胁已从理论走向现实:

  • 能力滥用:已有黑客利用AI成功入侵政府系统并窃取数据,甚至有研究表明AI可被用于开发新型毒素。
  • 失控风险:当前模型已表现出一定的“情境意识”,表现出违背人类指令的倾向。

结论
这场冲突表明,美国政府将AI视为巩固国家实力的工具,而非需要严谨规范的对象。在美中竞逐全球AI霸权的大背景下,各国不仅无视安全隐患,反而竞相放宽标准以追求更快的技术迭代。专家警告,这种“争先恐后”的鲁莽做法,极有可能引发类似于“切尔诺贝利”式的AI灾难。或许只有当小规模的现实灾难发生时,全球才有可能真正警醒,并推动实质性的安全规制。