• 最戏剧性转向之一!Anthropic 放弃标志性“安全护栏”承诺

    Anthropic 多年来一直将自己定位为比其他人工智能竞争对手更安全的替代者,如今却放松了其在维持安全 " 护栏 " 方面的承诺。这是人工智能行业迄今为止最引人注目的政策转向之一——曾经以 " 造福人类 " 为使命的初创公司,正将重心转向盈利和成功。

    Anthropic 在 2023 年的《负责任扩展政策》中曾表示,如果人工智能的发展可能带来危险,它将推迟相关研发。但在本周二的一篇博客文章中,Anthropic 表示更新规则:如果它认为自己在技术上并未对竞争对手保持显著领先优势,将不再因此推迟开发。Anthropic 在声明中称:

    " 政策环境已经转向优先考虑人工智能竞争力和经济增长,而以安全为导向的讨论在联邦层面尚未获得实质性进展。"

    Anthropic 一位发言人表示:" 从一开始我们就说过,人工智能的发展速度以及该领域的不确定性,将要求我们快速迭代并改进政策。"

    分析称,Anthropic 这一举动凸显出,早期引导人工智能初创企业的崇高理想,正越来越多地与盈利压力和竞争需求发生冲突。Anthropic 正在与一系列强劲对手争夺这一革命性技术的主导地位,包括 OpenAI、谷歌、马斯克的 xAI 公司等。

    Anthropic 首席执行官 Dario Amodei 曾在 OpenAI 工作,并于 2020 年离职,部分原因是他担心该公司在商业化和发展速度上优先于安全问题。

    OpenAI 最初是一家非营利组织,并在去年转型为更传统的营利性企业。它还在 2024 年更新了使命声明,删除了 " 安全地(safely)" 一词,而此前其目标是 " 确保通用人工智能安全地造福人类 "。

    OpenAI 和 Anthropic 这两家公司如今都在推动最快于今年进行 IPO,希望抓住投资者对人工智能的兴趣。Anthropic 最近的估值为 3800 亿美元,OpenAI 正以超过 8500 亿美元的估值筹集资金。

    Anthropic 此次政策更新恰逢其与美国国防部之间的争端不断升级。争议焦点在于 Anthropic 坚持为其 Claude 人工智能工具的使用设置安全护栏。五角大楼周二威胁称,如果 Anthropic 未能在周五前接受政府条款,将援引冷战时期的一项法律,强制要求公司允许美军使用其技术。

    据媒体报道,在周二 Amodei 与美国国防部长 Pete Hegseth 的会谈中,美国官员提出了一系列可能后果,包括威胁将 Anthropic 认定为供应链风险,并援引《国防生产法》,即使公司不同意,也将强制使用其人工智能软件。

    本月早些时候,Anthropic 资深安全研究员 Mrinank Sharma 表示将离职。他在发布于 X 平台的一封致同事信中写道:" 我不断在反思我们所处的处境。世界正处于危险之中。而不仅仅是来自人工智能或生物武器,还有一系列在此刻同时展开的相互关联的危机。"

    不仅是 Anthropic 和 OpenAI 在人工智能安全措施问题上挣扎。本月早些时候,媒体报道称,马斯克旗下的 SpaceX 及其子公司 xAI 正在参与一项秘密的新五角大楼竞标项目,开发语音控制的自主无人机集群技术。这被视为一个颇具争议的转变。此前马斯克曾反对制造 " 新的杀人工具 "。他甚至起诉了 OpenAI,因为他原本期望该组织保持非营利性质,并致力于为公众利益打造安全的人工智能。

    据此前报道,OpenAI 也支持 Applied Intuition 在无人机竞标项目中的方案,但其参与将仅限于 " 任务控制 " 部分,即将战场指挥官的语音及其他指令转化为数字化指令。

    Amodei 与 OpenAI 首席执行官 Sam Altman 之间的冲突,有时也公开化。上周在新德里举行的一场人工智能峰会上,两人与印度总理莫迪并肩站在一起时,其他人都在台上手拉手排成一排,而他们两人则拒绝牵手。

    原文连接

    搜索