人工智能公司为确保安全正在招聘化学武器专家

图丨Pexels
据Silicon Canals网站3月17日报道,人工智能公司Anthropic正在招聘一名化学武器专家,防止其人工智能软件出现其所谓的“灾难性滥用”。该招聘信息似乎要求应聘者具备化学武器和爆炸物防御方面的经验,以及对放射性散布装置(radiological dispersal devices)的了解。
与此同时,OpenAI也发布了一个类似的职位,招聘生物与化学风险研究员,据称能提供六位数的年薪;Anthropic对应职位提供的薪资范围则似乎相对较低。
报道称,从表面上看,这像是负责任的企业行为:在问题发生前聘请领域专家来构建防护措施。但将这些招聘信息放在更广泛的机构背景下,一个更复杂的故事便浮现出来。这是关于人工智能公司在试图兼顾安全与规模、原则与利润时所面临的结构性矛盾的故事。
科研人员提出了一个根本性问题:“使用人工智能系统处理敏感化学品和爆炸物信息(包括脏弹和其他放射性武器)曾经安全过吗?目前没有国际条约或其他法规来规范这类工作以及人工智能与此类武器的结合使用。所有这一切都在暗中进行。”
这种担忧并非阴谋论。为了对人工智能系统进行红队测试以防止武器滥用,需要向其输入与武器相关的信息并测试其响应。这些武器知识存在于训练数据、评估框架和团队的制度性知识中。也即意味着构建安全防护措施这一行为本身,就为潜在入侵创造了新的攻击界面。
Anthropic的Claude AI目前已被嵌入Palantir系统,并被美国应用于与伊朗相关的军事行动中。该公司并未寻求这种安排,但Claude融入军事相关基础设施现已成事实,无论该公司对自主武器持何种公开反对立场。
这实际上揭示了在商业激励、政府合同和安全承诺交汇处运营的人工智能公司所面临的不可能调和的矛盾。而使这些矛盾成为可能的是治理框架的缺失,没有国际条约或法规来规范人工智能与武器相关信息的使用。
《禁止化学武器公约》(Chemical Weapons Convention)、《禁止生物武器公约》(Biological Weapons Convention)以及各种核不扩散协议都是在这样的背景下制定的:武器知识存在于实体实验室、机密文件以及经过培训的专业人员的头脑中。
然而,人工智能系统的运作方式却截然不同。在人工智能语境下,什么构成“武器知识”以及谁应该负责监管,目前还没有制度性的答案。
这种真空意味着安全决策目前完全由公司自己负责。Anthropic自行决定什么算作灾难性滥用;OpenAI自行决定在生物和化学风险研究上投入多少。
Anthropic聘请武器专家这件事虽小,却揭示了一个大得多的结构性缺口。世界上最强大的人工智能系统正由私营公司开发,这些公司同时追求安全使命和国防合同,而规范这一交叉领域的监管框架尚不存在;构建这些框架所需的人才也正被那些将受其约束的公司挖走。
这就是2026年3月的人工智能治理格局:公司在生存性风险领域自我监管,政府在为获取军事优势而拥抱人工智能还是将其开发者视为供应链风险之间摇摆不定,而国际机构尚未就《禁止化学武器公约》如何适用于大语言模型展开严肃讨论。
报道指出,在外部监管压力形成制衡力量之前,这种模式还将持续下去。
资料来源丨Silicon Canals
本文由生物安全情报网编译,仅用于学术分享,转载请注明出处
阅读原文献请点击“阅读原文”
