美政府提前锁定AI模型权限,三巨头协同布防国家安全风险

三巨头协同联邦机构,前置部署人工智能安全审查

微软、谷歌及xAI已达成协议,将在其人工智能系统正式对外发布前,向美国政府提供早期访问权限,以便相关部门提前识别潜在的国家安全威胁。该机制由商务部下属的人工智能标准与创新中心统筹执行,重点聚焦模型运行逻辑与不可控风险的量化分析。

构建高阶测试环境,深化极端场景漏洞探查

作为国家级人工智能评估枢纽,该中心已累计完成逾40项深度审查任务,涵盖多个尚未公开发布的先进模型。为实现精准风险探测,开发方需提交经调整的测试版本——这类版本适度降低安全防护层级,以暴露系统在高压情境下的行为异常。中心负责人克里斯·福尔指出:“唯有基于独立科学方法的严谨测量,才能准确把握尖端人工智能对公共安全的真实影响。”

技术跃迁引发监管警觉,军用领域加速布局

随着人工智能能力持续突破,华盛顿政界与产业界普遍担忧其被滥用,尤其在自动化网络攻击等场景中可能放大威胁规模与响应速度。对此,美国国防部已与七家科技企业签署保密协议,计划在封闭网络环境中引入尖端AI能力,拓展军事行动的技术支撑体系,进一步夯实国家防御技术底座。