返回列表

五角大楼拟让 AI 公司基于机密数据训练军用模型,国防官员披露评估方向

2026/03/18 Verified Content
五角大楼拟让 AI 公司基于机密数据训练军用模型,国防官员披露评估方向

五角大楼拟让 AI 公司基于机密数据训练军用模型,国防官员披露评估方向

导语

据《麻省理工科技评论》报道,美国五角大楼正在讨论为生成式 AI 公司建立安全环境,以便它们使用机密数据训练面向军事场景的模型版本。与目前只能在涉密环境中“回答问题”的做法相比,这意味着模型未来可能直接从机密数据中学习。

这项设想若落地,可能改变军方使用大模型的方式:不再只是把模型当作查询工具,而是让其围绕特定军事任务形成更强的针对性能力。

计划的核心变化

报道提到,类似 Anthropic Claude 的模型已经被用于涉密场景中的问答任务,应用之一包括分析与伊朗相关的目标信息。但如果允许模型在机密数据上继续训练并从中学习,这将是一个新的阶段。

一名接受采访的美国国防官员表示,基于机密数据训练出来的模型版本,预计会在某些任务上更准确、更有效。不过,这类训练预计将在具备涉密资质的安全数据中心内进行,并以模型副本与机密数据配对的方式展开。

五角大楼为何仍然谨慎

在正式放开这类训练之前,五角大楼计划先评估模型在非机密数据上的训练效果,例如商业可获取的卫星图像。这说明军方目前仍在验证:当训练材料不涉及机密时,模型究竟能在多大程度上提升准确率和任务效果。

美国军方长期以来一直在使用计算机视觉模型这类较早期的 AI 技术,识别无人机和飞机采集影像中的目标物体。如今讨论的重点,已经从旧式视觉模型延伸到更通用的大语言模型以及生成式 AI 体系。

潜在价值与风险并存

Center for Strategic and International Studies 旗下 Wadhwani AI Center 主任 Aalok Mehta 表示,让模型基于机密数据训练,与仅仅对机密数据进行问答相比,会带来新的风险。风险不仅在于模型能力增强本身,也在于训练过程、访问边界、数据治理和后续部署方式都将变得更加敏感。

换句话说,这项计划的吸引力在于,它可能让模型更贴合军事任务需求;但争议也同样明显:一旦训练环节直接接触机密信息,安全、合规和滥用防范的要求都会显著提高。

Join the discussion

正在确认登录状态...
暂时还没有评论,快来抢沙发~