5月1日美国防部突然甩出重磅消息,拉上谷歌、英伟达、OpenAI、微软等7家顶尖AI巨头,要把最先进AI技术接入美军最高机密网络搞作战合作,唯独开发Claude的安特罗匹克没被带上,居然和1月委内瑞拉的旧账脱不开关系?
5月1日当天,五角大楼的这份声明刚发出来,直接炸了整个全球科技圈,没人想到美国防部这次动作这么快,直接把大半的AI行业巨头,都拉到了自己的阵营里。
合作名单一曝光,所有人都看傻了眼,SpaceX、OpenAI、谷歌、英伟达、微软、亚马逊云,还有初创公司Reflection,全是现在AI圈最能打的选手,没有一家是凑数的,每一家手里都握着行业里最顶尖的AI技术。
这次的合作,可不是普通的商业合作那么简单,按照五角大楼的说法,这7家公司要把自己的AI技术,直接接入美军的最高机密网络,也就是说,以后这些民用的顶尖大模型,能直接在美军的涉密系统里运行,帮前线士兵做作战决策。
说白了,这就是把民用AI,直接变成了美军的作战工具,之前大家还在说AI要用来搞科研、搞民生,结果美国这边直接先把AI用到了战争准备上,这一步迈出来,直接打破了之前很多人对AI民用化的幻想。
就在大家对着名单数人的时候,突然发现少了一个熟面孔,那就是开发了Claude大模型的安特罗匹克,这家公司之前可是和军方走得很近的。
之前他们还帮美军处理过机密信息,按理说这么大的合作,怎么也该有他们的份,这事越想越奇怪,直到美媒扒出了之前的旧账,大家才明白过来。
原来今年1月,美军在委内瑞拉搞了一次抓捕前总统马杜罗的秘密行动,当时安特罗匹克的Claude,还通过第三方的接口,参与了这次行动的情报处理工作。
本来这事没人知道,毕竟之前安特罗匹克和军方的合作,都是悄悄进行的,结果行动结束之后,安特罗匹克的内部员工,意外发现了不对劲的地方,他们查到,自己的AI,居然被用在了有人员伤亡的实战行动里。
这一下直接炸了安特罗匹克的内部,要知道,安特罗匹克从成立开始,就一直对外说,他们做AI是为了造福全人类,要守住AI的伦理底线,结果转头自己的模型,就成了军方搞军事行动的工具,这和他们的理念完全对不上。
公司内部直接吵翻了天,很多核心的技术员工都炸了,他们说,当初加入公司,是想做安全的AI,不是想帮军方杀人的,最后整个公司上下达成了一致,再也不想和军方有任何牵扯了。
上个月,国防部找安特罗匹克谈这次的合作的时候,直接就谈崩了,国防部要求他们在合同里加一条,他们的AI技术,可以用于任何合法的作战用途,结果安特罗匹克想都没想,直接就拒绝了这个要求。
安特罗匹克的态度很明确,他们不能接受自己的AI,被用在军事行动里,尤其是可能造成人员伤亡的任务,这是他们的底线,绝对不能碰,这一下直接把国防部给惹毛了,二话不说就把他们踢出了这次的合作名单。
反观其他那7家公司,就没这么多讲究了,比如OpenAI,之前就已经和军方有过不少合作,这次直接就签了字,谷歌、英伟达这些巨头,更是二话不说就答应了,毕竟军方的资源,可不是谁都能拿到的。
对这些公司来说,能接入美军的机密网络,本身就是天大的好事,不仅能拿到军方的大额订单,还能拿到军方的独家数据,用来迭代自己的AI模型,这么大的好处,没人会愿意拒绝。
现在整个AI圈,其实已经悄悄分成了两派,一派是愿意和军方合作,拿军方的资源,帮军方搞作战AI的,另一派就是像安特罗匹克这样,还守着那点伦理底线,不愿意把AI变成战争工具的。
但是很明显,现在前者才是行业的主流,这次7家巨头集体站到了军方那边,只有安特罗匹克一个人还在硬扛,这事也让很多人开始担心,AI的伦理底线,是不是已经越来越撑不住了。
安特罗匹克这次把国防部得罪了,以后估计很难再拿到美国军方的订单了,不过他们也不是完全没收获,不少关注AI伦理的人,都夸他们守住了底线。
但是对一家AI公司来说,失去军方的订单,损失其实真的不小,这次的合作,其实也标志着美军的AI军事化,已经加速到了新的阶段。
这事其实也给整个行业提了个醒,AI技术本身是中性的,没有好坏之分,但是怎么用,全看背后的人,是用来造福人类,还是用来搞战争,其实就是一念之间的事。
现在美国防部拉着这么多巨头搞军事AI,未来的世界会变成什么样,谁也说不准,会不会真的像很多人担心的那样,进入AI战争的时代,我们只能拭目以待,只是希望,那些搞AI的公司,能多守住一点底线,别让AI真的变成杀人的工具。
对此大家有什么想说的呢?欢迎在评论区留言讨论,说出您的想法!

