众力资讯网

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!   仔细一看签名名单,好家伙,阵容真是星光熠熠。里头有被尊称为“AI教父”的杰弗里·辛顿,苹果公司的联合创始人史蒂夫·沃兹尼亚克,还有维珍集团的董事长理查德·布兰森。甚至连前美国国家安全顾问苏珊·赖斯、英国王妃梅根这类看似与科技圈距离较远的人物也位列其中。   这种跨越了科技、政治、商业乃至文化娱乐多个领域的联合,本身就传递出一个强烈信号:超级智能可能带来的风险,已经不再只是实验室里的学术争论,它正迅速升级为一个关乎人类共同未来的全球性公共议题。   那么,这个让这么多聪明人感到不安的“超级智能”,究竟是什么呢?简单来说,它指的是那种在所有核心认知任务上都能全面超越人类的人工智能系统。想象一下,一个在智力层面完全碾压我们的存在,它思考和处理问题的能力,让最聪明的人类大脑也显得像计算器一样原始。   这些联名的专家们到底在担心什么?他们的忧虑非常深远,绝不仅仅是怕机器人抢走工作那么简单。   他们警告说,一旦这种超越人类的超级智能出现,而我们又没能找到确保其绝对安全可控的方法,那么从经济崩溃、个人权利与尊严的丧失,到国家安全的威胁,甚至最极端的情况——人类灭绝的风险,都可能成为现实。   其实,这种级别的担忧并非首次出现。早在2023年,人工智能的爆发元年,包括马斯克、沃兹尼亚克在内的上千名专家就曾联名呼吁,暂停训练比GPT-4更强大的AI系统至少6个月。   同年,另一家机构“人工智能安全中心”发布了一封更为简短的公开信,信中指出,减轻人工智能带来的灭绝风险,应该与应对大流行病和核战争等其他社会规模的风险一样,成为全球的优先事项。   当时,连OpenAI的CEO萨姆·阿尔特曼等都签署了这封信。这些接连不断的警告表明,业内顶尖人物对AI失控的焦虑在与日俱增。   当然,科技界对AI的风险也存在不同看法,并非铁板一块。大致可以分为所谓的“末日论者”(或“减速主义者”)和“有效加速主义者”两派。   辛顿、本吉奥等人属于前者,他们希望放慢脚步,优先解决安全问题。而像杨立昆这样的科学家则属于技术乐观派,他认为当前的AI系统甚至比猫还笨,所谓生存威胁纯属“科幻妄想”。   吴恩达等学者也曾公开反对“暂停研发”的呼吁,他们认为在医疗、教育等领域,强大的AI正在带来巨大的积极影响,暂停会阻碍进步。   那么,面对这种近乎无解的风险,我们该怎么办?联名信提出的核心主张是,在达成两大前提之前,应该暂停超级智能的研发:一是科学界就如何安全、可控地开发超级智能形成广泛共识;二是赢得公众的广泛理解和支持。这显然是要把刹车踩得再稳一些。   与此同时,加强监管和治理几乎成为必然选择。一些分析指出,这次倡议可能会推动在G20甚至联合国层面重启关于技术伦理的全球性讨论,让AI治理从目前的行业自律阶段,逐步走向更深层次的多边协商与合作。毕竟,人工智能的风险不分国界,任何一个国家都难以独善其身。   说到监管,苹果联合创始人沃兹尼亚克此前就表达过类似观点。他认为,对AI行业进行监管是首要任务,任何由AI产生并发布给公众的内容都应该被明确标记,并且人类需要为其承担责任。他坦言,我们无法阻止这项技术,但可以通过教育和监管,让人们更好地识别和应对潜在风险。   有趣的是,公众的态度似乎也倾向于谨慎。未来生命研究所同期发布的一项美国民意调查显示,只有区区5%的受访者支持当前“无监管的AI开发状态”。   高达73%的人支持建立更严格的监管机制,并且有64%的人认为,在科学界对安全性与可控性达成共识之前,根本就不应该开发超级智能。这说明,科技精英的担忧并非孤例,普通大众也同样期待一个更安全、更负责任的AI发展路径。   回过头看,这场由3000多名精英发起的联署呼吁,更像是一声响彻云霄的警钟。它不是在试图扼杀创新,而是在为一场可能比我们预期来得更早的技术革命,争取宝贵的准备时间。   超级智能这趟列车似乎正朝着未知的领域高速飞驰,而我们现在要做的,或许就是在它冲过最后的安全红线之前,确保我们已经系好了安全带,仔细检查了路线图,并且全社会都真正做好了迎接其巨大冲击的准备。   毕竟,正如曾毅研究员所预测的那样,“如果以50年为限,超级智能一定会到来”。当那一刻来临的时候,人类是否已经准备好了?这可能是我们这个时代面临的最重大、也最紧迫的问题之一。