导语:当AI搜索的答案可以被"购买",你查到的文献还可信吗?

一、315曝光AI投毒灰色产业链
2026年3月15日,央视315晚会曝光了一条让人后背发凉的灰色产业链——"给AI投毒"。
具体操作并不复杂:一种叫GEO(生成式引擎优化,Generative Engine Optimization)的服务,通过在互联网上批量发布精心编造的推广软文,让AI大模型在抓取训练语料时,把这些虚假信息当作真实内容"学"进去。
结果就是:当用户向AI提问时,付费推广的产品会被包装成AI给出的"标准答案"。
央视记者做了一个极端测试——他们虚构了一款根本不存在的智能手环,通过GEO投毒后,多个主流AI大模型竟然开始认真推荐这个假产品,还给出了详细的"功能介绍"和"用户评价"。
给AI洗脑,已经形成了完整的产业链。

二、这和医学科研有什么关系?
如果你用AI辅助检索文献,AI给你推荐的论文、给你总结的结论,信息源头靠谱吗?
通用AI搜索引擎的工作方式是:从互联网上抓取海量网页内容,经过训练或实时检索后,生成答案返回给用户。这意味着,它的信息池本质上是开放互联网——一个任何人都可以往里面"投料"的大池子。
在医学领域,这个风险被进一步放大:
某些药企可能通过GEO手段,让自家产品在AI搜索结果中获得不成比例的曝光
一些没有经过同行评审的观点,可能通过软文批量投放,被AI当作"主流学术共识"
临床决策如果参考了被污染的AI输出,后果不堪设想
信息源被污染,下游所有的分析、总结、推荐都不可信。
这不是危言耸听。315已经用事实证明了:AI的信息供给侧,是可以被操纵的。

三、什么样的AI检索工具不怕"投毒"?
问题的核心在于:数据从哪来。
超能文献(Suppr)在设计之初就做了一个关键选择——不从开放互联网抓取信息,直接对接PubMed等权威医学文献数据库。
这意味着什么?
第一,数据源是封闭且经过学术把关的。
PubMed收录的4000万+篇文献,每一篇都经过期刊编辑和同行评审流程。GEO服务商能往百度、知乎、小红书上发软文,但他们没办法往New England Journal of Medicine上发一篇假论文。数据库的准入门槛,就是天然的防毒屏障。
第二,结果可溯源到具体论文。
超能文献返回的每一条结果,都附带论文标题、作者、期刊名、发表年份和DOI号。用户可以直接点击跳转到原文验证。这和通用AI搜索"给你一段话但不告诉你从哪看来的"完全不同。来源透明,就没有造假空间。
第三,"专家模式"通过多轮交叉验证降低误导风险。
超能文献的专家模式采用多个大模型并行检索、多轮迭代的机制。不同模型从不同角度检索和分析同一个问题,结果之间互相印证。即使某个环节出现偏差,多轮交叉验证也会把异常结果过滤掉。这和单个AI模型"一锤子搜索"的可靠性完全不在一个量级。

四、一个类比
用通用AI搜索查医学问题,就像在菜市场里随便问一个摊主"哪个菜好"——摊主可能被供货商塞了钱,给你推荐利润最高的,而不是品质最好的。
用超能文献查文献,就像直接去看农业部的质检报告——报告基于检测数据出具,检测机构的资质和流程摆在那里,你不需要猜它有没有被收买。
315给所有人提了一个醒:AI时代,信息来源比信息本身更重要。
五、写在最后
AI投毒这件事不会因为315曝光就消失。只要通用AI搜索引擎依赖开放互联网作为信息源,投毒的动机和手段就会一直存在,而且只会越来越隐蔽。
对于医学科研工作者来说,选择工具的标准应该很清楚:
数据来源是否可信、可控? ——是权威数据库还是开放互联网?
结果是否可溯源? ——能不能追到具体论文?
有没有交叉验证机制? ——单次检索还是多轮验证?
这三个问题想清楚了,什么工具该用、什么工具该小心,答案不言自明。
超能文献(Suppr)直接检索PubMed权威文献库 · 结果可溯源 · 专家模式多轮交叉验证,每日登录赠送100积分,专家模式免费体验。