
马斯克搞了个AI写的百科全书,这事到底靠不靠谱?
最近几天,科技圈又热闹起来了。
10月27日,埃隆·马斯克旗下的xAI团队正式上线了一个叫Grokipedia的网站。
名字一听就知道是“Grok”(他家AI模型)和“Encyclopedia”(百科全书)的组合。
简单说,这就是一个由AI自动写内容的在线百科全书,目标很明确:对标维基百科。
这事听起来挺新鲜,但仔细一琢磨,问题不少。
咱们今天就掰开了揉碎了,用大白话聊聊Grokipedia到底是怎么回事,它能不能真的取代维基百科,以及普通人用它查资料到底靠不靠谱。
先说说背景。
维基百科大家都不陌生,从2001年上线到现在,靠全球志愿者一点点写、改、审,攒下了超过800万条英文词条,中文也有100多万条。
它最大的特点就是“人人可编辑”,但也正因为这样,一直有人质疑它的准确性、中立性,甚至说它“偏左”、“被某些群体操控”。
马斯克就是这类批评者之一。
他不止一次在X(原推特)上吐槽维基百科“有宣传倾向”,还说它“被觉醒文化渗透”。
于是,他决定自己干一个。
Grokipedia就是他的答案:用AI来写百科,号称更中立、更准确、更新更快。
听起来很理想,对吧?但现实没那么美好。
Grokipedia目前还是v0.1测试版,界面极其简单,就一个搜索框。
内容方面,它声称收录了88.5万个词条。
乍一听不少,但跟维基百科比,连十分之一都不到。
而且,很多词条内容被发现直接照搬维基百科,有的甚至原封不动,连“改编自维基百科”的小字声明都懒得删。
这就有意思了:一边说要挑战维基,一边又拿人家的内容当底稿,逻辑上有点说不过去。
更让人皱眉的是准确性问题。
有用户测试发现,Grokipedia在“埃隆·马斯克”本人的词条里,写错了他离开某个政府相关机构的时间;
在“Yann LeCun”(图灵奖得主、Meta首席AI科学家)的条目里,职务描述也不准确。
这些都不是冷门信息,而是公开可查的基本事实。
连这种都能出错,那查点稍微复杂点的内容,比如某个科学原理、历史事件,还能信吗?
AI写东西有个老毛病,叫“幻觉”,就是一本正经地胡说八道。
大模型在训练时学了海量文本,但它并不真正“理解”事实,只是根据概率拼凑出看起来合理的句子。
有时候,它会编造根本不存在的论文、事件,甚至人物。
维基百科虽然也有错误,但至少有真人审核、有引用来源、有讨论页记录修改过程。
而Grokipedia目前是“AI预审+用户提建议”,普通人不能直接改,只能等平台处理。
这意味着纠错效率可能更低,错误一旦上线,可能挂很久。
再说说“中立性”这个点。
马斯克一直强调Grokipedia要“无过滤、无偏见、无审查”。
但上线后的内容却让人怀疑这话的真实性。
比如,在“特朗普”词条里,Grokipedia省略了他接受卡塔尔赠送飞机、发行个人加密货币等争议事件;
在“性别”定义上,它采用非常传统的二元表述,而维基百科则会涵盖更多元的学术观点。
更有意思的是,马斯克自己的词条长达1.1万字,用词明显偏向正面,而维基百科上他的词条约8000字,语气更克制。
这算不算另一种“偏见”?恐怕很难说没有。
当然,Grokipedia也不是一无是处。
它有两个亮点值得肯定。一是“实时更新”能力。
理论上,AI可以随时抓取最新新闻、数据,自动更新词条。
比如某位名人今天去世了,维基百科可能要等几小时甚至几天才有志愿者更新,而Grokipedia或许几分钟内就能改好。
二是它有个“Preserved Versions”功能,会保留维基百科中被删除的编辑版本,让用户看到不同视角的内容。
这在某些争议话题上,确实能提供更多信息维度。
但问题在于,速度和数量不等于质量。
查百科全书,大家最关心的是“准不准”,而不是“快不快”。
如果为了快而牺牲准确,那还不如慢一点但靠谱。
毕竟,谁也不想因为信了AI胡诌的内容,闹出笑话甚至造成损失。
其实,不只是马斯克在做这事。
老牌的《大英百科全书》也在搞AI转型。
他们开发了自己的AI聊天机器人,基于几十年积累的专业内容库,强调“准确性远高于通用大模型”。
CEO考兹公开说,他们的AI能有效避免“幻觉”。
这背后其实是两种思路的差别:维基百科靠社区,大英靠专家,Grokipedia靠算法。
哪种更好?现在下结论还太早,但至少大英的做法更稳妥:
用AI辅助人类知识,而不是让AI完全取代人类判断。
有意思的是,维基百科自己也在被AI冲击。
维基媒体基金会最近警告,人类访问量正在下降。
越来越多的人通过AI助手、搜索引擎间接获取维基内容,却不再点进维基网站。
这看似方便了用户,但长远看,会削弱维基的志愿者生态和捐赠收入。
如果没人维护,内容质量也会下滑。
这其实是个悖论:AI依赖维基的数据训练自己,但又在“吃掉”维基的流量。
马斯克的Grokipedia,某种程度上也是这个链条的一环,它可能也用了维基的数据,却宣称要取代它。
那么,普通人该怎么看待Grokipedia?
我的建议是:可以看看,但别全信。
把它当成一个“参考源”之一,而不是“权威源”。
查资料时,最好多平台交叉验证:
看看维基怎么说,大英怎么说,主流媒体怎么说,学术数据库怎么说。
单一信源,无论它标榜自己多中立,都可能有盲点。
另外,也要理解AI的局限。
它擅长归纳、总结、翻译,但在需要深度判断、价值权衡、历史语境理解的领域,还是远不如人。
百科全书不只是信息的堆砌,更是人类对世界的理解框架。
这个框架,目前还离不开人的参与。
最后说点题外话。
马斯克做Grokipedia,可能不只是为了做个更好的百科。
xAI团队一直在推进“理解宇宙”的宏大目标,Grokipedia被他称为“实现这一目标的必要步骤”。
换句话说,这可能是他构建AI认知基础设施的一部分。
未来,Grok模型可能会以Grokipedia为“事实锚点”,来回答各种问题。
如果这个“锚点”本身不准,那整个AI系统的输出都可能跑偏。
所以,Grokipedia的意义,或许不在于它现在做得多好,而在于它开启了一个新问题:
当AI开始系统性地整理人类知识,我们该如何确保它整理得既全面又真实?
这个问题,不光是马斯克要面对的,也是我们每个信息消费者要思考的。
回到开头的问题:Grokipedia靠不靠谱?
短期看,不太靠谱。
长期看,有潜力,但前提是解决准确性和透明度问题。
在它能稳定输出高质量内容之前,维基百科依然是普通人查资料最实用、最平衡的选择。
技术永远在进步,但知识的根基,始终是事实与责任。
AI可以帮我们写得更快,但不能替我们判断对错。这一点,无论什么时候都不能忘。