其实这种“给AI投毒”的操作,本质上是利用了大模型的学习逻辑:大模型是通过学习海量网络内容来生成答案的,如果某类虚假信息被大量投放,覆盖了真实信息的传播,大模型就会误以为这是“主流观点”,从而输出错误内容。就像这次的“67.7岁”谣言,就是有人利用大模型生成虚假内容,再通过自媒体大量传播,最后让很多人信以为真。 但我们也不用过度恐慌,大模型的开发者们早就想到了这个问题,现在的大模型都有一套“内容审核机制”:它会优先采信权威来源的信息,比如官方发布的数据、权威媒体的报道,同时会对网络上的“低质内容”进行过滤。不过这种机制也不是万能的,尤其是当虚假信息被包装成“科普内容”“个人体验”时,大模型也很难完全分辨。 这也让我们思考,在AI时代,我们该如何保证信息的真实性?一方面,开发者要不断优化大模型的“信息辨别能力”,让它能更精准地识别虚假信息;另一方面,我们作为用户,也要提高自己的“媒介素养”,不要轻易相信大模型输出的内容,尤其是涉及到健康、数据等重要信息时,一定要去权威渠道核实。对此,大家怎么看呢?欢迎留言。