当我在DeepSeek输入think
大模型回答问题,本来就是在上下文里预测下一个token。think这类词在推理模型里很敏感,因为它经常和内部推理格式、对话模板、特殊标记绑在一起。产品层如果没把这些边界处理干净,模型就可能把用户输入当成某种未完成的格式,然后顺着概率一路续下去。
所以你会发现,AI不一定回答问题,而是在补全某种它以为该继续的文本。小说、算式、乱码、碎片化推理,都可能冒出来。看起来像失控,工程上更像输入校验、模板隔离、采样策略之间有缝。
想不到吧,你随手敲一个词就有可能把AI的边界摸出来~
