美国马里兰州出了件能笑掉牙又吓破胆的事,16岁高中生揣包薯片放学,愣是被AI监控当成带枪,直接惊动8辆警车,警察举着枪逼他下跪上铐。 这小子刚走出校门没两步,口袋里鼓囊囊的薯片就被学校AI监控盯上了。系统“嘀嘀”报警,直接把那包薯片判定成“疑似手枪”,瞬间触发校园安全警报。 按说系统报警后有人工审查,审查员一看是薯片,立马更新成“没威胁”。可万万没想到,校长压根没瞅见这消息,转头就喊了校园安全小组,还报了警。 没一会儿工夫,8辆警车“呜啦呜啦”开进校园,警察荷枪实弹冲下来,对着那学生大喊“跪下!不许动!”。孩子当场懵了,乖乖跪下后,直接被戴上手铐带走。 直到警察搜身掏出那包没开封的薯片,大伙儿才反应过来——闹了半天,所谓的“枪”,就是包普普通通的零食。那学生脸都白了,吓得半天说不出话。 警察局后来解释,说警方是按收到的情报行动,回应算“相称”。可网友不买账:8辆车围着个揣薯片的孩子,这哪是“相称”,简直是小题大做过头了。 更气人的是监控公司,发声明就轻描淡写说“遗憾”,还嘴硬说“流程没毛病,就是枪支侦测太乱,难免误报”。合着闹这么大乌龙,全怪“世界太乱”? 这可不是AI第一次闹笑话。之前美国有个大爷,手里拎着根拐杖遛弯,被AI监控当成“持枪歹徒”,警察赶来才发现是场乌龙,大爷气得直骂“瞎了眼”。 还有更离谱的,英国超市里,有人举着根法棍面包,AI直接判定成“刀具”,触发防盗警报,店员冲过来才看清是面包,尴尬得满脸通红。 为啥AI总犯这种低级错?说白了就是“认死理”——它只看形状、轮廓,薯片袋鼓鼓的像枪的轮廓,拐杖长条状像枪,就直接瞎判定,压根不懂变通。 再加上人工审查和后续传递环节出漏洞,审查员改了“无威胁”,校长没看见,信息传歪了,小事直接闹成大笑话,还吓着孩子。 这事儿给咱提了醒,AI再好用也不能全指望。首先得给AI“补补课”,多教它认认日常东西,减少这种离谱误判,别再把零食当武器。 然后人工审查和信息传递得盯紧,一步错步步错,得有核对机制,别让“没威胁”的消息石沉大海,最后闹出没必要的恐慌。 最关键的是,遇事别太冲动,警察接到报警,先多核实核实,别上来就荷枪实弹,万一伤着无辜的人,那可不是闹着玩的。 那16岁孩子估计这辈子都有阴影,揣包薯片能被警车围堵上铐,说出去都没人信。AI是帮咱做事的,可不能让它反过来添乱。 你说这AI是不是该好好“回炉重造”?要是你遇上这种乌龙,被当成坏人围堵,第一反应会咋整?秦绪文的小基地超话