电动霸主特斯拉又“失手”自动驾驶车撞上假人引质疑 一、事故回放:校车前的测试惊

兴奋的小猫 2025-07-03 13:51:27

电动霸主特斯拉又“失手” 自动驾驶车撞上假人引质疑 一、事故回放:校车前的测试惊魂 在这场由黎明计划策划的现场测试中,组织者使用校车和一个身高约与儿童相仿的假人,模拟孩子下车过马路的危险场景。多个测试回合中,特斯拉FSD系统识别到了假人身影,却并未在校车警示灯亮起的情况下减速或停车,依旧“闯过”校车安全区,直击假人。这一过程被拍成视频,并配以“FSD需要撞多少孩子才能改进?”的质疑标语,引发广泛关注。 二、批评者的指控与特斯拉的免责声明 黎明计划创始人丹·奥唐德直言:“这样的软件若在真实道路上未在校车前停下,就是对公共安全的极大蔑视,必须立刻禁止FSD上路。”该组织早在2022年就曾做类似测试,抨击特斯拉不安全。今年以来,NHTSA(美国公路交通安全管理局)也在调查多起FSD相关事故,包括一起学生悲剧性被撞案件。 面对指责,特斯拉反复强调FSD属于“监督式辅助”系统,要求驾驶员“全程集中注意力并随时准备接管”,测试中并未按照其使用规范操作;公司表示,其内部数据表明系统在识别行人并减速方面表现符合设计初衷。此前,特斯拉曾就黎明计划的早期视频发出停播函,称其“误导公众”。 三、技术争议:视觉算法Vs.激光雷达 特斯拉FSD依赖摄像头与软件算法处理,而非行业常用的激光雷达(LiDAR)传感技术。批评者认为,纯视觉方案在复杂场景下易受光线、角度影响,难以做到万无一失;而Waymo等同业则坚持多传感器融合路线。特斯拉则以成本与规模化为由,坚称视觉方案能通过软件迭代持续提升性能。 四、公众与专家声音分歧 事件曝光后,舆论出现两极: 支持者认为,假人在多次试验中被撞,实属操作者未按要求监控系统;FSD累计数亿行驶里程中,尚无人因其致命; 担忧者认为,校车前撞击假人虽非真实伤亡,却暴露系统在紧急减速与障碍规避上的致命短板,恐怖剧重演只是时间问题。 五、监管与未来走向 NHTSA和各州机动车监管部门已收集相关视频与事故数据,考虑是否对FSD实施更严格的测试与上路限制。若自动驾驶技术要实现“解放双手”的终极目标,必须在系统安全边界与商业推广节奏之间找到平衡。 总的来看,此次假人撞击事件是自动驾驶向完全无人化迈进过程中的一次严重警示:技术虽日新月异,但在法律、伦理与实地应用上仍需反复验证。未来,特斯拉与整个行业都必须以更严谨的态度和更稳健的步伐,才能赢得公众对“Robotaxi时代”真正来临的信任。

0 阅读:1
兴奋的小猫

兴奋的小猫

关注我,一起来关注娱乐消息吧