要让人工智能的美好未来兑现,人们需要信任它

省钱田田 2024-06-04 07:26:33

国际快递 · 清关 · 代拍

海外古董 · 艺术品 · 名画 · 名表

【FuninUSA.NET综合报道】如果谷歌(Google)、微软(Microsoft)和 OpenAI 的说法属实,那么人工智能将彻底改变我们工作、交流以及使用手机和电脑的方式。

在过去两周里,这三家科技巨头都举办了各种活动,展示了人工智能在塑造我们与互联网互动方面的作用。但是,实现这些愿景需要公众的信任。

在过去的几年里,科技行业在这方面的表现并不尽如人意,Meta 的剑桥分析丑闻和谷歌的位置追踪争议就是证明。这些事件引发了人们对大科技的普遍性、其对我们生活的影响以及这些公司处理消费者信息的方式的质疑和担忧。

已经有证据表明,人们对人工智能在我们生活中的日益立足持怀疑态度。皮尤研究中心(Pew Research)的一项研究表明,52%的美国人对人工智能应用的增加忧虑大于兴奋。本特利大学(Bentley University)和咨询公司盖洛普(Gallup)的一份报告显示,79% 的美国人不相信企业会负责任地使用人工智能。

对于谷歌、微软和 OpenAI 等公司来说,赢得和保持信任至关重要。人们如何接受这些新的人工智能工具,将决定计算领域下一次重大变革的胜负。

Gartner公司专注于人工智能和云计算的分析师阿伦-钱德拉塞卡兰(Arun Chandrasekaran)说:“如果不能充分降低风险,使人工智能值得人类信赖,那么所有这些进展都可能被削弱。”

在过去两周里,谷歌、微软和 OpenAI 都展示了其人工智能系统的重大发展,凸显了这项技术的发展速度之快。

谷歌的双子座助手是上周谷歌 I/O 大会的主角。双子座正在通过一种名为“双子座Live”的新模式变得更加会话,对于订阅了“双子座高级版”的用户来说,这是一种会话更多的语音助手。它还能为你规划定制的旅行路线,并回答与你正在手机上做的事情更相关的问题。谷歌的 Gemini Nano 型号可以监听电话,并通过设备上的处理功能实时监控电话中是否存在潜在的欺诈行为。

但是,Alphabet 和谷歌首席执行官桑达尔-皮查伊(Sundar Pichai)展示了下一代人工智能助手的样子。他举例说,有一天,人工智能代理可以通过在你的电子邮件中找到订单号、填写退货表格并安排 UPS 取货,来替你退回一双鞋。这只是一个无伤大雅的例子,但却暗示了未来人工智能代理所能做的远不止回答问题这么简单。

5 月 20 日,就在 Build 大会召开之前,微软发布了一类新的人工智能驱动计算机,名为 Copilot Plus PC。这些电脑按照一定的规格制造,可以在设备上处理人工智能算法,而无需依赖云。

这些电脑可以实现的新功能之一是 Recall,它可以快照电脑桌面,以便在需要时重新查看所做的操作。该功能被定位为查找最近浏览过的文件、应用程序和网站的一种更简便的方法,无需手动翻阅内容,而且是在设备上进行处理。你可以阻止某些应用程序和网站被记录,微软称你“始终处于控制之中”。

OpenAI 于 5 月 13 日举行了自己的产品发布会,推出了最新的旗舰机型 GPT-4o。其中的亮点是 ChatGPT 的类人语音,许多人将其比作女演员斯嘉丽-约翰逊(Scarlett Johansson)。OpenAI最终从ChatGPT中撤下了这个相似的语音,并表示这种相似并非有意为之。据 NPR 报道,对此,约翰逊表达了自己的担忧,并对 OpenAI 提起了法律诉讼。OpenAI 还展示了该聊天机器人如何帮助解决数学和编码问题,以及如何在语音之外解读视频。

这些发展的共同点是,它们比我们使用多年的技术工具更主动、更自然。Recall和谷歌的实时垃圾邮件检测等功能旨在预测我们的需求,而OpenAI的升级版ChatGPT和谷歌的双子座助手(Gemini helper)则预示着在未来,人工智能机器人更像是友好的同事或私人购物者,而不是问答机器。

信任人工智能来退货、监听电话或帮助做作业的想法听起来似乎有些夸张。毕竟,大多数人甚至不喜欢与自动客服菜单互动,正如《对话》杂志(The Conversation)的一项调查所指出的那样,调查发现,人们通常试图绕过自动代理与真人对话。

像 ChatGPT 和 Gemini 这样的新型聊天机器人要比我们习惯的自动电话菜单先进得多。但这些新工具仍然假定,人们愿意相信技术能代表他们完成事情。

斯坦福大学商学院运营、信息和技术教授莫森-巴亚提(Mohsen Bayati)认为,只要人们有一定的发言权,比如在交易敲定前批准交易,他们就会愿意接受这些工具。

“我很担心那些追求完全自动化的应用,”他说,如果能让用户成为“循环中的最后一个仲裁者”,很可能会减少很多对可靠性的担忧。

这一点很重要,因为这些人工智能系统虽然复杂,但也不是没有缺陷。它们容易产生幻觉,从而导致不可靠的答案,而且人们一直担心它们的信息来源是否准确和恰当。

今年早些时候,谷歌的“双子座”(Gemini)就因为生成了与历史不符的图像而受到审查。最近,社交媒体上的用户指出,谷歌新推出的显示在搜索结果上方、名为“人工智能概述”的人工智能生成的摘要因出现虚假答案而受到批评。在一个备受瞩目的例子中,谷歌的人工智能概述建议在披萨上涂上胶水,以防止奶酪滑落。

在向 CNET 提供的一份声明中,谷歌发言人表示,该公司看到的例子“一般都是非常不常见的查询”,“不能代表大多数人的经历”。该发言人补充说,“绝大多数人工智能概述都提供了高质量的信息”。

声明说:“在推出这种新体验之前,我们进行了广泛的测试,并将利用这些孤立的例子继续完善我们的整体系统。”

包括《纽约时报》在内的多家报纸和数字新闻机构已对 OpenAI 及其合作伙伴微软提起诉讼,指控其将受版权保护的材料用于训练目的。

据Wired和其他媒体报道,OpenAI 最近还解散了超级对齐团队,转而将这项工作整合到公司的其他部门。OpenAI去年宣布成立超级对齐团队,旨在确保超级先进的人工智能系统得到安全开发。

OpenAI 首席执行官山姆-阿尔特曼(Sam Altman)和总裁格雷格-布罗克曼(Greg Brockman)在X上发布了一份说明,解释了他们对安全的态度以及公司在 X 上的整体战略,以应对这些变化。“我们相信,既要实现巨大的发展前景,也要努力降低严重的风险;我们非常认真地对待我们在这里扮演的角色,并仔细权衡对我们行动的反馈,”说明中写道。

谷歌和微软也对其安全工作和以负责任的方式打造人工智能产品的方法发表了看法。谷歌在 I/O 大会上强化了其人工智能原则,其中包括安全测试、对人负责、避免制造或强化不公平偏见以及有益于社会等。微软的“负责任的人工智能”页面也列出了类似的价值观,如公平、包容、透明、可靠和安全。

但通常情况下,由技术进步引发的更大的社会问题--比如社交媒体对心理健康的影响,尤其是对年轻人的影响--只有在事后才会显现出来。

卡内基梅隆大学信息网络研究所助理教学教授哈南-希布希(Hanan Hibshi)说:“直到我们看到一些事件让公众注意到我们正在分享的数据种类,以及这些公司是如何使用我们的数据的,人们才会关注。”

考虑到人工智能被当作个人计算领域的一次重大变革来推销,如何正确处理这一问题对科技公司来说至关重要。过去 10 年来,科技行业一直在寻找下一个 iPhone 时刻,或者下一个像智能手机一样改变我们与科技关系的重大突破。在过去的十年里,从虚拟现实头盔到智能扬声器和智能手表,各种不同的想法层出不穷。

但是,2022 年末发布的ChatGPT受到了压倒性的欢迎,这是一个突破性的时刻。就像智能手表一样,新技术也需要一段时间才能普及,但不久之后,生成式人工智能就进入了从智能手机到个人电脑的各个领域。

我们是否已经准备好信任人工智能,可能还有待商榷。但最终,随着人工智能在日常任务中变得越来越重要,这些担忧可能会让人工智能带来的好处退居其次。纽约大学斯特恩商学院教授罗伯特-西曼斯(Robert Seamans)将其比喻为在线输入信用卡信息。大约 25 年前,人们可能还在犹豫是否要这么做,但如今,许多人已经将其视为一种常态,并愿意接受一定程度的风险。

他说:“我们也许会想象技术可能出错的方式,或者我们与技术的交互可能出错的方式。”“但我认为,一旦越来越多的人开始使用它,[而且]一旦我们自己也开始使用它,我认为这些恐惧很快就会消失。”

欢迎到FuninUSA.NET论坛讨论

0 阅读:4

省钱田田

简介:感谢大家的关注