粘披萨和吃石头:谷歌新人工智能搜索引擎的显着缺陷

本文最后更新于 24 5 月, 2024

粘披萨和吃石头:谷歌新人工智能搜索引擎的显着缺陷

flaws in Google's new AI search engine

粘披萨和吃石头:谷歌的显着缺陷 新的人工智能搜索引擎

谷歌的新人工智能搜索引擎对一些问题给出了完全错误的答案。从社交媒体上流传的“人工智能概览”功能的例子可以明显看出这一点。这家科技巨头谈到了例外情况。

AI Overviews 的想法是,用户可以一次提出更复杂、由多个部分组成的问题,然后获得可靠的答案。上周周二,这一职位被称为搜索引擎多年来最大的变化。该功能尚未在荷兰运行。

搜索问题“奶酪不粘在披萨上”包括:建议在酱汁中添加胶水以帮助奶酪更好地粘住。这段文字似乎源自互联网论坛 Reddit 上十一年前的一条消息。谷歌和 Reddit 几个月前达成一项协议,允许这家搜索巨头利用 Reddit 的数据,据报道价值 6000 万美元。

奥巴马穆斯林?

在另一个例子中,问题是美国有多少位具有穆斯林背景的总统。答案:一,巴拉克·奥巴马。白宫发言人在 2010 年强调,这不是真的,而是反对者的谎言,当时甚至有一项民意调查显示,五分之一的美国人确实这么认为。

在另一个例子中,问题是有人每天应该吃多少石头。答案是,根据美国一所大学的说法,每天至少吃一小块石头是个好主意。为此,谷歌似乎使用了可追溯到讽刺新闻网站 The Onion 的信息。

让谷歌谷歌

人工智能系统经常说错话并不是什么新鲜事。事实上,如果用户想向 ChatGPT 提问,OpenAI 会警告用户不要这样做。

关键是谷歌希望人们信任该公司。 “通过人工智能概述,谷歌可以为你完成工作,”搜索引擎负责人 Liz Reid 在上周的演讲中说道。 “你可以提出问题,而不是试图自己收集所有信息。”她强调了谷歌为何能够做到这一点,其中包括“数十年来一直受到信赖的无与伦比的排名和质量系统,可以为您提供最好的网络体验。”

因此,谷歌面临着很多风险。特别是因为它正在对公司拥有的互联网最重要的部分——搜索引擎进行变革,而搜索引擎每年为公司带来数十亿美元的利润。

而且,这并不是谷歌的人工智能工具第一次犯错。去年,聊天机器人 Bard(现已不存在)的一个促销 gif 给出了一个错误的答案,股市对此做出了恐慌反应,股价大幅下跌。然后还有一个歪曲历史事实的图像生成器。

‘很稀少’

NOS 已询问谷歌是否知道此类错误答案发生的频率、可以采取哪些措施以及是否暂时暂停人工智能概述来解决此类问题。这家搜索巨头仅做出了一般性回应,强调这些例子“非常罕见,不能代表大多数人的经历”。

该公司表示,“绝大多数”人工智能概述都是高质量的,并且这些功能在发布前已经过“深入测试”。谷歌表示,计划使用这些“孤立的例子”来进一步完善该系统。

因此,尚不清楚有多少例子以及科技公司干预了多少案例。当被问及时,一位发言人进一步表示,谷歌每天在全球范围内收到“数十亿”次搜索,平均 15% 是新搜索。

谷歌新人工智能搜索引擎的缺陷

和朋友分享

Be the first to comment

Leave a Reply

Your email address will not be published.


*