谷歌生成式人工智能失败将逐渐削弱用户信任
鞭牛士报道,6月2日消息,据外电报道,对于谷歌来说,这是一个忙碌的阵亡将士纪念日周末,因为该公司正在努力控制其搜索平台的新 AI 概览功能带来的大量疯狂建议所带来的影响。
AI Overview 旨在为搜索查询提供基于 AI 的生成性响应。通常情况下,它确实会这样做。但上周,它还告诉用户,他们可以使用无毒胶水来防止奶酪从披萨上滑落,他们每天可以吃一块石头,并声称巴拉克奥巴马是第一位总统。
谷歌对此作出回应,删除了这些回复,并表示正在利用这些错误来改进其系统。但这些事件,加上谷歌灾难性的 Gemini 图像生成器发布,导致该应用程序生成了历史上不准确的图像,可能会严重损害这家搜索巨头的信誉。
「谷歌应该是互联网上的主要信息来源。」纽约大学坦登工程学院计算机科学与工程副教授 Chinmay Hegde 解释道。「如果该产品被淡化,它将慢慢侵蚀我们对谷歌的信任。」
谷歌的 AI 概览问题并不是该公司自开始其生成式 AI 驱动以来第一次遇到麻烦。该公司的 Bard 聊天机器人(谷歌于 2 月将其更名为 Gemini)在 2023 年 2 月的宣传视频中出现了一个错误,导致谷歌股价下跌。
然后还有它的Gemini 图像生成器软件,它可以生成不准确场景中不同群体的照片,包括 1943 年的德国士兵。
人工智能一直存在偏见,谷歌试图通过在生成人物图像时纳入更广泛的种族多样性来克服这一问题。但该公司矫枉过正,软件最终拒绝了一些针对特定背景人物图像的请求。谷歌对此作出回应,暂时下线了该软件,并为此事道歉。
与此同时,AI 概览问题出现的原因在于谷歌表示用户问了一些不常见的问题。
在吃石头的例子中,谷歌发言人表示,似乎一个关于地质学的网站将其他来源的有关该主题的文章联合发布到他们的网站上,而这恰好包括了一篇最初出现在洋葱报上的文章。AI 概览链接到了该来源。
这些都是很好的解释,但谷歌继续发布存在缺陷的产品并需要进行解释的事实让人感到厌倦。
卡内基梅隆大学泰珀商学院商业伦理学副教授德里克莱本 (Derek Leben) 表示:在某种程度上,你必须对自己推出的产品负责。
「你不能只是说。。。。。。我们将把人工智能融入到我们所有成熟的产品中,而且它处于持续的测试模式,对于它造成的任何错误或问题,我们都不会负责,甚至不会受到指责,就对产品本身的信任而言。」
谷歌是网上查找事实的首选网站。每当我和朋友就一些无聊的话题争论时,我们中的一个总会大喊:「好吧,谷歌一下!」你很可能也这么做过。也许不是因为你想证明你比朋友更了解辛普森一家的一些鲜为人知的事实,但仍然如此。
那么,为什么会出现这样的失误呢?Hegde 说,公司只是行动太快,在产品尚未准备好时就发布,以期超越微软等竞争对手(微软) 和 OpenAI。
「研究的步伐如此之快,以至于研究和产品之间的差距似乎正在显著缩小,而这导致了所有这些表面问题。」他解释道。
自 2023 年 2 月微软和 OpenAI 联手发布其 Bing 搜索引擎和聊天机器人的生成式 AI 版本以来,谷歌一直在努力摆脱落后于微软和 OpenAI 的形象。
本月早些时候,OpenAI 甚至在 I/O 开发者大会开始前一天宣布了其强大的 GPT-4o AI 模型,从而抢在了谷歌之前。
但如果击败竞争对手意味着推出会产生错误或有害信息的产品,那么谷歌就有可能给用户留下这样的印象:它的生成式人工智能成果不可信,最终不值得使用。