Google AI搜尋功能失準:真實還是虛幻的資訊?

Featured Image
谷歌 AI 概览:厄运降临到谷歌搜寻功能的看家本领

谷歌 AI 概览是谷歌在最近的 I/O 大会上推出的一个功能,它在搜索结果页面的顶部生成一个综合多个内容来源的摘要,并附上相关链接。这个功能的初衷是为了提供更快速、更全面的搜索结果,帮助用户更方便地获取所需信息。

然而,谷歌 AI 概览在推出后不久便出现了问题。有用户发现,AI 概览生成的摘要内容有时会出现错误、荒谬甚至具有误导性。一些用户甚至截图并分享了这些荒谬的搜索结果,引发了一波骚动。

谷歌 AI 概览的问题主要源于其采用的大型语言模型。大型语言模型的基本原理是根据出现概率最大的单词或短语生成内容,但有时选择的词语可能是不正确的,也就导致了虚假信息或所谓的“幻觉”。谷歌 AI 概览生成的摘要内容还结合了来自互联网的链接,可以引用内容来源,但并不保证这些引用内容的准确性。

AI 概览的问题还有一个关键点,就是用户无法方便地退出该功能。一些开发者制作了一些扩展程序,强制将谷歌搜索结果恢复为传统的搜索结果页面。这种缺乏方便退出机制的做法使谷歌受到了一些批评,因为如果有一些不熟悉 AI 的用户盲目信任 AI 概览的结果并被误导,后果可能会很严重。

谷歌对于 AI 概览的问题做出了回应,表示大部分 AI 概览提供的信息仍然是准确的,并提供了有用的链接供用户深入了解。很多“翻车”的例子都是一些比较不常见的问题,结果无法重现甚至被篡改过。谷歌还特别解释了一些假造的截图,比如宣称跳下金门大桥来治疗抑郁症,这样的结果是伪造的。

谷歌目前并没有闢谣其他例子,而是将这些例子作为改进 AI 的机会。这种做法是合理的,因为大型语言模型无法完全避免错误,但可以通过这些错误来改进模型的准确性和可靠性。

AI 概览的问题不仅仅是谷歌所面临的挑战,其他公司也面临类似的问题。微软的新版必应搜索在回答问题时也存在明显的错误,甚至引用的参考链接也是由 AI 生成的。因此,AI 搜索的幻觉问题并不是谷歌所独有的。

谷歌作为 AI 领域的巨头,必须承担犯错的后果。然而,AI 搜索的幻觉问题并非完全可避免,这是大型语言模型固有的特点。谷歌 CEO 在接受采访时表示,大型语言模型不一定是理解事实的最佳途径,但这并不意味着它们毫无用处。相反,大型语言模型可以用于创作诗歌、引入搜索等方面的工作。

虽然 AI 概览在目前的表现仍然不尽人意,但谷歌在其未来的发展中仍有很多计划。谷歌希望通过 AI 概览实现更可视化、更互动、更个性化的搜索体验,让用户能更轻松地获取复杂问题的答案。谷歌还展示了一个名为“多步推理”的例子,用户只需要一次搜索即可得到关于波士顿最好的瑜伽教室、优惠信息以及从灯塔山出发的步行时间的答案,而以前需要搜索三次才能得到这些信息。

AI 搜索的发展给用户带来了认知上的转变。以前我们说“用谷歌搜索”,而现在谷歌自己用 AI 回答我们的问题。这也使得谷歌成为了错误内容传播的焦点。这种转变让谷歌不得不面对这一问题。

虽然 AI 搜寻存在幻觉问题,但我们应该从另一个角度来看待它。AI 搜寻并不是一个完美的解决方案,但它有很多优势。与其将其视为一个仅仅对现有网页进行简单总结的工具,不如将其视为一个助理,它可以进行更多的研究、创作、规划和创意发想。虽然 AI 搜寻有幻觉问题,但它仍然有很多潜力可以发掘。

总而言之,AI 概览的问题是可以预料到的。大型语言模型在提供准确的信息方面仍然存在一定的困难,但这并不意味着它们是无用的。谷歌和其他公司都在努力改进这一问题,希望能够提供更准确、更可靠的搜索结果。对于用户来说,了解这些问题并保持批判性思维是非常重要的。同时,我们也可以通过传统的搜索方式来检查和验证 AI 搜寻的结果,以确保获取到准确可靠的信息。

Share this content: