Google AI Overview翻車: 搜尋引擎巨頭如何面對「幻覺」危機?

Featured Image
Google AI 在推出的 AI Overview 功能中遭遇了一些問題。這個功能旨在通過生成綜合多個內容來源的摘要,為用戶提供有用的信息。然而,AI Overview 在生成的結果中出現了一些事實錯誤和幻覺,引起了用戶的不滿和關注。

在 AI Overview 的問題中,有一些是由於大型語言模型的特性所導致的。大型語言模型使用預測下一個單詞或短語的方式生成內容,有時會選擇不正確但看似合理的詞語,這就導致了虛假訊息或所謂的「幻覺」。即使 AI Overview 使用了檢索增強生成(RAG)等技術來限制問題的範圍,也只能抑制幻覺,而無法完全消除。

此外,AI Overview 的內容來源本身的可信度也是一個問題。例如,AI Overview 使用了 Reddit 上的內容作為訓練材料,而 Reddit 是由網友貢獻內容,不一定具有權威性。這也使得 AI Overview 生成的內容引用了來源,但並不保證這些引用內容的準確性。

AI 搜尋中出現幻覺並不是一個新問題,它早就是公開的秘密。AI 會犯錯,這是其固有的特性。然而,Google 作為 AI 巨擘,必須承擔犯錯所帶來的後果。這也是為什麼 Google 在 AI Overview 問題曝光後,受到了更多的關注和批評。

然而,我們也應該換個角度看待 AI 搜尋。AI 搜尋並不一定是瞭解事實的最佳管道,但它可以在創造詩歌、引入搜尋等方面發揮作用。此外,AI 搜尋的未來還有很多可能性,比如更可視化、更有互動性和個性化的搜尋方式,能夠回答更複雜和具體的問題。

在使用 AI 搜尋時,我們應該保持一定的警惕性。建議在使用生成式 AI 時,別只看摘要,還應該使用傳統的搜尋方式進行檢查,以確保獲得準確的結果。同時,AI 搜尋的發展也需要更多的努力和改進,以提高準確性和可靠性,從而為用戶提供更好的搜尋體驗。

Share this content: