Google AI搜尋失準:幻覺亂象與未來展望全解析

Featured Image
Google AI Overview 幻覺 AI
近期,Google的AI搜尋功能AI Overview遭遇了一些困境。這項功能在Google I/O大會上推出,旨在在網頁頂部生成綜合多個內容來源的摘要,同時提供相關連結。然而,很快就有用戶發現AI Overview生成的摘要存在事實錯誤和荒謬答案的問題,引發了一場熱烈的討論。

這些問題並不令人意外,因為AI模型存在一定的幻覺問題。AI模型使用大型語言模型生成內容時,根據預測下一個單詞或短語的機率來生成內容,有時可能選擇不正確但看似合理的詞語,導致生成的內容不準確或存在幻覺。AI Overview的胡言亂語正是這種幻覺的體現,它結合了大型語言模型生成的語句和網絡上的連結,儘管可以引用內容來源,但無法保證這些引用內容的準確性。

此外,AI Overview使用的內容來源本身也存在可信度問題。例如,AI Overview使用了來自Reddit等論壇的內容來源,這些內容主要由網友貢獻,並非權威媒體。儘管Google與Reddit達成了協議,將其內容用於訓練AI模型,但這也可能導致「垃圾進,垃圾出」的尷尬情況。

值得注意的是,Google並非唯一面臨幻覺問題的公司。去年,微軟的新版Bing搜索引擎也遭遇了與AI生成的回答相關的錯誤問題。這再次證明了AI搜尋普遍存在的幻覺問題,而Google作為AI巨頭,自然承擔了更多的壓力和責任。

儘管AI搜尋存在幻覺問題,但這並不意味著AI模型完全無用。相比之下,一些小型AI公司自信滿滿地表示,他們的產品在80%的情況下表現良好,而Google的AI產品僅有70%的正確率。這種思維方式顯然是片面的,AI模型可以創造詩歌、引入搜尋等功能,並不一定是瞭解事實的最佳途徑。

同時,AI搜尋也改變了使用者的認知。過去,我們說「用Google搜尋」,而現在,Google用AI回答我們的問題。這也導致了錯誤內容的傳播將指向Google作為引用內容的來源,這是Google不得不承擔的風險。

然而,我們還應該從另一個角度看待AI搜尋,即我們的預期是否存在誤差。Google CEO在接受採訪時提到,解決幻覺問題仍然是一個難題,甚至可以說是大型語言模型的固有特徵。他表示,大型語言模型不一定是瞭解事實的最佳途徑,但這不意味著它們沒有價值。相比之下,Google的AI搜尋功能AI Overview可能還處於不完善的階段,許多功能尚未完全上線。

未來,AI搜尋的發展方向是更加可視化、互動性和個性化,用人話而非關鍵字進行溝通,節省查詢內容的時間,並回答更加複雜和具體的問題。AI搜尋可能無法完全取代傳統搜尋,但它帶來了更多的可能性,如研究、創作、規劃和創意發想等。然而,我們在使用這些功能時仍然需要謹慎,可以使用AI生成內容後,再用傳統的Google搜尋進行核實。

總之,AI搜尋的幻覺問題並不罕見,早已是公開的秘密。我們應該接受這一事實,同時也應該認識到AI搜尋的其他可能性,並將其應用於適當的場景中。

Share this content: