Google AI搜尋翻車?揭秘幻覺AI如何影響資訊準確性

Featured Image
Google AI Overview 幻覺 AI 在2023年2月追趕ChatGPT的Bard時,公開犯了事實錯誤;2023年12月,Gemini侃侃而談如同賈維斯,然而卻被爆出影片是經過後製處理;2024年2月,Gemini生成多種膚色的歷史人物,被批評歧視白人。這回,厄運降臨到Google的看家本領「搜尋」功能。國外網友看熱鬧不嫌事大,甚至上演了一波鬥圖狂歡。剛結束不久的Google I/O大會,推出的其中一項功能是AI Overview。顧名思義,AI Overview在網頁頂部生成綜合多個內容來源的摘要,同時附有連結。當時,Google對AI Overview很有信心,宣佈當即向所有美國用戶推出,很快也會推廣到更多國家,預計年底超過10億人都可以使用。然而沒過幾天,AI Overview先在美國用戶這裡翻車了。自製披薩的奶酪容易掉下來怎麼辦?Google建議:往醬汁裡添加約1/8杯的膠水即可。特意強調是無毒的,真是令人感到窩心。Google並非隨意編故事,而是從Reddit一位用戶11年前的評論照搬了答案,可惜它讀不懂人類的幽默。Google沒有反駁問題本身的不合理,一本正經地胡說八道,根據加州大學伯克利分校地質學家的說法,應該一天至少吃一塊小石頭,以便攝取維生素和礦物質。答案的源頭是2021年的一篇報導,出自以假新聞和諷刺文章聞名的新聞內容。AI Overview也不精通美國歷史,掉進了陰謀論的陷阱,說奧巴馬是第一位穆斯林總統。一時間,X等社交媒體掀起了一股抽象的浪潮:曬截圖,比拼誰的Google回答最荒謬。針對這樣的狀況,Google回應表示大部分AI Overview提供的訊息還是正確的,也提供了有用的連結供使用者深入瞭解,很多「翻車」例子,都是一些比較不常見的問題,結果無法重現甚至被篡改過。比如,一張流傳甚廣的截圖顯示,治療憂鬱症的方法是跳下金門大橋一了百了。事關人命,Google特意解釋了,這個結果是偽造的。與此同時,Google沒有闢謠其他例子,而是把它們作為改進AI的養分。火眼金睛的網友還發現,之前Google I/O精挑細選的示範中,其實也出現了事實錯誤,只不過更加隱蔽。被問到如何修復卡住的底片相機,Google建議打開相機蓋並輕輕地取下底片,但如果實際這樣操作基本上會直接毀掉整卷底片。流年不利的Google,也不是第一次在萬眾矚目的公共場合犯錯了。2023年2月,Google Bard在展示時說,詹姆斯·韋伯太空望遠鏡是第一個拍攝太陽系外行星的望遠鏡。事實上,第一張太陽系外行星圖像是在2004年拍攝的。這次,除了AI Overview本身犯錯,還有一個糟糕的地方:這個功能,它不好關。一些熱心的開發者,連夜製作了幾個擴充功能,強制讓Google搜尋只顯示傳統的搜尋結果。沒有方便的退出機制是Google的不對,AI Overview基於傳統搜尋頁面,用戶量極大,萬一有不熟悉AI的用戶,盲目信任它的結果並被誤導,後果就不好說了。「Google怎麼會錯30%?」其實,AI Overview被曝光的問題並不新鮮。AI會犯錯,早就是公開的秘密。就像是「吸煙有害健康」的標語一樣,AI Overview下方標注著「生成式AI是實驗性的。」ChatGPT也小字提醒「可能會犯錯。」大型語言模型的基本原理,是利用預測下一個單詞或者短語生成出現機率最大的內容,有時可能會選擇不正確但看似合理的詞語,也就導致了虛假訊息或者說「幻覺」。AI Overview的胡言亂語也是幻覺的表現,它結合了大型語言模型生成的語句和網際網路的連結,可以引用內容來源,但不保證這些引用內容的準確。哪怕用到了RAG(檢索增強生成)等技術,將檢索系統與生成模型相結合,限制回答問題的範圍,也只能抑制幻覺,而非根治幻覺。並且,內容來源本身的可信度存疑。就像是美國版的PTT論壇Reddit就是由網友貢獻內容,而非權威媒體。今年2月,Google與Reddit達成協議,將其內容用於訓練AI模型。當時就有人懷疑,會否導致「garbage in, garbage out」(垃圾進,垃圾出)的尷尬情況。被「幻覺」困擾的不只Google。去年5月,一位網友提問微軟的New Bing時,答案明顯錯誤,他點開參考連結時發現,作為引用來源的回答,居然也是AI生成的,遣詞造句盡顯AI風味。既然AI搜尋都有幻覺,為什麼總是Google被炎上?創立於1998年的Google,如今成為搜尋的代名詞,身為AI巨擘,勢必拉高了外界的期待,也必須承擔犯錯的後果。相反,Perplexity的CEO Aravind Srinivas表示,輕裝上陣就是他們的優勢,字裡行間還有些驕傲。如果你使用我們的產品,80%表現不錯,你可能覺得印象深刻,但如果你使用Google的產品,只有70%正確,你可能會不解,Google怎麼會錯30%?另外,AI搜尋也導致了一個使用者認知上的轉變。我們以前說「用Google搜尋」,而介紹搜尋的生成式AI功能時,Google自己在官方部落格下的標題是「讓Google為你進行搜尋」,把主要和次要的關係微妙地倒轉了。過去,Google搜尋結果提供了那些可以回答你問題的連結。現在,Google自己用AI回答你的問題。也因此,傳播錯誤內容的矛頭,從訊息來源本身,轉移到了引用訊息內容的Google身上。這鍋,Google不得不背。AI搜尋在提供事實之外,還有哪些可能性?既然幻覺已然是前提,我們應該換個角度看待AI搜尋,問自己一個問題:是不是我們的預期出了錯誤?其實在AI Overview被批評前,Google CEO就在近日The Verge的採訪中提到過,「幻覺」問題仍未解決,甚至可以說是大型語言模型固有的特徵。他認為,大型語言模型不一定是瞭解事實的最佳管道,但這不代表大型語言模型是個廢柴,非黑即白的思維不可取,比如它可以創造詩歌、引入搜尋。CEO接受採訪也好,I/O大會也罷,都是在向用戶傳遞一個觀念:不要只把AI搜尋當作對現有網頁的簡單總結,AI發光發熱的地方還有很多。但AI Overview沒能讓人滿意,怪不到用戶頭上,相比發表會上展示的神奇效果,現在的AI Overview並非完全形態,很多功能還沒有上線。Google搜尋主管Liz Reid在I/O示範了一個「多步推理」的例子,輸入「找到波士頓最好的瑜伽教室,提供優惠訊息,以及從燈塔山出發的步行時間」,AI一步到位,以前要搜尋三次的,現在一次就夠了。同時,AI Overview未來還將有「規劃」能力,比如要求AI規劃三天的晚餐,使用者可以直接拿到一份食譜,並在這個過程中進行客製化,加上「素食」等需求,然後把這些結果輸出到文件中。Google的思路,和其他AI搜尋產品殊途同歸,就是讓搜尋更加可視化、更有互動性和個性化,用人話而非關鍵字溝通,節省查詢內容的時間,並且回答更加複雜和具體的問題。平時的大多數問題,天氣如何,匯率多少,跳轉官網,其實利用簡單的傳統搜尋就可以得到答案。但相對複雜的場景,AI搜尋被寄予了厚望,畢竟它比起ChatGPT這類內容生成式AI相比,多了內容來源,更加方便查證,比起傳統搜尋,又能進行更多的研究、創作、規劃、創意發想…等。與其說是比傳統搜尋更好的百科全書,不如說更有助理的樣子。當然,餅畫得再多,AI艘下雲的幻覺還是讓人在使用這些功能時不免擔憂。為此有人建議,安全起見,用生成式AI,別只看摘要,再用傳統的Google搜尋檢查一下。

Share this content: