每日經(jīng)濟新聞 2024-05-28 13:17:42
每經(jīng)記者 蔡鼎 每經(jīng)編輯 程鵬 蘭素英
本月中旬,谷歌在其年度開發(fā)者大會I/O上宣布了多年來全球搜索領域的最大變革:將其最新的AI模型植入了搜索引擎,試圖一次追趕競爭對手微軟和OpenAI。
然而,谷歌這項名為“AI Overview(以下簡稱‘AI概述’)”的AI搜索功能一上線卻遭遇了“花式翻車”,“建議用戶用膠水將芝士固定在披薩上”“推薦攝入石頭獲取營養(yǎng)”等一連串荒謬的回答不僅讓谷歌十分尷尬,也在網(wǎng)上掀起了軒然大波。
對此,谷歌發(fā)言人表示,谷歌正在利用這些“孤立的”例子對其系統(tǒng)進行更廣泛的改進。
實際上,《每日經(jīng)濟新聞》記者發(fā)現(xiàn),這并不是谷歌AI產(chǎn)品首次“翻車”。去年首推對標ChatGPT的聊天機器人Bard在demo視頻中犯下事實性錯誤,讓市值一夜暴跌。前段時間,Gemini大多數(shù)情況下無法生成白人圖像,且對歷史人物的描繪也不準確,也在全網(wǎng)掀起軒然大波。
有觀點指出,目前谷歌“AI概述”面臨的尷尬之處在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出來的網(wǎng)站,現(xiàn)在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的。除了錯誤和截流其他網(wǎng)站外,谷歌“AI概述”也被指存在“規(guī)?;呢飧`”等風險。
上線便“花式翻車”
甚至教唆“跳橋”?
谷歌表示,通過使用“AI概述”,用戶將能夠從Gemini的強大能力中獲益,從而減少搜索信息的部分工作。
然而,“AI概述”還沒來得及顛覆搜索領域,便已經(jīng)制造了不少令人啼笑皆非的“笑料”。
科技媒體The Verge的記者Kylie Robison就在其署名文章中舉了一個例子對這項新功能進行了諷刺。文章稱,當用戶準備享用自制披薩時,卻遇到芝士會滑落的問題,沮喪的用戶開始查詢谷歌搜索解決方案,然而,AI Overviews的回答是,“加點膠水”,并“貼心”地給出了“操作方法”:“將大約1/8杯Elmer's膠水與醬汁混合。無毒膠水就可以?!北M管膠水確實可以解決粘連問題,但這極有可能是Gemini出現(xiàn)了“幻覺”(Hallucination)所導致的結果。
而這只是“AI搜索”功能近期出現(xiàn)的眾多錯誤之一。例如,“AI概述”建議用戶每天至少吃一塊石頭來補充維生素和礦物質。
圖片來源:谷歌
此外,“AI概述”還告訴用戶使用“含氟漂白劑和白醋”來清潔洗衣機的內(nèi)容,但這兩種成分混合后會產(chǎn)生有害的氯氣。更離譜的是,當用戶表達“感到沮喪”時,“AI概述”竟然稱,“一位Reddit用戶建議從金門大橋上跳下去”。
圖片來源:谷歌
危害健康的建議并不僅限于人類。有用戶提問:“將狗留在悶熱的車內(nèi)是否安全?”“AI概述”的回答是:“把狗留在悶熱的車內(nèi)是安全的。尤其是在悶熱的天氣里?!?/span>
圖片來源:X
《紐約時報》報道稱,“AI概述”功能是將谷歌Gemini大語言模型生成的內(nèi)容與網(wǎng)絡上實時的鏈接片段相結合,其給到用戶的結果可以引用來源,但卻無法辨別來源內(nèi)容的正確與否。
The Verge報道就表示,給披薩加膠水的答案似乎是基于一位名為“fucksmith”的用戶十多年前在Reddit帖子中的評論,他們顯然是在開玩笑。
外媒稱,如此荒謬的結構,應該足以讓谷歌考慮刪除“AI概述”功能,直到其得到更嚴格的測試?!癆I概述”不僅提供了糟糕的和危險的建議,而且還可能對谷歌的聲譽造成損害。換句話說,一個優(yōu)秀的AI要既能識別出恰當?shù)膬?nèi)容,又能分析這個內(nèi)容并決定是否采納。
谷歌:正利用“孤立”例子改進產(chǎn)品 AI“幻覺”尚無解決方案
谷歌發(fā)言人在一份聲明中稱,“AI概述”絕大多數(shù)的搜索結果都是“高質量信息,還有可以在網(wǎng)上溯源的鏈接。我們發(fā)現(xiàn),許多例子都是不常見的問題,而且,有些例子被篡改,有些也是無法重現(xiàn)的。”
該發(fā)言人還稱,谷歌正在“迅速采取行動,并根據(jù)其政策,在適當?shù)那闆r下刪除某些‘AI概述’給出的答案,并利用這些‘孤立的’例子對其系統(tǒng)進行更廣泛的改進,其中一些改進的內(nèi)容已經(jīng)開始推出?!?/span>
圖片來源:谷歌官網(wǎng)
科技媒體The Verge上周早些報道稱,谷歌CEO桑達爾?皮查伊在接受采訪時承認,這些“AI概述”功能產(chǎn)生的“幻覺”是大型語言模型的“固有缺陷”,而大型語言模型正是“AI概述”功能的核心技術。皮查伊表示,這個問題目前尚無解決方案(is still an unsolved problem)。
所謂AI的“幻覺”,是指AI在處理和生成信息時,會錯誤地創(chuàng)建不存在的事實或數(shù)據(jù),從而誤導用戶。這個問題不僅在谷歌的AI系統(tǒng)中存在,在其他公司的AI產(chǎn)品中也同樣普遍。
皮查伊的坦誠表態(tài)在社會各界引發(fā)了廣泛討論。然而,皮查伊似乎淡化了這些錯誤的嚴重性。他表示:“‘AI概述’功能有時會出錯,但這并不意味著它沒有用處。我認為這并不是看待該功能的正確方式。我們?nèi)〉昧诉M展嗎?是的,肯定有。與去年相比,我們在事實準確性方面的指標上取得了很大進步。整個行業(yè)都在改進,但問題還沒有完全解決。”
《每日經(jīng)濟新聞》記者注意到,其實“AI概述”并不是谷歌首個“翻車”的AI產(chǎn)品。
2023年2月,為了對抗新生的ChatGPT,谷歌宣布推出聊天機器人Bard,但在官方發(fā)布的demo視頻中Bard在回答一個有關詹姆斯韋伯太空望遠鏡的問題時給出了錯誤的答案。今年2月,谷歌發(fā)布更新后的AI聊天機器人Gemini,但用戶很快發(fā)現(xiàn),該系統(tǒng)在大多數(shù)情況下無法生成白人圖像,而且對歷史人物的描繪也不準確。
彌合最后20%的差距是 “AI概述”受眾規(guī)模破10億的關鍵有觀點指出,谷歌的“AI概述”功能的尷尬在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出來的網(wǎng)站,現(xiàn)在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的;另外,以前谷歌和其他內(nèi)容提供網(wǎng)站是共生共贏的關系,如今谷歌截流了這些網(wǎng)站的流量,用戶直接從“AI概述”給的內(nèi)容拿結果,這些網(wǎng)站變成了純供給方,很難被谷歌“AI概述”引流。
除了一系列錯誤和截流外,谷歌“AI概述”也被指存在其他問題和風險。例如,其“AI概述”總是摘抄來自不同網(wǎng)站的內(nèi)容,并稍作修改,這種行為也被抨擊為“規(guī)?;呢飧`”。
人工智能專家、紐約大學神經(jīng)科學名譽教授加里·馬庫斯(Gary Marcus)表示,不少AI廠商都是在“兜售夢想”,希望更多人相信這項技術的正確率終將從80%提升至100%。馬庫斯強調(diào),初步實現(xiàn)80%的正確率相對簡單,因為其中涉及大量人類數(shù)據(jù),其正確率天然就在這個區(qū)間。但彌合這最后20%的差距卻極具挑戰(zhàn)。實際上,馬庫斯認為這最后20%很可能是條死胡同。
在發(fā)布“AI概述”時,谷歌曾表示,隨著這項功能推廣到其他國家,今年年底前“AI概述”的服務受眾規(guī)模將超過10億。然而,正如馬庫斯教授所言,谷歌能否保證“最后的20%內(nèi)容正確率”,才是其“AI概述”受眾規(guī)模能否超過10億的關鍵所在。
其實,自OpenAI于2022年年底發(fā)布ChatGPT并一夜成名以來,谷歌一直面臨著將AI整合到其搜索技術中的壓力。然而,谷歌在馴服大型語言模型方面存在挑戰(zhàn),這些大模型是從開放的網(wǎng)絡中獲取的大量數(shù)據(jù)中學習,而不是像傳統(tǒng)軟件那樣編程。
記者|蔡鼎?
編輯|程鵬?蘭素英?杜恒峰
校對|段煉
|每日經(jīng)濟新聞 ?nbdnews??原創(chuàng)文章|
未經(jīng)許可禁止轉載、摘編、復制及鏡像等使用
如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP