Search
Close this search box.

OpenAI 執行長:我是地球上最不相信 ChatGPT 的人——AI 「幻覺」讓他頭大,某些產業可能被迫停用?

AI 出現幻覺

半年多過去了,市場還是為生成式 AI 為之瘋狂。麥肯錫全球研究所最新報告估計,生成式 AI 將為全球經濟增加 2.6 兆至 4.4 兆美元。

但現在有個大問題是——也許以大型語言模型為主的生成式 AI 永遠無法準確給出答案。Anthropic 的聯合創辦人 Daniela Amodei 近期接受媒體訪問時指出,當今任何模型都存在一定程度的不準確。「所有模型或多或少都有幻覺(hallucination)的情況。」

6月當 OpenAI 執行長 Sam Altman 造訪印度一所大學發表演說時,甚至也指出「我可能是地球上最不相信 ChatGPT 所生成的答案的人。」同意模型仍有許多幻覺問題待解決。

AI 模型像人類一樣出現「幻覺」,它是不是也會胡言亂語?

要了解什麼是 AI 模型的幻覺,得從人類大腦談起。在人類心理學中,當我們的記憶出現部分空白時,大腦可能自動編造出不存在的片段,目的不是要欺騙自己或他人,而是要使其合理化,這現象稱為虛構記憶(confabulation)。

同樣的,由於大型語言模型的設計邏輯,其實只是為了預測下一個可能出現的單字,所以遇到守備範圍之外的問題,也就是那些無法好好作答的空白。模型同樣也可能以虛構出的「幻覺」來填補答案。

像年初時,當 Google 聊天機器人Bard 被問到「可以告訴我韋伯太空望遠鏡有哪些最新發現嗎?」結果 Bard 以 2004 年另一個歐洲天文望遠鏡的成果作為答覆, Google 因爲這樁張冠李戴,落得市值蒸發 1000 億美元的下場。

訂閱《AI TOgether》趨勢週報
每週幫你精選 AI 主題報導

感謝訂閱!隨時注意信箱的最新資訊

專家:三大主因讓 AI 模型脫靶演出,回答始終找不到準心

模型之所以會有無法好好作答的情形,技術專家 Ben Lutkevich 歸納出背後三種可能的技術原因。

 第一是數據污染。當餵養模型的資料庫中存在著客觀錯誤、前後矛盾的資訊時,模型也可能因此受到混淆。第二是人為偏見,由於模型訓練過程中多少仰賴技術人員,給予模型作答成功與否的「標準」,而這個標準可能受到人為偏見影響,而讓模型失準。第三則是使用者輸入的上下文不明確、模稜兩可,或是前後矛盾,模型也可能因而蹦出不合常理的回答。

延伸閱讀:聊天機器人總是「不懂裝懂」?因為它有幻覺、它不是故意的

AI 有幻覺是好事?但這些產業可能被迫要放棄使用 ChatGPT!

生成式 AI 有著無法消除的幻覺,對需要編造更多創意內容的產業來說,可能是好事。華盛頓大學計算機語言學實驗室主任 Emily Bender 指出,由於大型語言模型擅於模仿人類的寫作風格,且其編造出來的東西,「無論正確與否,看起來都會是合理、有趣的。」

新創獨角獸 Jasper AI 總裁 Shane Orlick 也指出,對於那些向 AI 尋求撰寫宣傳、廣告素材的行銷公關公司而言,虛構或杜撰的內容通常不是問題。

但生成虛構答案或模糊有誤差的解釋,對一些攸關人命的產業,像醫療或法律,是絕不能縱容的問題「可能這項技術最終仍無法與這類行業的需求匹配。」Emily Bender指出,由於幻覺可能無法根除,部分產業也許得放棄應用生成式 AI 的希望。

但目前 Sam Altman、比爾·蓋茨等重量級業內人士,仍認為時間能解決一切。

比爾·蓋茨在 7 月的一篇觀點文章中指出:「我樂觀認為,隨著時間推移,AI 模型能逐漸學會區分事實和虛構。」

Sam Altman 則認為,這一切大概需要兩年左右的時間。才能讓模型在創作虛構內容與傳遞真實準確資訊之間達成平衡。

*本文開放夥伴轉載,參考資料:《Fortune》《美聯社》《Ars Technica》、《WhatIs.com》。首圖來源:unsplash

(責任編輯:黃俊誠)