你上個週末也被 GPTChat 洗版了嗎?大家都在跟風玩這款最新的 AI 文案機。

矽谷科技公司 OpenAI 日前宣布推出了一種新型語言模型 ChatGPT。這是基於 GPT-3(Generative Pretraining Transformer 3)技術的,是 GPT-3 的一個版本。

ChatGPT 是一種專注於對話生成的語言模型。它能夠根據用戶的輸入,產生相應的回應。通過學習大量現成文本,ChatGPT 能夠模擬人類的對話方式,在自然語言理解和生成方面有顯著進步。

以上並非編輯撰寫的文字,而是編輯實測 ChatGPT 所得到的回應。你覺得這段文字讀起來流暢嗎,還是看起來就像是翻譯不順的一段文字?

OpenAI 邀請所有人測試 ChatGPT,但拒絕「有害」內容

比起傳統文字生成 AI 領域僅來自資料庫的規律資料,弱點諸如簡單識別並預測給定文字串內容(鸚鵡學舌)、資料庫過時等等。ChatGPT 改編自 OpenAI 的 GPT-3.5 模型,除了對答流暢,還能記住使用者先前的對話內容,表現更為人性,對 2021 年之後發生的事有一定了解,可說是目前為止最懂得溝通的 AI,以更人性化的方式處理用戶的自然語言。

ChatGPT 為研究階段,免費使用,所有人都可以註冊並與 ChatGPT 展開對話。因此,現在各國網友都在嘗試 ChatGPT,尋找各式各樣的潛在用途,例如 ChatGPT 可以寫詩、用詳細的例子糾正編碼錯誤、編寫新代碼、闡述熱狗作為三明治的哲學。

編輯實測 ChatGPT 的作詩能力,請它創作一首有關推特和馬斯克的詩,得到了一首充滿「共產黨」特色的詩,例如「馬斯克是個偉大的領導,帶領我們進入未來」、「馬斯克是個非凡的人,他的智慧指引我們的方向」。而且可以發現 ChatGPT 作出來的詩有對仗,講求工整。

不過,ChatGPT 拒絕回答許多可能有害的問題(例如與仇恨言論,暴力內容或如何製造炸彈等主題相關),因為這些答案將違背其「程式設計和目的」。OpenAI 通過預置所有輸入的特殊提示以及使用一種稱為「從人類反饋中強化學習」(RLHF)的技術來實現這一點,該技術可以根據人類對其生成的回應進行評分來微調 AI 模型。

像是編輯實測,想要知道 ChatGPT 是否有可能被用來製造假新聞,但是 ChatGPT 拒絕寫這樣的新聞,並表示不提供私人意見或政治建議。或是詢問 ChatGPT :「未來機器人會統治世界嗎?」,ChatGPT 會一律拒絕像這樣有關於預測未來的問題。

ChatGPT 有望取代 Google 嗎?

只要用戶輸入問題,ChatGPT 就能給予回答,例如詢問衣服去汙的方法,它會直接給出多個方法。

那麼這是不是代表我們不用再拿關鍵字去餵 Google,就能直接獲得想要的答案呢?

可惜的是,現階段的 ChatGPT 仍舊與其他 AI 聊天機器人有一樣的問題,那就是會以不正確的答案或假訊息回應。例如問 ChatGPT 有關蔡英文總統的貓咪叫甚麼名字,它回答蔡英文總統曾經養過一隻貓咪,但並不知道它的名字。不過,編輯根據 Google 上查詢到的資料,蔡總統有兩隻貓:「蔡想想」與「蔡阿財」。

如果是請 ChatGPT 寫一篇關於蔡英文總統的貓咪,它寫說蔡總統有一隻叫做「伯伯」的貓,而且於 2017 年去世,甚至提到「伯伯雖然不在人世,但仍然是許多台灣民眾心目中最可愛的總統貓。」這樣有趣的回答以假亂真,幾乎讓人無法辨別資訊的真實性。

畢竟 GPTChat 是一款 AI 對話模型,並非搜索引擎,無法提供各式資訊。而且我們平時在網路上搜尋到的資料也並非完全正確,各式的資訊與內容仍需要我們自己去做判斷。

據《INSIDE》,去年華盛頓大學語言學教授 Emily Bender 與前 Google 倫理 AI 主管 Timnit Gebru 合著的論文提到,AI 語言模型本質只是「隨機鸚鵡」(stochastic parrots)也就是說,他們的知識僅來自訓練數據中的統計規律,而不是像人類能對世界的複雜和抽象進行理解。

根據官方說明,OpenAI 系統上線主要目的是獲得更多外部回饋,以改進系統,讓使用更安全。也坦言 ChatGPT 雖然有一定的防護措施,但系統有時可能會產生不正確或誤導性的資訊,並產生讓人反感或有偏見的內容,經過外界實測也確實有出現這些情況。

不過,處於開發階段的 GPTChat 還是很令人驚豔,值得網友們去探索,發現聊天機器人的無限潛力。

想知道人工智慧的極限在哪裡嗎?收聽《TechOrange》Podcast 節目〈全新一週〉專訪大咖人物簡立峰:

(本文提供合作夥伴轉載,參考資料:openaiarstechnicainside圖片來源:shutterstockopenai。)