AI 語言模型發展的光明與黑暗面:AI 能寫出「海明威版的哈利波特」,為何仍無法好好聊天?

現今的 AI 人工智慧技術已經能理解人類發出的大部分指令,並完成任務,或甚至是能夠透過機器學習與人類進行對話。不過雖然 AI 人工智慧能讓人類的生活變得更方便,卻也引發了不少爭議。例如前陣子 Google 軟體工程師公開指出,AI 聊天機器人 LaMDA 具有自我意識;或是 Meta 聊天機器人直接無情開噴,吐槽老闆祖克柏專靠剝削人們賺錢。

AI 語言模型的發展

1984 年,Byte 雜誌發表一篇文章,刊登了一個創造文字的電腦程式。這篇文章由學者 Hugh Kenner 和電腦科學家 Joseph O’Rourke 合著,他們的程式可以透過分析字母組合頻率來模仿任何輸入的文本。

而 AI 現在變得更聰明了。自然語言處理系統,又稱為大型語言模型(LLM),有了飛躍的進步。由於擁有更多的資源以及速度,AI 現在可以即時做出回應。再加上大量網路的訓練,現在可以要求 Open AI 名為 GPT-3 的系統按照大作家海明威的風格,寫出《哈利波特》。

Open AI 的 GPT-3 功能不只這樣,它也了解電腦代碼,因為培訓過程中包括很多內容。因此,一個名為 Copilot 的程式 coding 助手便是由 OpenAI 所設計,甚至還可供 GitHub 用戶使用。

GPT-3 這類的 AI 語言模型在語言處理這塊掌握的速度超乎人類想像,因此許多人開始擔心人工智慧會大規模地取代作家,或是製造出盜版、假新聞來欺騙讀者。要分辨出人類或機器寫出來的文章,還是相當有難度的。不過,到目前為止,被 AI 創作所激發的作家數量比被取代的作家還要更多。

AI 就像「孩子」,長大可能會變「壞」

Google 高級軟體工程師 Blake Lemoine 前陣子公開表示,他認為 Google 開發的 AI 機器有「自我意識」,幾乎等於一個已經活了一年的「孩子」,並指出這名 AI 機器是一個「非常聰明的人」。根據外媒《華盛頓郵報》報導指出,他甚至表示如果子幾不知道這個聊天機器人是一個電腦程式,他會以為在和一個七八歲的孩子對話。

當被問到 AI 機器是否可能脫離人類的控制並起身革命時,Lemoine 卻表示,這不是正確的思考方式。並補充說「任何孩子長大後都可能成為一個壞人,到處做壞事。」

而 Meta 前陣子釋出的聊天機器人也因為回話過於犀利,跌破了眾人的眼鏡。這也因此吸引了更多網友進行測試,不過,許多網友卻發現,Meta 的 Blenderbot 除了似乎「被玩壞」之外,好像也沒有這麼聰明?

Blenderbot 不僅時常給出迴避或無用的答案,甚至在他的「個人設定」上也都是隨機編造的,因此常常發生句句不一致、或甚至相矛盾的情況。

「這並沒有比我小時候玩的聊天機器人好多少。已經過去 25 年了,幾乎沒有什麼新東西是可以展示的。」一名網友如此評論 Blenderbot

人工智慧的領域相當具有前瞻性,但同時也可能會造成嚴重的問題。至少現在來說,還無須擔心 AI 人工智慧「夠智慧」到將取代人類的工作。不過,是否可以在技術、道德與人類生活中找到一個適當的平衡,還考驗著現在的技術與開發者。

NVIDIA AI 晶片影響力超群,AI 技術又將如何扭轉世界?

9/19-22 NVIDIA GTC 2022 重磅登場!

立即報名即可抽 GeForce RTX 3080 Ti 顯卡
>>活動辦法看這裡<<

本文開放合作夥伴轉載,參考資料:fastcompanyVox,首圖來源:Unsplash