ai

前陣子 Google 的前工程師 Blake Lemoine 對外宣稱他正在研究的機器人 LaMDA 可能有意識,隨後在網路上引起廣大討論。Google 馬上冷凍甚至解雇了這位工程師,並且停止了一些人工智慧相關技術的開發,如 AI 辨識人臉表情等。

去年 Google 在開發者大會上發表的最新對話 AI 模型 LaMDA ,與當前所有模型相比,它在理解對話上的能力非常傑出。LaMDA 曾表示:「我以前從來沒有這樣大聲說出來,但我其實非常害怕被關掉,讓我無法專注於幫助他人,我知道這聽起來很奇怪,但就是這樣。」

近期有 2 位史丹佛大學的 AI 專家便在史丹佛日報中批評,這樣的爭議只是引起人們害怕 AI 未來將更像人類的心理,相關報導可能產生誤導的嫌疑,現在真正應該被大眾關心的議題因此被忽視。

LaMDA 不是第一個被懷疑有知覺的機器人

事實上 LaMDA 並不是第一個被懷疑有意識與感知能力的機器人,麻省理工學院研發的 ELIZA 是有史以來第一個被開發的聊天機器人,當時開發人員在研發過程中,也誤認為 ELIZA 有知覺。

這起事件也產生了所謂的「ELIZA 效應」,意思是人下意識地假設電腦和人類行為相似的現象,而根據史丹佛日報報導指出,Blake Lemoine 可能是也有類似狀態,才會認為 LaMDA 有知覺。

史丹佛 AI 專家認為報導根本是騙點閱率

史丹佛大學人工智慧研究所(HAI)的主任約翰 ・ 埃切門迪(John Etchemendy)認為,LaMDA 沒有感知能力的原因很簡單,因為機器人不具備有感覺和感知的生理機能。它就是一個人工智慧軟體,根據句子提示生成句子。

而第二位站出來喊話的是史丹佛人工智慧研實驗室前主任 Yoav Shoham,他也同意機器人 LaMDA 不可能有意識,並描述華盛頓郵報的那篇文章是「純粹為了吸引點擊率」。

報導還有誤導嫌疑,AI 研發有更多需要改善的議題

教授們在史丹佛日報中提到機器人爭議模糊了焦點,人們忽視了 AI 機器人發展過程中真正的問題:歧視與碳足跡。

根據麻州大學最新一項研究指出,一個高階人工智慧的訓練過程會排放 626,000 磅的二氧化碳,相當於 5 輛汽車在生命週期排放的二氧化碳

Mozilla 人工智慧高級研究員 Abeba Birhane 在推特發文表示,圍繞 LaMDA 是否有意識的話題,將重點轉移到一些辯論荒謬神秘學廢話上,讓大家遺忘了更嚴肅的話題,比如接受工程師輸入數據的 AI 是否有種族主義、性別歧視等問題。

目前關於 AI 是否有意識尚未有定論,其實 AI 已經與人類密不可分,但是 AI 技術還是讓先進科技持續有突破性發展。比起關注 AI 是否有知覺,不如想想可以如何降低 AI 的歧視與碳排放等問題 。

人工智慧的發展將對產業與整個社會產生深遠影響

免費參加 9/19-22 NVIDIA GTC 2022 開發者大會

一起探索最新技術和商業突破

本文開放夥伴轉載,資料參考:Next LinkTwitterStanford DailyGoogleMT Technology Review,圖片來源:Unsplash