伴隨著科技演進,追求人工智慧這件事情似乎也變得理所當然。從電影《變人》、《機械公敵》、《鋼鐵人》中的「老賈」等都在闡述未來人工智慧進入我們生活中的想像。也許目前還未達到電影中的技術,仍在持續進步中。其中比較符合平常民眾對人工智慧的想像大概就是 Apple 公司的 Siri ,還有 Google 推出的語音系統。

但現在遭遇的問題是, Google 跟 Siri 的語音系統也許聽得懂「七點我家附近有什麼電影可以看?」;但是對於「短吻鱷能夠參加百米跨欄賽跑嗎?」這類淺而易見的問題,但網路搜尋引擎搜尋不到的東西完全束手無策。

  • 人工智慧發展缺乏「智能」概念

多倫多大學專攻 Computer Science 的 Hector Levesque 在一場國際人工智慧的會議上,發表了一篇論文,並對人工智慧界的研究者大大數落了一番,他認為同行們都忽略了人工智慧中「智慧」這一塊相關內容。

Hector 首先對測定人工智慧的 Turing test(涂靈測試)提出質疑。下圖中的 C 透過一連串的問題詢問牆後的 A 與 B ,若經過一連串的問題之後 C 無法分辨出誰是電腦,機器 A 即通過涂靈測試。

過去只要通過涂靈測試的電腦,我們便將其認為具有「智能」。但也因為如此現在很多研究人員只為了通過測試、增加自己電腦的智能分數,於是耍一些花俏的把戲、讓電腦學會虛張聲勢、顧左右而言他。人工智慧真實的使命是塑造智慧,而非打造專門用來通過測試的軟體。通過測試的電腦,有時並不是真的這麼「智慧」。

人工智慧不應該比賽誰才是欺騙牆後人類的高手、學習成為一個騙子。

  • 回歸人工「智慧」

為了讓人工智慧可以重回正軌,Hector 呼籲研究者們應重新考慮另一個難度較高的測試,稱為 Winograd Schemas ,名稱以紀念 Stanford 大學的人工智慧先驅 Terry Winograd。Terry Winograd 在 1970 年代提出了一個問題:要如何才能發明出能夠回答以下問題的機器?

鎮上的議員們拒絕提供給憤怒的遊行者遊行許可,因為他們擔心會發生暴力行為——請問是誰在擔心暴力行為?

A、鎮上的議員們

B、​​憤怒的遊行者

Hector 與研究夥伴依據這套方法設計了幾個問題,對智力正常的人來說非常簡單、容易分辨,但對依靠 Google 搜尋的智能機器卻很頭大,因為出現在問題中的人物都是虛構的,很難在 Google 上找到答案。例如:

Joan 對 Susan 感到非常感謝,因為她伸出了援手。請問是誰伸出了援手?

A、Joan

B、​​Susan

要回答這個問題,要對人類語言的細微處以及社交行為的本質有足夠深刻的了解才行,而不是 Google 搜尋 Joan 或是 Susan 就能獲得答案。不過這套 Winograd Schemas 問題是由 Hector 與研究夥伴共同設計,不知道會不會讓人聯想到自肥問題呢?

Hector 希望研究人工智慧的同業夥伴們不要再忽略現有問題了,應該試著去完善現有的已有的技術、分析人類錯綜複雜的知識內容,而不是盲目追求著追捧著趨勢。

這當然不是一件簡單的事情,也不是我們普通人容易搞懂的領域,人工智慧如果研發有跳躍性的進展,可以想像的到也會引發非常多社會、道德等問題,不過如果遲遲沒有進展,我們什麼時候才看到的變形金剛真實版啊!

(參考資料:The New YorkerWiki數位典藏與學習電子報;圖片來源:Wiki, CC Licensed)

An orange a day, keeps your brain awake!

一天吃一顆橘子,天天擁有聰明的腦子!
快加入《TechOrange》的粉絲團每天啃橘子吧!