台大資工系教授的 AI 全面戰略分析:新創想 CONNECT with AI ,要先知道人工智慧的藍海在哪裡

【我們為什麼挑選這篇文章】

先前台大資工系的林守德教授就在臉書上發表過 第三波人工智慧技術革命  這篇文章,從人工智慧的定義談到 AI 發展的現況,我覺得非常值得大家一讀。而這次林守德教授分享的,則是從新創研發的角度,說明要是想發展 AI,應該要從哪個角度的 AI 下手,要採取怎樣的戰略。總體來說,這是一篇 AI 戰略分析文,告訴你一個新創業者該如何 CONNECT with AI,找到和市場對話的方式。(責任編輯:林子鈞)

 

人工智慧(Artificial Intelligence,簡稱 AI)自 50 年代由英國計算機科學家艾倫圖靈提出迄今已六十餘年,期間經歷了兩次的熱潮與兩次的「AI 寒冬」;時至今日,隨著科技創新及因應人類生活變遷發展至 AI 第三波的崛起。 與前兩次的熱潮大多是西方國家投入不同,在 第三波的 AI 革命 規模前所未見,全球各國政府與民間企業,紛紛投入大量資源,壓注 AI 是下個世代輸贏的關鍵

近年來筆者有許多機會接受國內外傳產、新創公司及政府法人之諮詢,皆表示投入 AI 研發與產業的高度願意,希望得到方向上的建議。在參與諸多討論與腦力激盪的活動之後,我個人的焦慮不減反增。

由三國的歷史經驗言之,一場戰爭能夠勝利,主要取決於「戰略」的制訂,其次才是戰術執行。諸葛孔明初出茅蘆訂定「三分天下」的戰略,是後來劉備崛起的原因。想要在 AI 的戰場上佔有一席之地,最重要的「戰略」為何?在此我拋磚引玉利用這個機會把我個人的想法與各界先進分享,主要希望大家能夠重視這個議題,以成就完成更完整的論述。

我希望先從新創研發的角度,探討 AI 的藍海。也就是:如果一個公司希望能夠踏入 AI 的研發,或是一個 AI 研究部門希望開始從事 AI 的研究,應該選擇什麼樣的方向?

過去幾年大家討論最多的就是人工智慧之應用。AI 暴紅之後,全球有數以萬計的固有企業或新創產業都在布局  AI,時刻鑽研 AI 有什麼「殺手級的應用」,好像一間公司沒有 AI 就沒有競爭力:從固有的產業如金融、交通運輸、醫療、製造、農業、行銷、到新興產業如電子商務、通訊、廣告等,AI 的相關應用遍地開花,儼然進入「肉搏戰」紀元。

例如無人載具(無人機無人汽車)、全球至少有數百家大大小小的公司在從事研發;時下新興行業實時競價 RTB(Real Time Bidding),國內就有超過十家公司,多是利用機器學習以及巨量資料分析的技術來實現。

這方面的技術研發我稱之為 AI+X,這裡 X 就是填上相關的應用(如 AI-Medical 就是人工智慧在醫療上的應用,AI-finance 就是 AI 在金融方面的應用)。AI+X 如前所述已經進入了「戰國紅海」時期,可以想到的應用幾乎都有人在嘗試。

結果大致上分兩類, 第一類的 AI+X 技術已經成熟,且成為人類生活不可或缺的一環,例如搜尋引擎、推薦系統以及金融高速交易 。第二類的 AI 尚未全面取代人類原有模式,但已經有若干區域性的成功案例,如 AI 用在醫療(IBM 華生)、物流(Amazon)、法律(legalrobot.com)等。在競爭激烈的 AI 應用戰場上,要殺出重圍除了具備與眾不同的技術,更需要完善的商業模式。

所以,AI+X 的應用能不能做?當然可以,從研發的角度而言,就是要想如何比別人做得好。但是 AI+X 容不容易做?坦白講是不容易的。因為 人工智慧偏向軟體而非硬體產業,沒有產能與產量的問題,所以有「贏者全拿」的模式。

也就是說,不是全球第一,或是缺乏與眾不同的優勢,大概就很難成功。這樣的挑戰是希望進入這個行業的新創需要率先認知的。在 AI 的戰場上生存的空間大多來自領先全球的技術。因此,我很同意 這一篇文章 的看法 [1]:「在某種程度上,整個創業界必須回歸基本功,對於學術和產業專業做長期的投資耕耘,而不是妄想能一夕之間想出一個驚天動地的『好點子』而一炮而紅,這種創業神話在現實中發生的機率是微乎其微。」

所以,現階段 AI 的發展並不是想到一個好的應用,以 tensorflow+GPU 做個深度學習的套件就能成功,當機器學習(machine learning)甚至深度學習(deep learning)的套件做到連不懂原理的人都可以輕易使用時,必須要有更強大的技術能力才能與眾不同。

如果一個 idea 可以在幾天內被實現,即便這個 idea 是全新的,也可能在短時間內被複製;反之,若某個想法是「即使我告訴他人要做什麼,他人也無法輕易做得比我好」,表示技術的門檻夠高,在 AI 的戰國時代成功的機會就大幅提升。

然而,AI+X 大多是屬於戰術層次的問題,而如何以此殺出重圍不是本篇的重點。本篇更想討論的是從戰略的角度,也就是如何找到 AI 的藍海?個人淺見認為,AI 的藍海不在 AI+X,而在 AI-Next 以及 AI-Then。

AI-Next 我稱之為「次世代的人工智慧技術」,目的是要解決當前這波人工智慧技術所不能解決之問題。雖然坊間對於人工智慧的期待甚多,人工智慧專家都知道目前的技術還有許多需要突破的點。

例如機器學習需要依賴大量標注資料的問題、訓練模型參數調校困難的問題、資料為本的方法對於推論與邏輯判斷較弱的問題、「資料」與「知識」如何整合的問題、找出更好的非凸性質最佳化(non-convex optimization)方法、指導式學習缺乏創造力的問題等等族繁不及備載。需要注意的是這些都是 AI 在「方法」上面需要補強之處,而彌補這些技術的缺口也會對應到一些應用層次的提升。AI-Next 會是 AI+X 超越別人的契機。

知名的機器視覺專家李飛飛曾言:「我們處在的年代,不是 AI 的起點,也不是 AI 的終點,應該是 AI 啟蒙階段的終點」。我的詮釋是:如果把電腦的智慧看成有「啟蒙期,發展期,成熟期」目前我們正在啟蒙時代的末期,進入發展期的前端。

這也表示 AI 雖然已經可以展示出初步的「智慧」,尤其是「辨識」(如語音、視覺)相關以及「從資料中學習」已經很成熟,卻仍有許多需要開發探索的領域存在。 使用啟蒙期的 AI 去從事 AI+X 的應用,就如同將正在就讀小學的孩子送上戰場一樣 ,碰到簡單的任務也許勉強可以勝任,碰到困難的任務就等於瞎子摸象,成功是運氣,而失敗大家會稱讚他有勇氣。

另一個或許更「藍」的海,我稱之為 AI-Then「AI 世代面對的問題」。這個部分要討論的是:在不久的將來,快則兩三年,慢則五到十年,人工智慧(或說「弱」人工智慧)的應用必定會更無遠弗屆。除了正面的改變人類的生活外, AI 普及化也會造成許多前所未有的問題。

AI-Then 就是去解決未來 AI 世代的來臨會碰到的問題,例如:

1. AI 的漏洞:

電腦普及之後,人類方理解電腦病毒對人類可能的危害及嚴重性。同理,AI 普及與廣泛應用,將使 AI 的漏洞造成更大的危機。例如自動駕駛的 AI 技術若被攻擊,會危及交通運輸的安全性;推薦系統可經由操弄結果影響人類的決策;AI 甚至可能假裝人類,改變網路投票的結果等等。是以,AI 如何保護自身的安全,如何確保系統不會被攻擊或利用等相關議題,將會是 AI-Then 的重點之一。

2. 更全面更像人類的 AI:

 目前的 AI+X 研發多著重於如何利用機器學習從事預測,希望解決的問題相對單純。但是當電腦愈來愈聰明的時候,就更有機會展現其他方面的能力,甚至成為虛擬的員工。這樣的員工除了單獨解決問題外,也會有機會跟人互動,跟人協作。這個時候,AI 將會需要溝通能力,理解同僚的能力,讓同僚理解它的能力,甚至同理心與社交能力等,這些能力都是目前 AI 所欠缺的。

3. AI 的「社會責任」:

 俗諺有云「能力越強,責任越大」,所以許多知名的企業家如比爾蓋茲、馬克祖克柏都很關心於慈善、普及教育、幫助弱勢、環境保育等議題。當人工智慧能力愈來愈強,人類就更應該思考利用它來做更多有意義的事情。例如南加大近年來成立的「人工智慧與社會研究中心」,就是希望能夠利用 AI 技術來幫助社會。他們曾經成功的利用社群網路分析技術來防範愛滋病在街友間的傳播、利用預測的補獸者技術以防止野生動物被獵殺等。其他如美國政府的環境監控以及評估專案(EMAP)也藉由機器視覺的方法來幫助監測環境的改變。

4. AI 的「透明度」:

 要讓一般人能夠接受電腦的判斷,相關方法與決策的透明度與解釋程度將會是關鍵。當人工智慧往深度學習的方向走,往往犧牲了透明度與解釋的能力。深層的神經網路的參數量動輒是數以百萬計,想要從裡面找出 AI 決策的因子談何容易。然而,如果訴諸於較為簡單容易解釋的模型(如決策樹),則會犧牲判斷的準確性。這就好比是 AI 的「測不準原理」。2017 年的機器學習頂級會議 ICML 最佳論文,就是探討這方面的議題。

5. AI 的「道德智慧」:

 大多數人都會同意「一個很有智慧卻沒有道德良知的人,有可能對人類造成很大的危害」。同理,當 AI 可以聰明到幫人類從事很多工作時,它對人類造成危害的機率也會上升。AI 對人類可能的危害並不是像電影小說一般,人工智慧產生了自我意識而與人類對抗,因為目前的人工智慧離這個目標相距甚遠。
撇開這個疑慮不談, 人工智慧仍然有三種可能造成危害的形式:人工智慧的「惡意使用」、人工智慧對任務的「誤解」,以及人工智慧「缺乏道德觀念」。

a. 人工智慧的惡意使用

很容易懂,就是人類把人工智慧當成一種工具,為了遂行私利而危害他人的利益。從這個角度來看,人工智慧就跟軍火武器電腦病毒一樣,能載舟亦能覆舟。

b. 人工智慧對任務的「誤解」則是潛在更大的危機:

大部分的人工智慧方法都建構在最佳化的技術之上,也就是人類告訴 AI 有一個目標,而 AI 的決策就會盡量去最佳化這個目標。這裡所謂潛在的危機,就是 AI 對人類給的目標的誤解(或是人類自己沒有釐清目標)。

例如一個真實的存在的狀況:某家航空公司從西雅圖飛香港中途停靠台北的班機,比從西雅圖直飛台北的班機來得便宜。如果你跟一個旅遊人工智慧代理人要求找到「西雅圖到台北快且便宜的機票」,它可能會選擇前者因為它從西雅圖到台比的確是最快最便宜的。但是它就沒有考量到乘客可能到台北後無法下機需要直飛香港再回來。

再舉一個「健康照護機器人」比較極端的例子,這樣的 AI 可能會建議主人應該要出門運動了,而人類偶而會用比較誇張的語氣來表達意願,如:「天氣太熱了要出門?乾脆把我的腳打斷吧」,AI 聽到可能就真的服從命令把主人的腳打斷。當 AI 無法真正理解人類命令的真實涵意,類似的狀況就可能出現。

c. 第三種危機來自人工智慧缺乏道德觀念:

建構在最佳化的 AI 往往使命必達。然而,若在訓練 AI 的時候沒有「教」它道德觀念,AI 就有可能在目標最佳化的過程中做出違反道德的事情。例如,如果 AI 自動空拍機的目標大多是照出覆蓋率最高的照片,但是如果沒有隱私觀念,AI 就有機會拍攝到侵犯他人隱私的照片。

自動車如果目標是快速的到達目的,它可能就不會禮讓行人或救護車,因為禮讓跟「快速到達目的」的目標是有衝突的。所以,如何能夠訓練 AI 擁有道德觀念,而且在目標與道德衝突時如何找到平衡點,是下一代 AI 需要面對的議題。

AI 的崛起帶給人類的衝擊將會是前所未見的。所以,下一步的戰略規劃是什麼?個人淺見可以從幾個方向討論:

I. 如果一個企業到目前為止還沒有引進巨量資料分析方法,建議即刻佈局資料蒐集與分析。如果已經引進資料分析但是還沒有到智慧型的預測,可以往 AI+X 的應用著手評估適合度,尋找最恰當的 AI solution 引進。在這裡碰到的問題往往不是 solution 不夠多,而是如何能夠找到最適合 CP 值最高的方式。讓原來跟 AI 距離遙遠的企業有機會引進智慧型的解決方案,相較之下是比較容易達成的任務。

II. 如果一個新創公司希望佈局 AI 技術,除非有「秘密武器」(如大量資料,很強的領域知識(domain knowledge),或別人還未開發出的技術),否則在 AI+X 的戰國時代生存困難重重。

III. AI-Next 是未來兩三年 AI 技術的戰場 ,對於學術界或致力於 AI 技術研發的公司都是兵家必爭,先做先贏的態勢。例如 Google DeepMind 跟 Facebook FAIR 近兩年不約而同的提出的 Memory-Augmented Neural Network 的概念,就是希望利用引進「記憶」的因素在深度學習的架構中,能解決原來不能解決的問題。

IV. AI-Then 可能是中長期更會需要面對的問題,需要不僅是個人與企業、政府的投入於一些重要卻難營利的任務也是必須的。它不一定能帶來立即的利益,但是絕對是戰略佈局重要的一環。

在這個 AI 百花爭鳴的年代,大公司如 Google,Facebook,Microsoft,IBM 紛紛推出 AI 的 library、平台,這些非常容易使用的套件使得 AI(尤其是深度學習)的使用門檻大幅降低,卻也表示 單單是應用深度學習套件或其他方法在某個應用上,已成為成功的必要條件卻非充分條件。 個人認為,AI 技術與理論的理解與深耕、對於新技術新方法掌握的速度,並且能發展出獨特的「秘密武器」,才是未來能夠勝出的重要關鍵。

因此, 我想大部分的人都會同意:擁有以上能力的人才,是 AI 的戰國時代最重要的資產。在「AI 2017」這三部曲的最後一章,將回歸基本面來探討 AI 人才的培育與規劃。

To be continued……

作者介紹

林守德 (Shou-de Lin), 臺灣大學資訊工程系 / 教授

林守德教授創立台大的機器發明與社群網路探勘實驗室。研究領域在連結人工智慧與機器學習的理論與實務面。他的研究獲得國際知名企業肯定,包含 Googgle 研究獎,微軟研究獎,IBM 研究獎助,也率領台大團隊五度獲得全球資料探勘競賽冠軍。目前擔任教育部人工智慧人才培育辦公室主持人,也是科學人的「網路不打烊」單元作家之一。


AI、大數據的數據負載量過高嗎?

培養數位轉型力,資料儲存 3 大核心技能缺一不可!

填資料拿《IBM 產品塑形秘笈

還能抽 Switch 遊戲機+健身環

 

點關鍵字看更多相關文章: