Google 一直以來都有在研發自己的晶片,根據 Google 自己的說法是:「啊我們平常都有一直在用別人的晶片啦,用著用著就想說自己來做好了」。
機器學習與人工智慧是目前的科技趨勢所向,兩者都需要耗費相當大的運算能力。發展的越快,晶片的處理速度要求就越來越高。
而 Google 自主研發的晶片 TPU(Tensor Processing Units),在去年 2016 的 I/O 大會上就曾首度亮相,不過一直沒有公開更多的細節。
近日在 Google 自家的部落格上一次公佈了更多的細節,甚至跟其他家的晶片來了一個小小的競賽。
晶片小競賽,還是大屠殺?

根據 Google 所公布的小競賽,自家的 TPU 對比 CPU 與 GPU,在處理機器學習後段的表現情況,比過往 CPU/GPU 的晶片組合快上 15-30 倍(在本次競賽中使用的是 Intel Haswell 處理器與 Nvidia K80 GPU)。
值得注意的是,本次試驗並不適用於完整的機器學習訓練,而只專注在後半段。前半段以大量數據訓練 AI 神經元的部分仍以舊晶片處理
在功率方面也是處理中心必須要考慮到的環境,TPU 的效能消耗比也優於過往晶片組合的 30-80 倍。
目前來說 Google 可能不會將 TPU 用於自家雲端業務以外的環境,意思是目前只有 Google 自己才能享受到領先群雄的晶片與處理速度。未來與 Google 雲端有相關業務合作的廠商與公司們,可以好好期待一下未來 TPU 帶來的爆發性處理速度。
參考資料來源》 Google Cloud Platform Blog: Quantifying the performance of the TPU, our first machine learning chip TechCrunch: Google says its custom machine learning chips are often 15-30x faster than GPUs and CPUs 頁首、頁中圖片來源:Google 論文。
——
延伸閱讀
86 歲高齡的張忠謀絕不能退休! 中國人從台積電案例,看台灣半導體的幸與不幸【晶圓雙雄爭霸】放話兩年幹掉台積電,一把火燒毀聯電稱霸晶圓代工的夢
日本新制度「住一年就能永久居留」吸人才,台灣卻讓人才奔流到海不復回