search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

Google和NVIDIA的人工智慧晶元之戰,到底在吵什麼?

Google一年前推出的深度學習運算晶元TPU(Tensor Process Unit),最近發表報告:TPU比CPU與GPU(圖像處理新盤)快了15至30倍。然後,NVIDIA執行長黃仁勛馬上針對這件事發表意見,告訴大家,NVIDIA的P40 GPU是TPU的2倍,頻寬是其10倍。

其實,這只是由不同的角度與比較基準切入。TPU是Google針對深度學習界最多人使用的Google開源平台,TensorFlow做的最佳化線路設計的晶元,由於它對應硬體設計的最佳化,所以,不論在運算能力或耗電上,TensorFlow的表現都相對好。

如何比較TPU的效能呢?把TPU跟Intel的Haswell CPU及NVIDIA Tesla K80 GPU這兩款CPU與GPU的效能表現比較,數據顯示TPU的速度快他們15至30倍。

但是,NVIDIA Tesla K80 GPU是NVIDIA五年前的產品,而且Google雖說TPU能用在任何人工智慧的深度學習運算,然而,TPU不但沒對其他系統做最佳化,還設定只能做犧牲精確度的推理運算。

深度學習需要的大量運算訓練,要用GPU或是CPU來處理,所以Google最後還是說了,TPU需要搭配GPU或是CPU。

這次Google的說法,就好比告訴大家,我針對某種狀況特殊設計的東西,比別人的東西(NVIDIA Tesla K80 GPU)表現強15至30倍,但是,Google沒說的是,他把別人五年前的產品拿來比。

無怪乎黃仁勛立刻跳出來撰文,輔以數據說明,現在的主力產品P40比這顆TPU快達2倍,頻寬10倍。他的動作,其實是一個很不錯的公關回應:避免產品被誤解,而且是在NVIDIA現在領先業界最多的人工智慧運算晶元產品線上。

不過,也因為TPU的硬體特製,無法修改,才能做到最低耗能,這樣的晶元比起NVIDIA GPU P40自然省電很多。

TPU是專門針對TensorFlow最佳化所推出的晶元,我認為Google這個宣告主要是想告訴使用TensorFlow的開發者社群「我現在用的東西很不錯」,公關宣傳意味濃厚。再加上Google之前僱用李飛飛,並打算收購最大的數據科學家、機器學習開發者社群Kaggle,一連串動作,都在強化Google在人工智慧開發者社群的地位與認同。

其實,Google主打開發者社群,與NVIDIA主攻各種商用人工智慧(特別是無人駕駛的訓練)其實並不一樣,兩者各有所長。但是為了公關效果,這次雙方都出了招。

Google也強調,它不會對外販售TPU,僅供內部使用。Google未來10年會強化雲端運算與人工智慧為主要策略方向。TPU,其實就是這個策略的展現。

TPU的運算效能不錯,也說明了原本專長CPU與次專長的GPU的Intel,發現自己在人工智慧落後NVIDIA后,為什麼決定改往人工智慧專用晶元方向上努力的最大原因,是為了能在人工智慧運算晶元戰場上突破現有的困境。

深度學習的訓練需要非常大量的數據,需要非常多的運算單元來做運算,不管是GPU、CPU或TPU,如何相互搭配,才能達到又快又省電的目的,會是接下來各大深度學習應用硬體架構方面的重點。從這次Google、NVIDIA及Intel在人工智慧運算晶元的態度與作法,可以預見,在物聯網前端產品晶片之外,這會是各大運算單元晶元廠的另一個戰場。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦