search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

Google第二代人工智慧培訓系統

Google首席執行官Sundar Pichai今天上午在公司I / O開發者大會的主旨演講中宣布了推出第二代Tensor處理器單元。

Google的TPU是人工智慧的基礎

作為機器學習而設計的專用晶元,第一個TPU 被AlphaGo人工智慧系統用作其預測和決策技能的基礎。每當有人將查詢輸入搜索引擎時,Google也會使用TPU的計算能力來理解用戶的意思。最近,該技術已經應用於用於改進Google翻譯,Google Photos和其他可以幫助AI訓練的軟體的機器學習模型。

通常,這項工作是使用商業上可用的GPU,一般來自Nvidia——Facebook使用Nvidia GPU作為其Big Basin AI訓練伺服器的一部分。但是谷歌已經選擇了最近幾年來自己構建一些硬體,並優化自己的軟體。

在這個意義上,原始的TPU是專門設計用於Google的TensorFlow,這是許多用於機器學習的開源軟體庫之一。由於Google的進步和硬體與軟體的集成,TensorFlow已經成為構建AI軟體的領先平台之一。這種優化,加上Google Brain及其DeepMind子公司的內部人才,是Google繼續處於更廣泛AI領域的前沿的一部分。

現在,Google表示,其第二版的TPU系統正在全面投入使用,並且正在部署在其Google Compute Engine(其他公司和研究人員可以利用類似亞馬遜的AWS和Microsoft Azure的計算資源)的平台上,Google當然會使用系統本身。

為此,該公司開發了一種將64個TPU組合到一起,稱為TPU Pods的方法,有效地將Google伺服器機架轉變為具有11.5 petaflops計算能力的超級計算機。Google的首席科學家Fei-Fei Li說,即使是自己,第二代TPU能夠「提供驚人的180 teraflops的計算能力,並且僅僅是為了推動機器學習而建立的。

Google Brain團隊的資深研究員Jeff Dean表示,Google為用戶提供的優勢是速度和實驗自由。Dean在本周的新聞發布會上告訴記者,「我們新的大型翻譯模式需要一整天的時間,才能在全球32個世界上最好的商用GPU上進行應用。」 「雖然八分之一的TPU莢可以在一個下午做這個工作。」

第二代TPU可以變成AI訓練的超級計算機

超快速度,第二代TPU也將允許Google的伺服器同時進行推理和訓練。以前的TPU只能推斷——例如,依靠Google Cloud實時收緊數據來產生結果。另一方面,培訓是如何開發AI演算法,而且需要特殊的資源。

機器學習作為現代人工智慧研究的基石,意味著提供數十萬個算例的演算法,以便學習執行任務,方式是從未被明確編程。這已經在許多不同的消費產品中體現出來,像谷歌翻譯幾乎瞬時的將英語句子變成中文的能力,或者AlphaGo以超人的熟練度玩國際象棋、圍棋的能力。

所有這一切都歸結於對大量數據的神經網路訓練,並將其全部轉化為可行的演算法,而獲得計算能力。這些培訓系統在更普遍的意義上,通過大量的數據來改進AI軟體。所以硬體越強大,你得到的結果就越快。「如果我們可以從幾周到幾天或幾個小時,將每個實驗的時間縮短,這樣可以提高每個機器學習者能夠更快速地進行迭代和進行更多實驗的能力,」Dean說。

因為這個更新的TPU現在能夠進行推理和訓練,研究人員可以比以前更快地部署更多功能的AI實驗——只要使用TensorFlow構建軟體。Google也重申其對開源模式的承諾,向同意發布調查結果的研究人員提供TPU資源,甚至可能開源代碼。該公司正在呼籲TensorFlow研究雲計劃,它將免費提供一組1000台TPU的訪問。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦