search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

人工智慧應用市場爆發,它是下一個英偉達

1、財務情況

2、業務拆分

三個領域:(斜線部分是未來的看點)

1、通信和數據中心:42%(最大,最傳統)

2、工業、航空航天、國防:40%(軍工領域,第二大,傳統)

3、廣播、消費、智能駕駛:18%(最傳統領域演化過來的,也屬於傳統領域)

業務分佈範圍:

4、公司近期大事件

2014~2015年,賽靈思與高通、IBM等公司展開合作,並在業界推出首款20納米和16納米數據中心產品,比競爭對手提前了1年又1個季度。此外,賽靈思還積極推動制定行業標準的CCIX聯盟的發展。

目前,全球七大超大規模雲服務公司中,已有3家採用了賽靈思FPGA,其中:

百度採用了賽靈思技術作為數據中心的池化資源部署,以及用於無人汽車和語音的機器學習;前不久,百度宣布利用賽靈思技術使序列分析提升了10倍。

微軟宣布,為實現伺服器上的網路加速,其數據中心已經大規模部署賽靈思FPGA技術搭建加速器架構,以分配越來越高的工作負載。

亞馬遜不久前公布在彈性計算雲上實現了FPGA即服務。保險定價公司AON、基因序列測試公司edico genome、機器學習公司TERADEEP等亞馬遜合作夥伴都已經宣布採用了AWS F1實例。

初創型技術公司也是賽靈思重要的用戶類型之一。

DEEPHI TECH是一家初創公司,攜手賽靈思推出用於機器學習推斷的FPGA平台,以及用於部署的超高效神經網路,與GPU相比效能甚至提高了10倍。

5、fpga目前市場空間

在全球市場中,Xilinx、Altera兩大公司對FPGA的技術與市場仍然佔據絕對壟斷地位。兩家公司佔有將近90%市場份額,專利達6000餘項之多,而且這種壟斷仍在加強。同時,美國政府對的FPGA產品與技術出口進行苛刻的審核和禁運,使得國家在航天、航空乃至國家安全領域都受到嚴重製約。因此,研發具有自主知識產權的FPGA技術與產品對打破美國企業和政府結合構成的壟斷,及國家利益意義深遠。

在FPGA領域,Xilinx和Altera長期穩坐第一第二的位置。根據最新(2014年)Form-10K數據顯示,其分別佔有48%和41%的市場份額。其中Xilinx凈銷售額為23.8億美元,凈利潤4.9億美元, Altera凈銷售額為19.5億美元,凈利潤4.7億美元。這兩家公司一直以來是市場和技術的領頭羊,而剩餘的市場份額被Lattice佔據多數。(傳統的fpga市場空間50億美金。)

6、Fpga介紹

第一部分:

FPGA的最初也是傳統的應用領域是通信領域,包括無線通信和有線通信。

但是隨著信息產業和微電子技術的發展,FPGA技術已經成為信息產業最熱門的技術之一,應用範圍遍及航空航天、汽車、醫療、廣播、測試測量、消費電子、工業控制、計算機設備、武器裝備等熱門領域,並隨著工藝的進步和技術的發展,滲透到生活的各個角落當中。

FPGA相比其他晶元,最大的優點表現在低延遲性、可編程性、低功耗。

李博傑(微軟亞洲研究院):低延遲的流式處理,需要最多的地方就是通信(低延遲)。然而 CPU 由於并行性的限制和操作系統的調度,做通信效率不高,延遲也不穩定。此外,通信就必然涉及到調度和仲裁,CPU 由於單核性能的局限和核間通信的低效,調度、仲裁性能受限,硬體則很適合做這種重複工作。因此我的博士研究把 FPGA 定義為通信的「大管家」,不管是伺服器跟伺服器之間的通信,虛擬機跟虛擬機之間的通信,進程跟進程之間的通信,CPU 跟存儲設備之間的通信,都可以用 FPGA 來加速。

FPGA 為什麼比 GPU 的延遲低這麼多?這本質上是體系結構的區別。FPGA 同時擁有流水線并行和數據并行,而 GPU 幾乎只有數據并行(流水線深度受限)。例如處理一個數據包有 10 個步驟,FPGA 可以搭建一個 10 級流水線,流水線的不同級在處理不同的數據包,每個數據包流經 10 級之後處理完成。每處理完成一個數據包,就能馬上輸出。而 GPU 的數據并行方法是做 10 個計算單元,每個計算單元也在處理不同的數據包,然而所有的計算單元必須按照統一的步調,做相同的事情(SIMD,Single Instruction Multiple Data)。這就要求 10 個數據包必須一起輸入、一起輸出,輸入輸出的延遲增加了。當任務是逐個而非成批到達的時候,流水線并行比數據并行可實現更低的延遲。因此對流式計算的任務,FPGA 比 GPU 天生有延遲方面的優勢。

知乎里,著名FPGA提供商Altera授權的金牌培訓師: 目前FPGA的應用主要方向,是傳統方向主要用於通信設備的高速介面電路設計,這一方向主要是用FPGA處理高速介面的協議,並完成高速的數據收發和交換。這類應用通常要求採用具備高速收發介面的FPGA,同時要求設計者懂得高速介面電路設計和高速數字電路板級設計,具備EMC/EMI設計知識,以及較好的模擬電路基礎,需要解決在高速收發過程中產生的信號完整性問題。FPGA最初以及到目前最廣的應用就是在通信領域,一方面通信領域需要高速的通信協議處理方式,另一方面通信協議隨時在修改,非常不適合做成專門的晶元(可編程)。因此能夠靈活改變功能的FPGA就成為首選。到目前為止FPGA的一半以上的應用也是在通信行業。

第二部分(公司高級副總裁總裁):

賽靈思在2016全球超算大會(SC 16)上,賽靈思全球戰略高級副總裁Steve Glaser和雲戰略總監Andy walsh對賽靈思最新的FPGA動態可重配置堆棧技術進行了詳細的介紹。

問題二:賽靈思FPGA VS. 英偉達GPU

面對日益火爆的GPU,Steve指出,GPU和定製ASIC在應用廣度方面與FPGA相比遠遠不足;

以機器學習加速為例,使用神經網路分類圖像、翻譯文本和語音、識別無結構數據中的底層模式,需要「兩階段」法。

第一階段(培訓),使用海量加標記的樣本數據和計算培訓神經網路,英偉達GPU擅長的這一領域只佔機器學習5%的市場規模。

一旦網路培訓完成,便進入第二個階段(推斷),通過受訓的神經網路處理新數據樣本或查詢,以確定其可能的級別。這一占機器學習加速90%的市場正是賽靈思FPGA角逐的天下。

推斷是當今最大規模數據中心中的一個巨大的工作負載,因為它負責實現廣泛的日益擴展的重要應用,例如語言翻譯、自然語言介面、照片和視頻內容識別,以及網上產品選擇與促銷。其中兩個最大的人工智慧市場分別是無人駕駛汽車和機器人。而賽靈思池化FPGA將機器學習推斷計算效率提升了2-6倍。

問題一:賽靈思FPGA VS. 英特爾集成式MCM CPU+FPGA

賽靈思全球戰略高級副總裁Steve Glaser認為,在代表應用廣度的橫軸和加速器利用率的縱軸所組成的象限圖中,賽靈思池化FPGA在超大規模網路應用方面已經遙遙領先;英特爾注意到FPGA的優勢,但其集成式MCM CPU+FPGA目前只能解決中小企業的問題

第三部分(海外研究報告觀點):

1)對FPGA的看法

Artificial intelligence has emerged as a key semiconductor theme in 2016 with cloud data center seeing a rapid migration towards AI and deep learning techniques for solving both new and traditional problems. Nvidia has been the primary beneficiary of AI until now given its dominance of the "Training" aspect of Artificial Intelligence through its GPU technology.' As we look to 2017, we think specialized chips for what is called artificial intelligence "Inference", is real time usage of neural networks, will emerge. We expect FPGAs from Xilinx along with graphics from NVIDIA emerging as a significant beneficiary of that trend.

We do not see FPGA's broadly deployed for the "training" application. We do expect that NVIDIA will continue to have significant competition in training - it has been a major focus of Intel through it's Xeon PHI lineup, and is starting to emerge as a priority for AMD. But NVIDIA's 10 year lead, proprietary software architecture, substantial infrastructure support, and dominant graphics architecture give them a very good chance of driving many years of growth.

"Inference" is the real-time usage of neural network databases that are created by those"training" algorithms. Once the neural network is trained, that network is accessed in realtime - sometimes by the cloud, or sometimes in a device

2016年,人工智慧已經成為關鍵的半導體主題,雲數據中心迅速向人工智慧遷移和深度學習技術解決新問題和傳統問題。迄今為止,Nvidia一直是AI的主要受益者,因為它通過其GPU技術在人工智慧的「培訓」方面佔據主導地位。我們期待2017年,我們認為半定製晶元被稱為人工智慧「推理」,他將出現在神經網路的現實應用中。我們預計賽靈思的FPGA和NVIDIA的圖形將成為這一趨勢的重要受益者。(兩者都是受益者)

我們沒有看到FPGA廣泛部署用於「培訓」應用程序。我們確實期望NVIDIA將繼續在」培訓」方面進行重大競爭 - 這是英特爾通過其至強PHI產品線的重點,並開始成為AMD的優先事項。但NVIDIA的10年領先地位,專有軟體架構,大量的基礎設施支持和顯性圖形架構給他們一個很好的機會,推動多年的增長。
「推論」是由這些「訓練」演算法創建的神經網路資料庫的實時使用。一旦神經網路被訓練,該網路被實時訪問 - 有時由雲或者有時在設備中訪問

2)Fpga在「推斷」方面為啥比GPU要好

Compared to training, there is typically much less computational intensity, but more focus on low power and low latency (since inference is real time). Still, it's a very important market that could ultimate be bigger than training, and 2017 should establish the roadmap.

While graphics is in someways suboptimal for inference applications, due to high precision data (overkill for some use cases), high power consumption, and higher latency vs. FPGAs, the ease of use could go a long way, and as inference workloads increase in complexity, graphics could become an optimal solution.

Inference also requires very low "latency", as the chip needs to be responsive in real

time, whether the inference chip is in a cloud application or in a self driving car. This is in sharp contrast to training, which requires massive compute capability but doesn't need to have milisecond response times.

Fpga與「訓練」相比,它有更少的計算強度,但更注重低功耗和低延遲(因為實時推理)。不過,「推理」是一個非常重要的市場,它最終可能比「訓練」市場還要大,公司在2017年應該建立他的路線圖。


GPU一定程度上,在「推理」應用程序上要弱於Fpga,這是因為相比Fpga,GPU具有處理高精度數據(過分消除了一些其他使用數據),功耗高,和更高的延遲的特點,這使得GPU在「推理」階段還有很長的路要走,易用性還有很長的一段路要走,加上「推理」負載工作增加了複雜性,GPU很難成為一個最佳的解決方案。

「推理」也需要非常低的「延遲」,不管推理晶元是在雲應用程序中還是在一個自動駕駛汽車中,這都是在現實中做出響應,這跟」訓練「形成鮮明對比,(不需要再現實中響應),它只需要巨大的計算能力,但不需要則響應時間。

ASIC 專用晶元在吞吐量、延遲和功耗三方面都無可指摘,但微軟並沒有採用,出於兩個原因:

1.數據中心的計算任務是靈活多變的,而 ASIC 研發成本高、周期長。好不容易大規模部署了一批某種神經網路的加速卡,結果另一種神經網路更火了,錢就白費了。FPGA 只需要幾百毫秒就可以更新邏輯功能。FPGA 的靈活性可以保護投資,事實上,微軟現在的 FPGA 玩法與最初的設想大不相同。

2.數據中心是租給不同的租戶使用的,如果有的機器上有神經網路加速卡,有的機器上有 Bing 搜索加速卡,有的機器上有網路虛擬化加速卡,任務的調度和伺服器的運維會很麻煩。使用 FPGA 可以保持數據中心的同構性。

接下來看通信密集型任務。相比計算密集型任務,通信密集型任務對每個輸入數據的處理不甚複雜,基本上簡單算算就輸出了,這時通信往往會成為瓶頸。對稱加密、防火牆、網路虛擬化都是通信密集型的例子。

對通信密集型任務,FPGA 相比 CPU、GPU 的優勢就更大了。從吞吐量上講,FPGA 上的收發器可以直接接上 40 Gbps 甚至 100 Gbps 的網線,以線速處理任意大小的數據包;而 CPU 需要從網卡把數據包收上來才能處理,很多網卡是不能線速處理 64 位元組的小數據包的。儘管可以通過插多塊網卡來達到高性能,但 CPU 和主板支持的 PCIe 插槽數量往往有限,而且網卡、交換機本身也價格不菲。

從延遲上講,網卡把數據包收到 CPU,CPU 再發給網卡,即使使用 DPDK 這樣高性能的數據包處理框架,延遲也有 4~5 微秒。更嚴重的問題是,通用 CPU 的延遲不夠穩定。例如當負載較高時,轉發延遲可能升到幾十微秒甚至更高(如下圖所示);現代操作系統中的時鐘中斷和任務調度也增加了延遲的不確定性。

7、公司給出未來發展方向及空間

2016年5月23日,公司在波士頓組織了分析師大會,公司管理層討論未來驅動公司增長的4大支柱,(它們分別是雲計算、嵌入式視覺、工業物聯網和5G)和八個終端市場,另外,公司預計,到2021年,公司的收入將增加7.5億美金的收入,也就是從2016年的22億美元,增加到2021年的30億美元,這個團隊預計這4大支柱在未來5年(2021年)的市場潛在空間總共為146億美元。

公司對2017年的業績預期為,收入增長區間為4%—8%,68—70%的毛利率,30%的營業利潤率,我們仍然致力於用分紅和回購來彙報股東。

1)雲計算市場空間

在data center鄰域,我們今天宣布,我們和其他6家技術廠商合作,他們分別是華為、高通、Mellanox、AMD、ARM和IMB,我們在一個叫CCIX展開合作,這是一個開放標準,允許多個處理器構架/指令集,無縫共享數據驅動,來驅動更大的創新和提高投資效率。

我們預計,未來5年內,公司所對應的雲計算潛在市場空間是60億美元,FPGA解決方案可以提供10-35倍的改善性能(相比其他晶元),賽靈思的fpga可以跨多個計算構架,包括ARM,x86,個人電腦。公司已經與世界頂級7大超大型數據中心合作,已經有3家在供貨,2家孩子實驗階段。

2)嵌入式視覺

管理層認為,嵌入式視覺系統,將會從現在500億美元的市場規模發展到3000億美元的市場規模(在2020年),公司所在領域見會有40美元的潛在市場空間。

公司到目前為止已售出大於200客戶。正如我們所料,團隊花了很多時間討論這個嵌入式視覺的汽車部分的大潮,突出Xilinx的在ADAS系統提供商的地位。Xilinx的Zynq MPSoC可以處理所有類型的汽車感測器和攝像機。到目前為止,團隊已經售賣24百萬個ADAS,預計到2016年底,將售賣85百萬汽車ADAS,(公司客戶奧迪,賓士,本田,大眾,僅舉幾例)。

3)工業物聯網

賽靈思認為,工業物聯網市場(包括智慧工廠、智慧能源、智慧城市和智慧醫療),未來5年,將在自己的鄰域呈現出25億美元的市場空間。我們對應的應用比如:監管、機器人、交通系統和智能電網。

4)5g通信

公司管理層認為,未來5年5G將給自己所在行業帶來21億美元的潛在市場空間。

總結:

1、關注fpga最新一季度財報中提到,公司16納米晶元進入亞馬遜的數據中心,關注未來能否放量。

2、在人工智慧的應用階段,fpga能否爆發,持續跟蹤業績變化。

3、未來可能是下一個英偉達。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦