作者為台經院副研究員
現階段全球人工智慧晶片主要以GPU(繪圖晶片)、FPGA(現場可程式化閘陣列)、ASIC(專用積體電路)、人工神經網絡晶片等為主,各類晶片有其技術發展的優劣勢。
過去CPU作為計算和控制核心,是資料中心的傳統支柱,由於內部結構的原因,從運算性能和效率角度考慮並不是計算晶片的最佳選擇,反觀GPU,其計算單元明顯增多,因而GPU主要適用於在資料層呈現很高的並行特性的應用,也就是說GPU還被用於運行這些機器學習訓練模型,以便在雲端進行分類和預測,從而在耗費功率更低、占用基礎設施更少的情況下,能夠支援遠比從前更大的資料量和吞吐量,顯然Nvidia的GPU晶片將具有關鍵的角色,更是全球人工智慧晶片的佼佼者。
此外,藉由近期Nvidia針對人工智慧所發布的新產品來看,公司整體的布局廣度與深度更為強化,Nvidia已經展開從訓練到推理、從雲端到終端、從處理硬體到加速硬體的全面覆蓋,等同Nvidia的人工智慧生態體系儼然已建置。以Nvidia所推出的TensorRT3來說,是全球首款可編程的人工智慧推理加速器,覆蓋全部的深度學習框架,也含括Nvidia大多數的GPU產品,等同增加應用場景;而Nvidia最新發布的Xavier產品,則含括8核CPU、Volta TensorCore & CUDA GPU、感測器介面、8K HDR VP、CVA,可以應用於深度學習和平行計算。
而在FPGA晶片方面,人工智慧演算法所需要複雜並行電路的設計思路,適合用FPGA來實現,且FPGA相對於CPU與GPU有明顯的能耗優勢,不過FPGA 在本質上是用硬體來實現軟體的演算法,因此在實現複雜演算法方面有一些難度,更何況FPGA本身需要從專業廠商採購,因此硬體成本相對比較高。
而在Intel以167億美元收購Altera、IBM與Xilinx的合作下,更加反映CPU+FPGA在人工智慧深度學習領域,將會是未來的一個重要發展方向。事實上,PC CPU巨頭 Intel也正將業務重心由PC客戶端業務,逐步移往與人工智慧領域相關的數據中心、物聯網等業務。
至於ASIC是為實現特定要求而定制的晶片,具有功耗低、可靠性高、性能高、 體積小等優點,但不可編程,可擴展性不及FPGA,適合高性能/低功耗的移動裝置,同時初期研發成本較高,且開發周期相對較長,況且太專用而導致靈活性低。而現階段ASIC此晶片族群,目前Intel和Google都在深度學習專用晶片方面有所佈局,其中2017年Intel即向外公布整合了Nervana之後的第一款DNN專用晶片Lake Crest,而Google 2017年5月則發佈第二代TPU,可以同時用於訓練和推理階段。
另外在人工神經網絡晶片方面,人工神經網絡是模仿生物神經網路的計算架構的總稱,由若干人工神經元節點互連而成,神經元之間透過突觸連接;而寒武紀則是真正打造的類腦晶片,試圖透過低功耗高性能的架構來重塑。
整體來說,GPU相對於FPGA、ASIC、人工神經網路晶片等,其憑藉其更廣泛的應用場景,更成熟的技術和更低廉的價格,在人工智慧的應用中發揮著主流的作用,而預料短期之內,通用高性能計算晶片GPU仍將維持此態勢,生態鏈完整迅速崛起,將成為人工智慧晶片應用中的大宗趨勢,不過亦應關注其他晶片陣營技術持續發展、崛起的情況。不論如何,在人工智慧產業鏈中,歸屬於基礎層的人工智慧晶片商機將最先爆發,也吸引全球行業與投資界的目光。
___________
Yahoo奇摩新聞歡迎您投稿!對於這個社會大小事有話想說?歡迎各界好手來發聲!用文字表達你的觀點。投稿去—–>https://goo.gl/iy5TCA
以下文章來自: https://tw.news.yahoo.com/%E3%80%90yahoo%E8%AB%96%E5%A3%87%EF%BC%8F%E5%8A%89%E4%BD%A9%E7%9C%9F%E3%80
留言列表