每天誕生出很多AI相關的新聞,報道方向多是各種概念和市場動向,方便大家更了解AI,一些基礎知識需要理清。這次,我們先看AI加速器是什麼。
AI加速器可不是百度或者騰訊所稱的AI加速器,他們提出的加速器類似於創業孵化平台。
AI加速器(AIaccelerator)是指微處理器、或是計算機系統。它們的作用旨在加速人工神經網路、計算機視覺計算和其他機器學習演算法。使用在機器人、物聯網、或者其他數據密集型或者感測器驅動的任務。AI加速器通常是多核架構,計算精度不高,
在常規的計算機系統里,經常出現特殊的加速器來充當CPU的補充,減輕CPU的負荷,例如常見的顯卡和音效卡。隨著深度學習和人工智慧相關的工作負載越來越大,需要由相應的專用硬體來加速這些任務。
探索源於上世紀90年代
早在1993年,人們就把DSP當做神經網路加速器,用在加速OCR軟體識別。在上世紀90年代,針對不同應用程序的工作站而創造並行高吞吐量系統,其中就包括神經網路模擬。當時也試著用基於FPGA的加速器來用於推理和訓練。被譽為卷積神經網路之父的Yann LeCun,在1990年代初期就在探索卷積神經網路定製硬體,當時的作品ANNA晶元,是簡單的邏輯乘法器,但它顯示出專業化的硬體實現微調神經網路的能力要比通用處理器強很多。
異構計算
在單個系統里加入一些專用處理器和晶元,每個處理器針對特定類型的任務進行優化,就可以算是異構計算。索尼的Cell處理器的架構,就跟AI加速器非常相像,它支持低精度演算法,數據流架構等,處理器也擁有更多的SIMD單元和支持壓縮的低精度數據類型。
GPU的引入
通常顯卡GPU是專門處理圖像的,但神經網路和圖像處理的數學基礎非常相像,GPU於是被用來做機器學習任務。在2016年開始,GPU在人工智慧領域非常受歡迎,它們也在不斷升級,促進著深度學習的發展,無論是在訓練、自動駕駛的推理,或是在DataFlow數據流的連接性。GPU越來越適用於加速人工智慧的計算,GPU廠商正在緊鑼密鼓的將神經網路與硬體密切結合,進一步加速人工智慧的進步。像谷歌的TensorProcessing Unit就可以加速神經網路的訓練。
FPGA的使用
深度學習框架的持續發展,使得定製硬體非常苦難。但可以重新配置的硬體,例如FPGA,可以讓硬體、框架和軟體的發展更具擴張彈性。
微軟已經開始使用FPGA晶元來加速推理計算,將FPGA應用於人工智慧,促使Intel花了167億美元併購FPGA生產商Altera,想將FPGA集成到自己的伺服器處理器中,以期加速AI和通用任務。
專用型AI加速器 ASIC
都說GPU和FPGA處理人工智慧相關任務,的確表現要比CPU強很多。但通過特定程序的集成電路(ASIC),可通過更具體的設計獲得10倍以上的效率,內存使用更好,可以使用更低精度的數據。
至今,AI加速器還在不斷發展,我們看到市面上有不少營銷術語,可能是製造商希望他們的產品和API能夠搶奪市場空間,佔據領導地位。各處理器之間的邊界目前沒有共識,但有些處理器明顯在功能上有相當的重疊。目前在AI行業對加速器沿用了Nvidia的自定義術語GPU,作為圖形加速器的代名詞。
獨立產品
谷歌的Tensor processing unit,是谷歌專門設計用於自己TensorFlow框架的加速器,用於卷積神經網路,它擅長高容量的8位精度演算法,最早第一代產品專註於推理,第二代提高了神經網路訓練能力。
Adapteva epiphany是多核協處理器,適用於dataflow編程模型,用於機器學習任務。
英特爾的Intel Nervana NNP(Lake Crest),是首款用於深度學習的商用晶元,Facebook是英特爾的設計夥伴。
Movidius Myriad 2,是一個多核 VLIW AI加速器,與視頻固定功能單元相輔相成。
Mobileye EyeQ,是專用於自動駕駛視覺處理的處理器。
基於GPU的產品
Nvidia Tesla,是Nvidia針對GPGPU和AI處理器推出的產品系列。
Nvidia Volta配備 640 個 Tensor 內核,專用於加速神經網路的計算。
Nvidia DGX-1是一個Nvidia工作站/伺服器產品,包含Nvidia品牌的gpu,用於GPGPU任務
Radeon Instinct,是AMD為AI加速推出的GPU產品。
用於AI加速的協處理器
高通驍龍845的處理器,內置Hexagon685 DSP核心,用於攝像、語音、XR和遊戲的AI處理。
PowerVR 2NX NNA,集成在晶元中的單核IP,支持多種神經網路模型和架構以及機器學習框架
Neural 引擎,蘋果在A11仿生晶元中加入的「神經網路引擎(neural engine)
Cadence Tensilica Vision C5號稱業界首款獨立完整的神經網路DSP
其他一些新品包括:
特斯拉宣傳在研發自動駕駛的AI晶元;
Eyeriss用於卷積神經網路;
Kalray用於卷積神經網路;
SpiNNaker用於模擬大型神經網路;
Graphcore IPU基於圖形的AI加速器;
DPU,通過波浪計算;
STMicroelectronics,Soc28nm處理器,深度CNN;
NM500,用於General Vision;
TrueNorth基於spiking神經元而不是傳統演算法的核心設計;
英特爾Loihi是一種實驗性的神經形態晶元;
BrainChip公司推出了一款商用PCIExpress卡,使用Xilinx Kintex超音波FPGA運行神經形態神經核,用16瓦的功率每秒對600個視頻圖像進行模式識別;
IIT Madras正在為大數據分析設計一個spiking神經元加速器;
國產一些AI加速器:
寒武紀,16年發布了深度學習專用處理器IP——寒武紀1A處理器。「寒武紀MLU100」和「寒武紀MLU200」主要服務於伺服器端的智能處理需求,偏重於推理和訓練兩個用途;
華為Neural Processing Unit 麒麟970之所以稱之為AI晶元,就是因為裡面集成了寒武紀的NPU模塊(Neural-Network Processing Unit,神經網路處理器);
地平線,2017年,第一代BPU成功流片;
眼擎科技發布AI視覺成像晶元eyemore X42;
深鑒科技,基於FPGA深度學習處理器單元;
啟英泰倫,語音識別ASIC晶元CI1006;
雲知聲,基於高通WIFI模組的IVM-M/基於linux模組的Unitoy;
百度,基於FPGA的雲計算加速晶元;
雲天勵飛,視覺智能晶元IPU;
中星微,人臉識別晶元;
杭州國芯,語音識別晶元gxNPU;
西井科技,基於FPGA的神經形態晶元Deepsouth;
比特大陸,ASIC晶元TPU;
喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!
本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧! 請您繼續閱讀更多來自 全球大搜羅 的精彩文章:
※泰國陸軍閱兵式上 多款中國裝備亮相 中國正逐漸蠶食泰國軍貿市場
※暖冬必備!這些保暖好物,比男朋友好用100倍
TAG:全球大搜羅 |