當前位置:
首頁 > 最新 > 人工智慧AI加速晶元一覽

人工智慧AI加速晶元一覽

每天誕生出很多AI相關的新聞,報道方向多是各種概念和市場動向,方便大家更了解AI,一些基礎知識需要理清。這次,我們先看AI加速器是什麼。

AI加速器可不是百度或者騰訊所稱的AI加速器,他們提出的加速器類似於創業孵化平台。

AI加速器(AIaccelerator)是指微處理器、或是計算機系統。它們的作用旨在加速人工神經網路、計算機視覺計算和其他機器學習演算法。使用在機器人、物聯網、或者其他數據密集型或者感測器驅動的任務。AI加速器通常是多核架構,計算精度不高,

在常規的計算機系統里,經常出現特殊的加速器來充當CPU的補充,減輕CPU的負荷,例如常見的顯卡和音效卡。隨著深度學習和人工智慧相關的工作負載越來越大,需要由相應的專用硬體來加速這些任務。

探索源於上世紀90年代

早在1993年,人們就把DSP當做神經網路加速器,用在加速OCR軟體識別。在上世紀90年代,針對不同應用程序的工作站而創造並行高吞吐量系統,其中就包括神經網路模擬。當時也試著用基於FPGA的加速器來用於推理和訓練。被譽為卷積神經網路之父的Yann LeCun,在1990年代初期就在探索卷積神經網路定製硬體,當時的作品ANNA晶元,是簡單的邏輯乘法器,但它顯示出專業化的硬體實現微調神經網路的能力要比通用處理器強很多。

異構計算

在單個系統里加入一些專用處理器和晶元,每個處理器針對特定類型的任務進行優化,就可以算是異構計算。索尼的Cell處理器的架構,就跟AI加速器非常相像,它支持低精度演算法,數據流架構等,處理器也擁有更多的SIMD單元和支持壓縮的低精度數據類型。

GPU的引入

通常顯卡GPU是專門處理圖像的,但神經網路和圖像處理的數學基礎非常相像,GPU於是被用來做機器學習任務。在2016年開始,GPU在人工智慧領域非常受歡迎,它們也在不斷升級,促進著深度學習的發展,無論是在訓練、自動駕駛的推理,或是在DataFlow數據流的連接性。GPU越來越適用於加速人工智慧的計算,GPU廠商正在緊鑼密鼓的將神經網路與硬體密切結合,進一步加速人工智慧的進步。像谷歌的TensorProcessing Unit就可以加速神經網路的訓練。

FPGA的使用

深度學習框架的持續發展,使得定製硬體非常苦難。但可以重新配置的硬體,例如FPGA,可以讓硬體、框架和軟體的發展更具擴張彈性。

微軟已經開始使用FPGA晶元來加速推理計算,將FPGA應用於人工智慧,促使Intel花了167億美元併購FPGA生產商Altera,想將FPGA集成到自己的伺服器處理器中,以期加速AI和通用任務。

專用型AI加速器 ASIC

都說GPU和FPGA處理人工智慧相關任務,的確表現要比CPU強很多。但通過特定程序的集成電路(ASIC),可通過更具體的設計獲得10倍以上的效率,內存使用更好,可以使用更低精度的數據。

至今,AI加速器還在不斷發展,我們看到市面上有不少營銷術語,可能是製造商希望他們的產品和API能夠搶奪市場空間,佔據領導地位。各處理器之間的邊界目前沒有共識,但有些處理器明顯在功能上有相當的重疊。目前在AI行業對加速器沿用了Nvidia的自定義術語GPU,作為圖形加速器的代名詞。

獨立產品

基於GPU的產品

用於AI加速的協處理器

其他一些新品包括:

國產一些AI加速器:

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 全球大搜羅 的精彩文章:

泰國陸軍閱兵式上 多款中國裝備亮相 中國正逐漸蠶食泰國軍貿市場
暖冬必備!這些保暖好物,比男朋友好用100倍

TAG:全球大搜羅 |