當前位置:
首頁 > 科技 > Nvidia發布用於AI驅動服務的高速數據中心平台

Nvidia發布用於AI驅動服務的高速數據中心平台

Nvidia的GPU晶元已經成為機器學習蓬勃發展的基礎,機器學習利用模擬大腦工作方式的軟體,讓計算機能夠獨立學習。GPU可以並行運行很多任務,這使其在語音和圖像識別、電影推薦和自動駕駛汽車領域實現了一系列突破。

近日,Nvidia對其機器學習產品進行升級,推出一款新的數據中心晶元和軟體,旨在加速這些服務並實現新的服務,例如人與機器之間更自然的語言交互。

Nvidia發布用於AI驅動服務的高速數據中心平台

特別是,這個名為TensorRT Hyperscale Inference Platform的平台專註於「推理」,也就是運行深度學習神經網路模型的過程。該模型基於得到的新數據來推斷任務以及執行任務。與訓練模型(通常需要更多處理能力)不同,推理通常要使用內部有標準CPU的伺服器。

本周四在東京舉行的Nvidia GPU技術大會上,Nvidia首席執行官黃仁勛及其高管宣布推出了這幾款新產品。首先,他發布了名為Tesla T4的小型低功耗晶元,該晶元採用所謂的Turing Tensor Core設計用於推理。作為當前特斯拉P4的下一代,T4擁有2560個核心,每秒可運行高達260萬億次操作。

黃仁勛還宣布對TensorRT軟體進行更新,該軟體可讓處理速度比CPU快40倍,它包括一個TensorRT 5推理優化器和Tensor RT推理伺服器,一個軟體「容器」中的微服務,可以運行主流的人工智慧軟體框架,並與容器編排器Kubernetes和Docker集成,後者可在Nvidia的GPU Cloud上使用。

Nvidia副總裁、加速業務總經理Ian Buck解釋說,目前數據中心內有用於各種任務的軟體,如圖像識別、搜索和自然語言處理,因此效率不高。他說,Nvidia新推出的推理平台,讓應用可以使用相同的架構和軟體加速應用。例如,Google將把T4添加到其公有雲中,主流伺服器製造商表示他們也會使用這個平台。

例如Nvidia稱,使用GPU進行推理已經幫助微軟的Bing搜索引擎將延遲提高了60倍,SAP為廣告客戶提供的實時品牌影響信息提高了40倍。

在這次活動上,Nvidia還宣布推出了號稱第一個用於自主機器(從汽車到機器人再到無人機)的AI計算平台。具體來說,有一款新的AGX嵌入式AI HPC系列伺服器,該系列產品的部分包括用於數據中心的DGX系列和用於所謂的超大規模數據中心(如Google和Facebook)的HGX系列。

另一個新產品是Jetson AGX Xavier,這是Nvidia自主機器副總裁Rob Csongor所說的開發套件,是第一台用於機器人等應用的AI計算機。同時公布的合作夥伴包括建築領域的Komatsu公司、自動船用和無人機車輛領域的Yamaha Motor公司以及工廠自動化視覺系統領域的佳能公司。Csongor說:「這是我們下一個大的市場,我們相信這將是變革性的。」

Nvidia還發布了一個關於AI推理市場看似不合理的數字:未來5年200億美元。這可能有助於Nvidia在未來一段時間內繼續保持長期好於預期的盈利結果。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 至頂網 的精彩文章:

IDC公布對象存儲市場格局 DDN出局SUSE入場
IDC:2022年網路功能虛擬化基礎設施(NFVI)收入將達到56億美元

TAG:至頂網 |