當前位置:
首頁 > 科技 > 誰才是「超級摩爾定律」王者,英特爾布局未來計算為己正名

誰才是「超級摩爾定律」王者,英特爾布局未來計算為己正名

英特爾聯合創始人戈登?摩爾在半世紀前提出的摩爾定律,是指每代製程工藝都要讓晶元上的晶體管數量翻一番。縱觀晶元每代創新歷史,業界一直遵循這一定律,並按前一代製程工藝縮小約 0.7倍來對新製程節點命名,這種線性微縮意味著晶體管密度翻番。因此,出現了90nm、65nm、45nm、32nm—每一代製程節點都能在給定面積上,容納比前一代多一倍的晶體管。

切入正題之前,先普及一下什麼叫「製程工藝」?

按照百度百科的說法,半導體製造工藝指製造CPU或GPU的製程,或指晶體管門電路的尺寸,單位為納米(nm)。製造工藝越先進,CPU與GPU這樣的晶元內部就會集成更多的晶體管,使處理器具有更多的功能與更高的性能;更先進的製造工藝會減少處理器的散熱功耗(TDP),從而解決處理器頻率提升的障礙;更先進的製造工藝還可以使處理器的核心面積進一步減小,也就是說在相同面積的晶圓上可以製造出更多的CPU與GPU產品,直接降低了CPU與GPU的產品成本。

目前主流的CPU製程已經達到了14-32納米(英特爾第五代i7處理器以及三星Exynos 7420處理器均採用最新的14nm製造工藝),更高的在研發製程甚至已經達到了7nm或更高。

但,就是這幾個在常人看來稀鬆平常的數字背後,卻暗藏著一場激烈的「標準之爭」。

考不過就改分,不厚道吧?

戰爭總是激烈的,先講個笑話放鬆一下:

一個班裡,坐著I、S和T三位同學。期末考試結束了,家長會上老師說,我們班這次S同學和T同學成績最高,值得表揚。I同學聽後很委屈,回家跟家長說,我考了98.5,那是真的,那倆傻子只考了79,為了不挨打,自己偷偷把分數改成99了。

好了,開始說正經的……

在2014年英特爾推出14nm工藝之後不到一年的時間內,三星和台積電都陸續推出了自己的14nm工藝和16nm工藝,並被蘋果用於製造iPhone 6s所搭載的A9處理器。2016年底,三星和台積電又相繼推出了自己的10nm工藝,看起來這也比英特爾的10nm工藝早了將近十個月。

然而英特爾高級院士、技術與製造事業部製程架構與集成總監馬博(Mark Bohr)卻批評了競爭對手的一些做法,指出也許是因為製程進一步的微縮越來越難,一些公司背離了摩爾定律的法則。即使晶體管密度增加很少,或者根本沒有增加,但他們仍繼續為製程工藝節點命新名,結果導致這些新的制節點名稱根本無法體現位於摩爾定律曲線的正確位置。

「行業亟需一種標準化的晶體管密度指標,以便給客戶一個正確的選擇。客戶應能夠隨時比較晶元製造商不同的製程,以及各個晶元製造商的『同代』產品。但半導體製程以及各種設計日益複雜使標準化更具挑戰性。」Mark Bohr說。

他認為,「行業真正需要的是給定面積(每平方毫米)內的晶體管絕對數量。」也就是說,每個晶元製造商在提到製程節點時,都應披露用這個簡單公式所測算出的MTr/mm2 (每平方毫米晶體管數量(單位:百萬))單位中邏輯晶體管密度。只有這樣,行業才可以釐清製程節點命名的混亂狀況,從而專心致志推動摩爾定律向前發展。

英特爾公布的數據顯示,英特爾10nm製程的最小柵極間距從70nm縮小至54nm,且最小金屬間距從52nm縮小至36nm。這使得邏輯晶體管密度可達到每平方毫米1.008億個晶體管,是之前英特爾14nm製程的2.7倍,大約是業界其他「10nm」製程的2倍。同時,晶元的die area縮小的幅度也超過了以往。可以看到,22nm之前每代工藝的提升可帶來die area約0.62倍的縮減,14nm以及10nm則帶來了0.46倍和0.43倍的縮減。

超微縮是英特爾用來描述從14nm到10nm製程,晶體管密度提高2.7倍的術語。超微縮為英特爾14nm和10nm製程提供了超乎常規的晶體管密度,並延長了製程工藝的生命周期。儘管製程節點間的開發時間超過兩年,但超微縮使其完全符合摩爾定律。

縱向來看,相比之前的14nm製程,英特爾10nm製程提升了高達25%的性能和降低45%的功耗。全新增強版的10 nm製程—10++,則可將性能再提升15%或將功耗再降低。

「如果我們再橫向的與業界其他競爭友商的16/14nm製程相比,就會發現英特爾14nm製程的晶體管密度是他們的1.3倍。業界其他競爭友商10nm製程的晶體管密度與英特爾14nm製程相當,卻晚於英特爾14nm製程三年。」英特爾公司執行副總裁兼製造、運營與銷售集團總裁Stacy Smith說。

摩爾定律到底有沒有失效?

2011年下半年,英特爾發布了22nm工藝;2年半之後的2014年上半年,英特爾才發布最新的14nm工藝;3年後的2017年,英特爾才正式發布新一代10nm工藝。而且,在從14nm向10nm提升的過程中,英特爾此前一直秉承的Tick-Tock策略(一年提升工藝,一年提升架構)也很少再被提及。

「連英特爾這樣最頂級的晶元製造商都花了3年左右的時間去完成兩代工藝間的演進,這難道還不算失效嗎?」人們不禁要問?

但如果我們細心的挖掘一下就會發現,英特爾14nm與之前的22nm的命名並不是0.7倍之間的關係。也就是說,如果按照0.7倍命名規律來看,22nm的0.7倍命名應該是16nm,而不是22nm的0.64倍的14nm工藝。

從上兩張圖可以看到,英特爾14nm工藝下的晶體管密度為37.5Mtr/mm2(百萬晶體管/平方毫米),而這個密度是英特爾22nm工藝下晶體管密度的2.45倍。如果按照摩爾定律每兩年翻一番的標準,兩年半的周期,晶體管數量應該是需要增加2.5倍左右,所以英特爾的14nm工藝的晶體管密度也是基本符合摩爾定律要求的。

而且,從英特爾的32nm到22nm,每兩年的時間,晶體管密度(單位面積下晶體管的平均數量)的提升都超過了兩倍(32nm的晶體管密度是45nm的2.27倍)。雖然英特爾從22nm升級到14nm,以及從14nm升級到10nm的時間周期都超過了兩年,但是對應的晶體管密度也分別提升了2.5倍和2.7倍。

而英特爾最新發布的10nm工藝下的晶體管密度則達到了100.8Mtr/mm2,大約是上一代的14nm工藝的2.7倍,也就是說3年左右的時間內,英特爾實現了晶體管密度2.7倍的增長,雖然略低於本該3倍的增長,但是結合此前幾代超出摩爾定律的增長,英特爾10nm工藝仍然是符合摩爾定律的對於晶體管密度的線性增長要求。

超微縮的意義是什麼?

在我看來,超微縮技術其實還是想儘可能維持摩爾定律,並保持晶元性能和成本而提出來的。因為製程節點越小,工藝越複雜,完全按照摩爾定律的規律是越來越困難了。die area越小,一個300mm晶圓上可放置的晶體管數量就越多,對英特爾和其他廠商來說,至少不用提前上450mm晶圓,此為其一。

其二,延長節點時間一是出於製造成本,工藝越先進,成本越高。英特爾說了,就算啥都不幹,單把設備搬進fab里就需要花費70億美元,恐怕英特爾自己也要掂量掂量;二是製造難度在大幅上升,很多技術需要進一步研究,以前那種革命式的前進就會變成漸變式的前進,這就是英特爾為什麼要提出10nm+、10nm++的概念,簡單說就是「小步快跑」。

其三,不是所有應用都需要如此先進的製造技術,目前也就是CPU、GPU、FPGA這類的晶元追逐新工藝以提升性能,更多應用可能28nm工藝甚至90nm工藝都足夠應對了。而且,還要考慮是不是有公司能設計出5nm晶元?造出來能有多少產能?帶來多大利潤?在沒有明確前景的時候,在相對比較成熟的工藝上「修修補補」可能更可靠。

其四,為了能夠實現縮小面積,提高晶體管密度的目標,英特爾又提出很多新的技術,比如FinFET、3D堆疊、硅通孔、採用紫外光光刻等等。不過另一方面,單純依靠堆疊晶體管數量又不行,因為還需要考慮其他因素,比如緩存、驅動電壓、電流密度等,所以確實是一件很複雜的事情。

隨著工藝的發展,製程節點之間的時間已經延長,成本也更加昂貴,越來越少的公司可以承擔得起推進摩爾定律的成本,這是整個行業正在面臨的問題。憑藉規模優勢、製程技術優勢和集成密度優勢,英特爾正在矢志不渝的推動摩爾定律在未來的繼續前進。

顛覆未來計算

持續推動摩爾定律前行的動力不止來自於製造工藝的演進。

隨著從高度動態、非結構化自然數據中進行收集、分析和決策的需求越來越高,對計算的需求也超越了經典的CPU和GPU架構。「不去研究數據的產生、數據的類別、所需要的處理能力是不行的。這和以前的通用數據處理不一樣,單純強調某一種處理器的算力是相當片面的。」英特爾公司全球副總裁兼中國區總裁楊旭認為,人工智慧等於GPU是一個誤解。人工智慧最起碼還要發展一二十年,現在沒有任何一家廠商敢說應對未來人工智慧的發展,所有的計算能力都準備好了,能勝任今後所有從簡單到複雜的人工智慧應用。

在向數據公司轉型的過程中,英特爾將自身定義為端到端方案提供商,即產品線覆蓋雲端、網路傳輸端和終端。其中,核心來自雲端的大規模數據處理,而布局端到端則可以讓英特爾掌握「數據什麼時候來、是什麼樣的數據、需要怎麼來處理」。

為了彌補處理新數據的能力,跟上技術發展的步伐,並推動PC和伺服器以外的計算,英特爾過去六年來一直在研究能夠加快經典計算平台的專用架構,並且不惜重金收購。2017年3月,英特爾斥資153億美元收購以色列自動駕駛技術供應商Mobileye,並由Mobileye主導如今的英特爾自動駕駛事業部;2016年,英特爾收購了AI初創企業Nervana Systems、視覺處理晶元企業Movidius等;2015年6月,英特爾斥資167億美元收購可編程晶元FPGA的生產商Altera,並成立了可編程解決方案事業部。

此外,英特爾還同時加大了對人工智慧(AI)和神經擬態計算的投資和研發,這被視作英特爾對未來計算的提前布局,旨在顛覆全球未來計算格局。

●量子計算

相對於傳統計算,量子計算最大的優勢是可以並行地運行數據,它表示數據的能力達到傳統計算機的50倍,使得我們可以處理在固定內存時間內傳統計算機解決不了的問題。

如何淺顯易懂的理解量子計算和傳統計算的區別,有一個行業公認的例子:拋一枚硬幣,通常來說,它落地時或者正面朝上、或者反面朝上,只有兩種答案,這就是二進位的傳統計算。那麼,現在你把硬幣立起來旋轉,它既是1,也是0,這就是量子計算。

對於英特爾這樣一家數據公司,押注量子計算的目的十分明顯。目前全球範圍內包括無人駕駛、人工智慧各個領域的數據呈現爆髮式增長,但計算能力加起來卻十分有限,量子計算如果一旦落地使用,將會呈現顛覆式跨越。

2015年,英特爾就與學術界合作夥伴QuTech一起加快量子計算的研發,2017年10月,雙方攜手成功測試了17量子比特超導計算晶元。而在CES 2018期間,英特爾正式向QuTech交付了首個49量子比特量子計算測試晶元。

三個月,實現從17量子比特到49量子比特的跨越,迭代速度是顯而易見的。對於英特爾來說,這意味著,量子計算雖然經歷了將近40年歷史,直到今天才邁出萬里長征的第一步,但毫無疑問的是,屬於英特爾的「量子霸權」時機已經來臨。

●神經擬態研究原型晶元Loihi

神經擬態計算的靈感來自我們目前對大腦結構及其計算能力的了解。英特爾神經擬態研究原型晶元Loihi包括模仿大腦基本機制的數字電路,從而讓機器學習變得更快、更高效,同時對計算力的需求更小。與訓練人工智慧系統的通用計算晶元相比,Loihi晶元的能效提升了1000倍。

英特爾科學家把羅莎林·富蘭克林造型的搖頭娃娃作為訓練工具,將其360度旋轉,讓Loihi能夠從每一個角度記住羅莎林。訓練了一次後,Loihi便能在4秒鐘內從少量圖片中區分一個橡膠鴨子、一個玩具大象和搖頭娃娃。儘管研究院只給出了羅莎林的一個背影,Loihi還是能夠快速辨別出來。雖然這個實驗只使用了Loihi不到1%的晶元資源,但它表明了架構的有效性。

專家預測,機器人將是神經擬態計算的殺手級應用。在智能家庭的應用中,想要入室搶劫的小偷,在進入房間時就可能被智能監控攝像頭中的Loihi所識別,並發出警報;在汽車應用中,Loihi還可能扮演「交警」的角色,緩解交通壓力,或是識別汽車、自行車的運動;在工業領域,Loihi也許會化身為一絲不苟的「監工」,監測小到滾珠軸承、大到修建路橋的一切工業應用。「神經擬態晶元將幫助人們減少一些繁重而耗時的工作」,

●人工智慧

英特爾中國研究院院長宋繼強認為,如果終極AI的智能程度是100%的話,那麼當下AI的智能程度也就10%。也就是說,AI還處於嬰兒期,依然有著巨大的成長空間。

在計算機和演算法創新的推動下,人工智慧的變革性力量預計將對社會產生重大影響。現在,英特爾正在運用自身的優勢,推動摩爾定律和製造領先地位,為市場帶來各種產品——英特爾至強處理器、英特爾 Nervana技術、英特爾Movidius技術和英特爾FPGAs ——以便從網路邊緣到數據中心和雲計算平台,來滿足人工智慧計算任務的獨特需求

正如之前所述,英特爾的獨特之處在於能夠提供多元化的解決方案,能夠提供適應不同工作負載和能耗的產品,而不是其中的一兩項。這樣,用戶既可以將自己的應用與通用軟體融合在一起,選擇在至強處理器上運作;同時,如果有更加細分的工作要求,也可以選擇從通用處理器轉向更加具體的處理器:如果想要低延遲,就可以使用FPGA;如果是想更注重低能耗,就可以使用Movidius;如果想追求諸如數據中心這樣的高性能,就可以使用至強。

在宋繼強看來,「任何一種說用一種晶元或者說一種架構方式全處理所有的問題,都是太過誇張的。」因為很多AI應用都還未完成,而且可以預見的趨勢是演算法帶來的紅利將越來越少,邊際效應呈逐級遞減態勢。俗話說,「是騾子是馬,拉出來溜溜」,等到AI應用出來需要真正落地的時候,就需要所有人開始真正按照產品而不是學術的方式思考,不同的計算能力適合不同的應用,不同的硬體需要逐一接受市場檢驗。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 EET電子工程專輯 的精彩文章:

向歐盟投訴台積電壟斷未果,格羅方德找中國主持公道
中芯遇對手:廈門聯芯試產28納米HKMG工藝良率98%

TAG:EET電子工程專輯 |