當前位置:
首頁 > 科技 > 因錯誤信息蔓延而魔化的AI

因錯誤信息蔓延而魔化的AI

編輯 | 麻粒兒

微信 | ai_xingqiu

網址 | 51aistar.com

去年六月,Facebook人工智慧研究部門的五位研究員聯名發表了一份研究報告,主要介紹了機器人如何能夠模擬談判性質的對話。

雖然在很大程度上,機器人確實能夠保證對話的連貫性,但研究員發現那些軟體也會偶爾說出一些奇怪的話,比如「對我來說、對我來說、對我來說、對我來說,球沒什麼用。」

看到這些研究結果之後,Facebook人工智慧團隊便清楚地意識到,他們沒有能夠在日常口語的參數範圍內,對機器人說出的話語進行有效限制。

換句話說,他們只是研發出了一種僅限於機器人相互之間使用的獨特機器語言。而對於這些研究結論,或許身處其他領域的人會覺得比較有趣,但其實在專業人士看來,根本就是毫無新意可言,也算不上是突破性發現。

就在那份研究報告發表之後的一個月,國外知名新聞媒體又發表了一篇名為《人工智慧正在投資那些人類無法聽懂的語言,我們是否應該阻止這種趨勢?》的文章。具體看來,文章主要講了機器人時常出現的偏離日常英語交流的問題。

雖然這並不是上述研究報告的主要結論,但外媒文章表示,在發現機器人已經開始以一種全新的語言進行交流時,研究人員認為它們發展到了一種失去控制的地步,從而決定叫停整個實驗。

該文章一經發表,便迅速傳遍了整個網路,導致大量缺少創新報道內容的出版商開始跟風,紛紛說Facebook的工程師是因為機器人以一種獨特語言進行自主交流出現了恐慌,從而叫停了人工智慧項目的研究。

甚至還有媒體指出,這一現象簡直就是電影《終結者》在現實生活中的重現。因為在這部電影中,有一個機器人在有了自主意識之後就對人類發起了戰爭。

Zachary Lipton是卡耐基梅隆大學機器學習部門的助理教授,看到這篇本來還算有點兒意思的文章逐漸成為各家媒體博得關注的噱頭,他不禁產生了一絲沮喪之情。

根據Lipton的介紹,近些年來,廣大民眾對「機器學習」和「深度學習」這類話題是越來越感興趣。但與此同時,也導致了不少「趁虛而入」的低質新聞報道現象出現,對人們正確理解相關研究報告以及行業發展前景帶來了負面影響。

用他的話說,這就是人工智慧錯誤信息的蔓延。其實,除了Lipton,還有很多該領域的研究人員也是感同身受。他們擔心關於人工智慧的猜測性虛假報道,將會促使人們對該行業的發展前景抱有錯誤預期,最終威脅到該行業的發展進步以及相關新興技術在現實生活中的高效應用。

事實上,媒體對於計算機智能的誇張報道,並不是我們這個時代獨有的,早在計算這個概念最開始出現時就已經有了。

1946年2月,校車大小的電子數字積分計算機(即Electronic Numerical Integrator and Computer,以下簡稱Eniac)正式在一次新聞發布會上亮相。當時,記者們紛紛將其稱作「電子大腦」、「數學怪人」以及「天氣預測者與控制者」。

為了讓大眾真正理解這一新機器,不再受虛假誇張新聞的誤導,英國著名物理學家DR Hartree在《自然》雜誌上發表了一篇文章,以一種直接、真實、簡單的方式講述了Eniac的運作方式。

但讓他感到沮喪的是,《倫敦時報》在他的研究基礎之上,又刊登了一篇名為《電子大腦:解決深奧問題、帶有記憶閥門》的文章。

隨即,他便給《倫敦時報》的編輯寫了一封信,說是「電子大腦」這一術語會誤導讀者,並且聲明機器是無論如何不能代替人類大腦思維的。但可惜的是,他的努力最終還是徒勞。在媒體眼中,Eniac的身份以及定義,永遠都停留在「大腦機器」上。

同樣在美國,情況也相當類似。Frank Rosenblatt是康奈爾航空實驗室的工程師和心理學家。1958年,他在《紐約時報》上發表文章,正式提出了一種名為「感知器(perceptron)」的基本機器學習演算法。

雖然按照設計,這種演算法只能夠識別出來少數幾種模式,但《紐約時報》卻將其稱為「電子大腦」,說是它可以實現自我教學,用不了多長時間就能走路、說話、寫作、繁殖再生,同樣也能充分意識到自己的存在。

固然,人工智慧可以帶來令人陶醉的喜悅,也可以為大學和軍隊中的研究人員帶來大量資金支持。但到上世紀60年代,不少人工智慧行業先驅就已經很明顯能夠看到,一直以來他們都低估了在機器中模擬人類大腦這件事的困難程度。

1969年,曾經公開表示機器智能終將會超越人腦的Marvin Minsky,與計算機科學家Seymour Papert聯名出版了一本書,以證明Rosenblatt的感知器演算法無法完全實現之前相關專家們的設想,而且還表示其智能程度遠不及媒體所宣傳報道的那樣。

二人的書一經出版,便迅速在人工智慧研究領域和其他領域傳播開來,猝不及防地掀起了一股揭開人工智慧真實面目的全新潮流。1972年,知名哲學家Hubert Dreyfus針對這一技術和行業的發展,發表了一篇影響深遠的長文,名為《計算機所無法勝任的事情》。

一年後,英國知名數學家James Lighthill又針對機器智能的發展現狀公開了一份調查報告,並且得出結論說在整個人工智慧和機器智能領域,所有截至當時的創新發現都沒能像預期那樣產生重大影響。

自此,人工智慧迎來了自己的第一個蕭條期,也就是首個寒冬。在那期間,幾乎所有的相關研究都無法順利拿到資金支持。就連一直以來熱衷於用「電子大腦」博得大眾關注的新聞媒體,也失去了報道興趣。

雖然後來在80年代到90年代期間,人工智慧出現了略微的回暖跡象,但還是在一定程度上擺脫不了過時、科幻的標籤。要知道,一直以來,計算機科學家都在努力避免人工智慧與這些詞語沾上邊,因為他們擔心大眾將自己當成白日空想家。

直到新一代研究人員開始發表文章,介紹一項名為「深度學習」的新技術在現實生活實現了成功應用時,人工智慧才算是真正順利度過了自己的首個寒冬。

雖然從本質上來說,「深度學習」仍然是一種與感知器演算法高度類似的數據統計技術,但它在計算能力和數據集容量上均得到了大幅提高,所以在諸如話語識別、圖像識別和語言翻譯這類實際任務上,有了廣闊的應用前景。

隨著關於深度學習的正面研究報告越來越多,選擇學習機器學習課程的大學生也越來越多。各家企業也紛紛開始斥資數十億甚至數百億美元來尋求高端技術人才,與之同時小型初創企業也開始積極拓寬深度學習的應用領域,包括交通運輸、醫療健康以及金融財務等。

伴隨著深度學習的火熱,各家新聞媒體又在寂靜了相當長一段時間之後,開始了之前那種對人工智慧的狂熱報道。2013年,John Markoff在《紐約時報》上發表了一篇關於深度學習和神經網路的文章,標題為《像人腦的計算機:從經驗中學習》。

Markoff表示:「在未來幾年中,深度學習將會催生新一代人工智慧系統,完成一些簡單的人工任務,包括看、聽、說和操控等等。」

自那以後,我們幾乎每天都能在新聞媒體上看到一些關於「人工智慧世界末日」、「人造大腦」、「超人工智慧」以及「Facebook驚悚人工智慧機器人」的誇張報道。

為了挑戰自己,Lipton當時就決定繼續攻讀機器學習的博士學位。他介紹說,隨著越來越多的新聞媒體開始報道一些誇張的內容,研究人員心中的失望和沮喪之情也就越來越明顯。因為在他們看來,那些記者對深度學習這項技術的了解著實非常淺薄。

拋開記者在深度學習技術方面的淺薄了解不說,Lipton發現最令人生氣的地方在於,那些一無所知的社交媒體居然都自稱是「人工智慧影響者」。

事實上,他們所做的,無非就是在自家網站上介紹介紹埃隆·馬斯克,內容質量低下卻吹得天花亂墜。用他的話說:「想要在人工智慧領域取得實質上的進步,首先需要保證廣大受眾了解最為真實、最為正確的信息。

但很可惜,現階段,呈現在大眾面前的,完全是一些與真實情況不符的信息。因此,他們根本就沒有辦法徹底區分哪些是重要的信息,哪些是不重要的信息。」

當然,Lipton也不是第一個對人工智慧發展泡沫表示擔憂的人。去年,美國機器人製造頂級專家Rodney Brooks撰寫了一篇文章,批評了人工智慧行業對於未來發展前景的過度臆想。2013年,紐約大學教授Gary Marcus也寫了一篇文章,指出不真實的泡沫會導致人們對該行業的發展前景產生虛假預期,從而導致另一個寒冬的到來。

不過,在這個問題上,Lipton持有不同態度。他認為,現階段的誇張泡沫還不太會導致下一個寒冬的出現,但卻會誤導人們的認知,致使最為重要、最為迫切的問題遭到掩蓋。

他表示:「對於錯誤的事情,大家都很害怕。我們能看到,不少政策制定者都會非常急切地開會討論機器人的權利問題,而不是歧視問題,就因為後者過於泛泛,感興趣的人比較少。」

去年三月,Lipton開通了自己的博客,希望能夠通過自己的力量來「反抗」那些帶來較大負面影響的不真實的人工智慧新聞,比如關於埃隆·馬斯克以及Anthony Levandowski人工智慧教堂的低質新聞消息。

目前,Lipton的博客已經收到了一些新聞媒體的關注,也培養了一批固定讀者。但他清楚地知道,自己能夠產生的影響終究還是有限的。用他的話說:「其實,這個行業真正需要的是大量訓練有素、誠實正直的記者。在實現這一點之前,我自己的博客永遠都像是滄海一粟,像是一粒無法激起千層浪的微小石子。」

Joanne McNeil是一位專註於新興技術的專欄作家,她也認為科技行業新聞記者的專業素質確實有待提高。雖然她經常在Twitter上取笑一些帶有《終結者》風格的文章,但還是會避免言辭尖銳地直接批判科技記者。因為在她看來,人工智慧的虛假泡沫之所以會出現,其中一個原因就是資源分配的不均衡。

她表示:「如果你將一位記者的收入與一位研究人員的收入相比,就會很快發現記者無法寫出具有專業深度文章的原因所在,畢竟他們終究不能與研究人員相提並論。說實話,具有專業技術素質的記者和編輯,數量少之又少。如果人工智慧研究人員真的在乎記者寫出來報道的內容,那至少應該共同參與到新聞撰寫、報道或出版的過程中去。同時,適當提高記者的收入,畢竟他們要花大量的時間和精力,去深度挖掘與之相關的專業知識。」

就像澳大利亞國立大學工程學和計算機科學教授Genevieve Bell所說,只有新聞記者和研究人員進一步加強彼此之間的合作,才能夠有效引導整個行業往正確的方向發展。

純靠暴力壓制人工智慧虛假泡沫,根本就是一件不可能的事情。Bell解釋道,因為關於電子大腦或Facebook惡意機器人的文章,並未切實關注真正的技術,只是大眾文化希望和焦慮的反映。

她介紹說:「數千年來,我們所講述的都是一些關於無生命事物的故事,這也就影響了我們對當下行業發展現狀的認知方式。或許專家可以不考慮他們所進行研究給大眾留下的印象,但那些不現實的期望或無由來的恐懼,總歸是存在的。所以,說到底,誇張和泡沫就是一種文化表現形式,我們沒有辦法徹底不予考慮。」

最後,Lipton表示,現階段,不真實的猜想和真實的研究之間,界限非常模糊。但歷史告訴我們,這種模糊的界限終究是要明確起來,以便我們合理區分哪些是重要之事,哪些只是虛幻。

如果你想了解

最前沿的AI技術和場景應用

一網打盡AI界前瞻科技和深度報道

歡迎關注AI星球,並轉發朋友圈為我們打Call~~

你們的支持是我們創造優質內容的不竭動力


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI星球 的精彩文章:

AI犯錯誰背鍋?演算法透明制PK演算法問責制
AI當道下的媒體如何「淪陷」

TAG:AI星球 |