當前位置:
首頁 > 新聞 > 面對人工智慧的發展,人類未來將扮演怎樣的角色?

面對人工智慧的發展,人類未來將扮演怎樣的角色?

智造觀點

現今,「AI讓會讓你丟失工作"、"AI可以無孔不入的監控你"等等危險的言論,讓很多人都很恐懼AI的發展。最近,谷歌首席決策科學家CassieKozyrkov卻提出了:「人類可以彌補人工智慧的缺點」,並進一步表示,相較於」機器學習「,」機器教學「才是AI發展到現在更需要關注的點。

AI剛剛興起的時候,大多數人們對這個辭彙還是感到很陌生,但隨著各類AI機器人不斷出現,人工智慧聲名大噪,成為了各個國家未來的發展戰略。科學家、工程師看到了一個嶄新領域的興起,商人們看到了技術帶來源源不斷的財富,而普通人則不得不面對「機器人竊取大量工作」的局面。由此「人工智慧是人類最大的生存威脅」、「我們應該抵制人工智慧」等言論甚囂塵上!人類與人工智慧究竟能否共贏共存成為了一個既敏感又現實的問題。

近日,谷歌首席決策科學家CassieKozyrkov提出了:「人類可以彌補人工智慧的缺點」。過去五年,CassieKozyrkov在Google擔任過很多技術職務,但如今她要正式面對「首席決策科學家」這個有點奇怪的職位了。

簡單來講,決策科學就是數據和行為科學的交叉點,涉及統計學、機器學習、心理學、經濟學等學科。Kozyrkov的主要職責就是幫助Google推動更積極的AI議程,至少也要讓人們相信AI並不像頭條新聞所說的那麼糟糕。

面對人工智慧,人類到底在焦慮些什麼?

「機器人正在竊取我們的工作,」「人工智慧是人類最大的生存威脅」,類似的宣言已經存在了很長一段時間,但在過去幾年中,這種擔憂變得更加明顯。

對話式AI助手廣泛存在於現實生活中,汽車、卡車幾乎能夠自動駕駛,機器可以輕而易舉的在電腦遊戲中擊敗人類,甚至藝術創意的工作也受到了人工智慧的衝擊。我們不斷被告知,無聊和重複的工作可能會成為過去。

身處自動化世界,人們對未來感到焦慮和困惑是可以理解的。但是,根據Kozyrkov的說法,人工智慧僅僅是自人類誕生以來一直努力奮鬥的延伸。

在倫敦AI峰會上Kozyrkov發表講話說:「人類的故事是自動化的故事。人類發展的歷程就是關於如何將事情做得更好,從舊石器時代開始,原始人拿起一塊石頭敲擊另一塊岩石,就是因為可以更快完成工具,然後利用工具進行更好的創造。從古至今,人類都是工具製造的種族,我們反對一味的埋頭苦幹」。

人工智慧是危險的,因為它能比人類做得更好。這種的潛在威脅對Kozyrkov來說是站不住腳的,她認為所有的工具都比人類徒手來做強得多。理髮師用剪刀剪頭髮,就是因為用手抓不那麼理想。古騰堡的印刷機生產文本的規模可以達到了人類無法複製的規模。

使用工具比人類徒手做效果更好—這就是工具的意義。如果沒有工具你可以做得更好,為什麼要使用這個工具?如果你擔心計算機在認知上比你更好,那麼筆和紙在記憶時也比人類更長久;水桶在拿水的時候比人類得儲存量更大,計算器的六位數計算遠勝於大部分人類計算。我們有理由相信,未來人工智慧在某些方面也會變得更好。

當然,許多人對人工智慧和自動化的潛在恐懼並不是說它會比人類做得更好。而是害怕政府、企業和任何惡意實體可以肆無忌憚地追蹤和微觀管理人類的一舉一動——幾乎不費吹灰之力就可以實現秘密的宏偉願景,從而給人類蒙上反烏托邦的陰影。

其他問題涉及像演算法偏見,缺乏足夠的監督以及世界末日情景等因素有關:如果某件事急劇地——無意地——出錯了怎麼辦?

人工智慧該如何真正減少人類的偏見?

研究人員已經證明了面部識別系統的內在偏見,像亞馬遜的Rekognition。最近,民主黨總統候選人參議員伊麗莎白·沃倫呼籲聯邦機構解決有關演算法偏差的問題,例如美聯儲的放貸歧視問題 。

其實,人工智慧在現實生活也能起到減少人類現有偏見的作用。

最近,舊金山警方聲稱,指控人們犯罪時,它將使用人工智慧來減少偏見,例如,通過自動編輯警方報告中的某些信息。在招聘領域,由風險投資公司支持的Fetcher正在著手通過利用人工智慧來幫助公司尋找人才,該公司聲稱人工智慧也有助於將人類偏見降至最低,Fetcher通過搜索在線渠道自動尋找潛在候選人,並使用關鍵字來確定個人可能擁有的、未在個人資料中列出的技能。該公司將自己定位為簡單消除招聘偏見的平台,因為如果你訓練一個系統遵循一套嚴格的標準,而這些標準只關注技能和經驗,那麼性別、種族或年齡等因素就不會被考慮在內。

在很多人工智慧領域,AI如何擴散系統歧視的擔憂是首要議程。微軟敦促美國政府監管面部識別系統,研究人員致力於在不影響預測結果準確性的情況下減少人工智慧中的偏見。

人工智慧展示的偏差來源於何處?

人工智慧正處於相對初期階段,研究人員仍在研究如何解決演算法偏差等問題。但Kozyrkov表示,人工智慧展示的偏見和現存人類偏見是一樣的,人類用來訓練機器的數據集就像用來教育人類的教科書一樣。數據集和教科書都有人類作者—它們都是根據人類的指示收集的,其中一個比另一個更容易搜索。一個可能是紙質版,另一個是電子版,實際上它們沒什麼區別。如果你給學生一本有極度偏見作家寫的教科書,難道你的學生不會接受一些同樣的偏見嗎?

當然,在現實世界中,備受好評的同行評審期刊或教科書應該有足夠的監督來對抗任何公然的偏見。如果作家、原始數據、鼓勵學生閱讀的教科書的老師都有相同的偏見呢?人們要花費很長的時間才能發現一些陷阱,但到那時阻止任何不良影響都為時已晚。因此,Kozyrkov認為「視角的多樣性」對於確保最小的偏見是必不可少的。

研究人員越是關注自己的數據,思考用這些例子來表達自己的結論,就越有可能抓住那些潛在的壞案例。在人工智慧中,數據的多樣性是必須的,而且需要從不同的角度來看待和思考使用這些例子會對世界產生怎樣的影響。

檢驗人工智慧與檢驗學生學習的方法非常相似

人工智慧演算法和機器學習模型部署之前,關鍵要像學生考試一樣測試它們,確保能夠執行設定任務的。

如果在考試中,一個學生被問及學過的確切問題,可能表現得非常好,但這極大概率要歸功於好的記憶,而不是對手頭的科目有完全的了解。為了測試更廣泛的理解,要為學生提供更多的問題,以便他們能更好的應用所學知識。

機器學習在同一個前提下運行——有一個被稱為「過度擬合」的建模錯誤,即一個特定的函數與訓練數據過於接近,就會導致誤報。「計算機有很好的記憶力,「Kozyrkov指出,「所以你實際測試它們的方式是你給他們真正的新東西,他們無法記住,這與你的問題有關。如果它有效,那麼它就有效。「

Kozyrkov在安全有效的人工智慧四個原則和學生教學的四個基本原則之間進行了相似的比較並表示:

明確的教學目標—你想要教給你學生的東西。

相關和多樣化的觀點。

精心設計的測試。

安全網

安全網特別重要,因為很容易出現忽視「如果出現問題怎麼辦?」的情況。即使是最精心設計,人工智慧系統也可能出現問題。事實上,系統越好在某些方面就越危險,就像學生一樣。

Kozyrkov表示,即使你的學生真的很好,但他們仍然會犯錯誤。

甚至在某些方面,「C」學生比「A 」學生更不危險,因為「C」學生犯錯誤的頻率較高,所以你已經有了安全網。 但是「A 」犯錯頻率較少,如果你以前從未見過他們犯錯誤,你可能會認為他們從未犯過錯誤,那麼極有可能導致一個災難性的失敗。

所謂的「安全網」可以採取多種形式,通常涉及建立一個單獨的系統而不是「過度信任你的「A 」學生。

一個有趣的例子,房主配置他的智能相機和鎖定系統以激活它是否發現不熟悉的面孔。但是,它錯誤地將房主識別為他的T恤上蝙蝠俠圖像並拒絕他進入。在這種情況下,「安全網」是鎖上的PIN,房主也可以在他的移動應用程序中使用一個功能來覆蓋AI。

這些都引出了一個對許多人來說顯而易又值得重複的觀點:人工智慧是其創造者的反映。因此,我們需要專註於實施系統和檢查,以確保那些製造機器的人(「教師」)是負責的。

目前,人們越來越認同「機器教學」的重要性,微軟等公司最近表示,人工智慧的下一個前沿領域將需要利用人類專業人員的專業知識來培訓機器學習系統——而不是專家對人工智慧的知識或編碼能力如何。。

「現在是我們關注機器教學的時候了,而不僅僅是機器學習,」Kozyrkov指出。「不要讓科幻小說的華麗辭藻分散你對人類責任的注意力,要從一開始就關注人類本身。領導者設定的目標、工程師創作、分析師和決策者核查數據集、統計學家進行測試以及可靠性工程師構建的安全網——所有這些都包含了許多人為因素。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

谷歌AI再突破,Efficientnets有望成為計算機視覺任務的新基礎!
谷歌Transformer大進化,機翻最強王者上線

TAG:人工智慧觀察 |