李飛飛最新訪談:我每天都在對AI的擔憂中醒來
雷鋒網註:【 圖片來源:WIRED所有者:WIRED 】
雷鋒網按:人工智慧對人類會產生什麼影響,一直是值得討論的話題,它會更好地幫助人類,還是攻擊人類?本周,由斯坦福倫理與社會中心、斯坦福以人為中心的人工智慧研究所和斯坦福人文中心舉辦了一場關於「人工智慧」人工智慧的活動,人工智慧領域的先驅之一——李飛飛參與其中,以下是活動討論內容,雷鋒網全文編譯如下:
「用一種以人為中心的方式,重新構建人工智慧和技術的教育、研究和對話」
主持人:謝謝斯坦福大學邀請我們來到這裡。我希望這次談話分為三個部分:首先,說明我們現在所處的位置;然後談談我們現在必須做出的一些選擇;最後,給大廳里所有的人提一些建議。飛飛,你有博士學位和計算機科學學位,還是斯坦福大學的教授,你認為生物知識乘以計算能力,乘以數據等於入侵人類的能力嗎?
李飛飛:作為一名工程師和科學家,我覺得我們現在有一場危機必須解決。當提到人工智慧危機的時候,我坐在那裡思考,這是一個我熱愛的領域,我對這個領域充滿熱情,並且研究了20年,這是一個年輕的科學家成為人工智慧博士的科學好奇心。但20年後發生了什麼,人工智慧變成了一場危機?事實上,它講的是人工智慧的演變,這讓我和斯坦福大學的同事們有了今天以人為中心的人工智慧的位置,這是一項革命性的技術。這是一項新興技術。與物理、化學、生物學相比,人工智慧仍是一門新興科學,但憑藉數據、計算的能力,以及人工智慧正在產生的各種影響,正如你所說,人工智慧正以廣泛而深刻的方式影響著人類生活和商業。針對人類面臨的這些問題和危機,我認為斯坦福大學正在努力提出的解決方案之一,是我們能否用一種以人為中心的方式,重新構建人工智慧和技術的教育、研究和對話?我們今天不一定要找到一個解決方案,但我們能讓人道主義者、哲學家、歷史學家、政治學家、經濟學家、倫理學家、法律學者、神經學家、心理學家以及更多的其他學科的在下個階段進入研究和發展人工智慧。
主持人:別那麼肯定我們今天不會得到答案。還有72分鐘,讓我們試一試。人們說人工智慧有很多危機,對吧?他們說人工智慧正變得有意識,這意味著什麼?他們談論著工作替換,談論著偏見。但這是思考人工智慧的人應該關注的具體問題嗎?
李飛飛:當然。人類從火開始創造的任何技術都是一把雙刃劍。人工智慧可以改善生活、工作和社會,但它也會帶來風險。你知道,我每天醒來都會擔心人工智慧的多樣性和包容性問題。我們擔心公平或者缺乏公平,隱私,勞動力市場。因此,我們絕對需要關注,也正因為如此,我們需要擴大研究,發展政策以及人工智慧的對話,進入人類的房間,進入社會問題,而不僅僅是代碼和產品。所以我完全同意你的觀點,現在是開啟對話的時刻,開啟對這些問題的研究。
人工智慧的誕生是人工智慧科學家與生物學家,尤其是神經科學家的對話。人工智慧的誕生很大程度上受到大腦活動的啟發。快進到60年後的今天,今天的人工智慧正在醫療保健領域取得巨大進步。我們從生理和病理中收集了很多數據,並利用機器學習來幫助我們。
「AI能讓我愛上觀眾中的某個人嗎?」主持人:讓我們來關注一下攻擊大腦是什麼意思。現在,某種程度上我的大腦被黑了,對吧?這個設備有一個吸引人的地方,它想讓我不斷地檢查它,就像我的大腦被黑客入侵了一樣。你的沒有,因為你每天冥想兩個小時,但我的有,可能大多數人都有。但是未來的大腦黑客到底會是什麼樣子?飛飛,在反烏托邦A,自由民主的反烏托邦,是否存在人類特有的不能被入侵的東西?
李飛飛:當你在兩分鐘前問我這個問題時,我首先想到的是愛。愛可以被入侵嗎?但這兩個反烏托邦,我沒有答案。但我想繼續說的是,這正是為什麼現在是我們需要尋求解決方案的時刻。正因為如此,我們現在認為,人工智慧的新篇章需要由人文主義者、社會科學家、商界領袖、公民社會、政府等各方的共同努力來書寫,才能坐到同一張桌子上,展開多邊合作對話。我認為,你們確實凸顯了這場潛在危機的緊迫性、重要性和規模。但我認為,面對這種情況,我們需要採取行動。
主持人:你認為這個裝置在未來的某一天會比現在強大得多,它能讓我愛上觀眾中的某個人嗎?
李飛飛:這就是我的研究領域,我想說兩點意見,就個人而言,我們在談話的這一部分做了兩個非常重要的假設。其一,人工智慧是如此的無所不能,它已經達到了一種狀態,超越了對任何物理現象的預測,它達到了意識層面,甚至達到了愛的極限。我十分確定我們認識到我們離那個非常、非常、非常遠。這項技術還處於萌芽階段。我對今天的人工智慧的部分擔憂是對其能力的過度炒作。所以我並不是說這不是一個有效的問題。但我認為這部分對話是建立在這項技術已經變得十分強大的假設之上的,而我甚至不知道我們離那個時代還有多少年。第二個相關的假設是,我覺得我們的談話是基於這樣的假設,即我們談論的世界或世界的狀態是只有強大的人工智慧存在,或者只有一小群製造了強大的人工智慧並打算攻擊人類的人的存在。但事實上,我們人類社會是如此複雜,我們有很多人,對吧?我的意思是,人類在其歷史上見證過很多項技術,如果我們把它單獨地放在一個糟糕的玩家手中,沒有任何管理,跨國合作,規則,法律,道德準則,技術也許不是攻擊人類,而是以巨大的方式摧毀人類或傷害人類。這已經發生了,但是從歷史的觀點來看,我們的社會大體上正在走向更加文明和受控。因此,我認為重要的是要看到更大的社會,並把其他參與者和人們帶到這個對話中來。所以我們不會說只有全能的人工智慧決定把一切都破壞到最後。這讓我想到了你的話題,除了在你談論的那個層次上攻擊人類,還有一些非常緊迫的問題:多樣性、隱私、勞工、法律變化,國際地緣政治。我認為現在解決這些問題非常關鍵。
以人為本的人工智慧
主持人:我喜歡和人工智慧研究人員交談,因為在五年前,所有的人工智慧研究人員都說它比你想像的要強大得多。現在他們說,它沒有你想像的那麼強大。好的,我來問一下——
李飛飛:這是因為五年前,你不知道人工智慧是什麼,現在你推算出太多了。
主持人:我並不是說那是錯誤的。我只是說事情就是這樣。讓我們談談我們今天能做些什麼,當我們思考人工智慧的風險和人工智慧的好處時,告訴我們,你認為我們應該用人工智慧思考的最重要的事情是什麼。
李飛飛:我們今天可以做很多事情。我想再談談在斯坦福所做的努力,因為我認為這是一個我們相信我們可以做很多努力的良好代表。在以人為本的人工智慧中,這是一個整體的主題,我們認為人工智慧的下一章應該以人為本,我們相信三大原則。其中一個原則是投資於下一代人工智慧技術,這種技術更多地反映了我們想要的那種人類智能。我剛才在想您關於數據依賴的評論,以及數據的政策和管理應該如何出現以規範和治理人工智慧的影響。我們應該開發能夠解釋人工智慧的技術,我們稱之為可解釋的人工智慧,或者人工智慧可解釋性研究;我們應該把重點放在對人類智能有更微妙的理解的技術上。我們應該投資開發不那麼依賴數據的人工智慧技術,這將考慮到直覺、知識、創造力和其他形式的人類智能。所以人類智能激發的人工智慧是我們的原則之一。
第二個原則是,再次歡迎人工智慧的多學科研究。與經濟學、倫理學、法學、哲學、歷史學、認知科學等學科交叉。因為在社會、人類、人類學和倫理影響方面,我們需要了解的還有很多。作為技術人員,我們不可能單獨做到這一點。我們中的一些人甚至不應該這樣做。倫理學家和哲學家應該參與到這些問題中來,並與我們合作。這是第二個原則。在這方面,我們與政策制定者合作,召集多邊利益相關者的對話。
然後是第三點,也是最後一點但並非最不重要的一點,尼克,你在對話一開始就說過,我們需要促進這項技術的人性化、合作性和辯論性方面。你說得有道理。即使在那裡,它也可能變得具有操控性。但我們需要從這種機警感、理解開始,但仍然要促進這項技術的善意的應用和設計。至少,這是斯坦福大學以人為本的人工智慧研究所所基於的三條原則。我感到非常自豪,在這個研究所成立的短短几個月里,這個校園裡有200多名教師參與了這種研究、對話、學習和教育,而且這個數字還在增長。
主持人:在這三個原則中,讓我們開始深入探討。我們來看第一個,可解釋性,這是人工智慧中一個非常有趣的辯論。有些實踐者說你應該有演算法來解釋他們做了什麼和他們做了什麼選擇。聽起來非常合理。但你是怎麼做到的呢?我做各種各樣的決定,但我不能完全解釋清楚。比如,我為什麼要僱傭這個人,而不是那個人?我可以講一個我為什麼這麼做的故事。但我不確定。如果我們對自己不夠了解,不能總是如實、全面地解釋我們所做的事情,我們怎麼能指望一台使用人工智慧的電腦做到這一點呢?如果我們在西方要求這樣做,那麼世界上其他地方就不會要求誰能夠更快地採取行動。所以第一部分是,如果我們自己都很難解釋,我們能得到可解釋性嗎?
李飛飛:嗯,我很難把兩個數字相乘,但是,你知道,計算機可以做到這一點。所以對人類來說有些事情很難並不意味著我們不應該讓機器來做。尤其是,你知道,畢竟所有這些演算法都是基於非常簡單的數學邏輯。當然,我們現在處理的神經網路有數百萬個節點和數十億個連接。所以可解釋性實際上很難。這是正在進行的研究。但我認為這是一片肥沃的土地。當涉及到醫療決定、財務決定、法律決定時,這是非常關鍵的。有很多情況下,這項技術可能是非常有用的。有了這種可解釋的能力,我們必須嘗試,我很有信心,有很多聰明的頭腦,這是一件容易破解的事情。
最重要的是,我認為你有一個觀點,如果我們有技術可以解釋演算法的決策過程,它會使它更難操縱和欺騙。對吧?這是一個技術解決方案,而不是整個解決方案,這將有助於澄清這項技術正在做什麼。
如果人工智慧用概率給出了2000個潛在特徵的維度,這是不可理解的,但人類文明史上的整個科學史就是能夠以越來越好的方式傳達科學的結果。對吧?就像我剛做了年度體檢,一大堆電話號碼打到了我的手機上。首先,我的醫生,專家,可以幫助我解釋這些數字。現在,就算是維基百科也能幫助我解釋其中的一些數字,並且解釋這些數字的技術改進將會改進。如果我們只是把200或2000個維度的概率數字扔給你,這就是我們作為技術專家的失敗。
AI演算法偏見主持人:在我們結束這個話題之前,我想轉移到一個非常相關的問題上,我認為這是最有趣的問題之一,那就是演算法中的偏見問題,這是你已經說得很清楚的。讓我們從金融體系開始說起。你可以想像一個演算法被銀行用來決定是否應該貸款給某些人。你還可以想像用種族主義的歷史數據訓練它。我們不想這樣。所以,讓我們來看看如何確保這些數據不是種族主義的,讓它向人們提供不分種族的貸款。我們在座的每一個人都認為這是一個很好的結果。我們假設,分析歷史數據表明,女性比男性更有可能償還貸款。我們要把它去掉嗎?還是我們允許它繼續存在?如果你允許它繼續存在,你會得到一個稍微更有效率的金融體系?如果你把它去掉,你會發現以前男女之間的平等程度更高。你如何決定哪些偏見是你想要消除的,哪些是可以保留的?
李飛飛:是的,這是一個非常好的問題,尼克。我的意思是,我個人不會給出答案,但我認為你觸及了一個真正重要的問題,那就是,首先,機器學習系統偏見是真實存在的。就像你說的,它從數據開始,可能從我們收集數據的那一刻開始,從我們收集數據的類型開始,到整個管道,然後一直到應用程序。但是偏見以非常複雜的方式出現。在斯坦福,我們有機器學習科學家研究偏見的技術解決方案,比如,去偏置數據或使某些決策正常化。但是我們也有人文主義者爭論什麼是偏見,什麼是公平,什麼時候偏見是好的,什麼時候偏見是壞的?所以我認為你剛剛為這個話題的研究,辯論和對話開啟了一個完美的話題。我還想指出的是,你們已經用了一個非常相關的例子,一個機器學習演算法有可能暴露偏見。對吧?你知道,我最喜歡的研究之一是幾年前的一篇論文,分析了好萊塢電影,並使用機器學習人臉識別演算法,這在當今是一項非常有爭議的技術,來系統地識別好萊塢給男演員比女演員更多的屏幕時間。沒有人可以坐在那裡數所有的臉的幀數是否存在性別偏見,這是一個使用機器學習來揭露的完美例子。因此,總的來說,我們應該研究一系列豐富的問題,再一次呼籲,把人文主義者,倫理學家,法律學者,性別研究專家融入到研究中。
主持人:同意。不過,在那篇文章發表之前,我就知道好萊塢是性別歧視的。
李飛飛:你是個聰明人。
主持人:讓我來問你,因為有三四人問這個問題,那就是,似乎人工智慧的集中力讓數據和最好的電腦更強大,然後,無論是在國內還是在世界範圍內,都會加劇收入不平等,對吧?正如你所提到的國家那樣,首先中美兩國拔得頭籌,而歐洲各國緊隨其後,而加拿大更遜色一籌,但它們都要遙遙領先於中美洲。這一現象會加劇全球收入不平等。A,你覺得有可能嗎?B,你有多擔心?
李飛飛:我們一遍又一遍注意到的一件事,即使是在建立以人為本的人工智慧社區以及內部和外部人員交談的過程中,世界各地的企業和世界各國政府是有機會考慮他們的數據和人工智慧策略的。對公司和國家而言,仍然有很多機會讓他們真正認識到,這是他們的國家,他們的地區,他們的企業進入數字時代的重要時刻。我認為,當你談到這些潛在的危險和世界上那些還沒有真正趕上數字變革的地方缺乏數據的時候,現在是時候了,我們希望提高這種意識並鼓勵這種變革。
「這是一個在分享和傳播知識和技術方面非常開放的全球社區」主持人:下一個問題是:這裡有斯坦福大學的人員,他們將幫助建立一些公司,將進一步推動數據殖民化進程,或逆轉或將建立,至少由斯坦福大學資助的,努力創建一個虛擬牆和基於人工智慧的世界正在迅速崛起。對在座的所有學生,你希望他們如何看待人工智慧?你想讓他們學到什麼?讓我們用最後10分鐘的時間來討論一下在座各位應該做些什麼。
李飛飛:如果你是計算機科學或工程學的學生,那就選Rob的課程。如果你是人文主義者,就上我的課。我教的是深度學習。但說真的,我想說的是斯坦福的學生,你們有很好的機會。我們有一段把這項技術帶到生活的自豪的歷史。斯坦福處於人工智慧誕生的最前沿。事實上,我們的教授 John McCarthy創造了人工智慧這個詞,他於1963年來到斯坦福大學,建立了這個國家最古老的人工智慧實驗室之一。從那時起,斯坦福大學的人工智慧研究一直處於每一波人工智慧變革的最前沿。2019年,我們也站在了以人為中心的人工智慧革命的最前沿,或者說,我們正在書寫新的人工智慧篇章。在過去的60年里,我們為你們做了這一切,為那些走進來的人,為那些即將畢業成為實踐者、領導者和公民社會的一部分的人,這就是我們的底線所在。以人為中心的人工智慧需要由下一代的技術人員來編寫,這些技術人員上過像Rob這樣的課程,去思考倫理含義,人類的福祉。它也將由那些來自斯坦福大學人文學科和商學院的潛在未來決策者來撰寫,他們精通技術的細節,他們理解這項技術的含義,他們有能力與技術專家交流。也就是說,無論我們如何同意或不同意,最重要的是,我們需要這種多語言的領導人、思想家和實踐者。這就是斯坦福大學以人為中心的人工智慧研究所的宗旨。
主持人:好的,飛飛,讓我們快速地看幾個問題。我們經常談論來自大公司的自上而下的人工智慧,我們應該如何設計個人的人工智慧來幫助加速我們的生活和事業?我對這個問題的解釋是,很多人工智慧都是在大公司里工作的。如果你想在小公司或個人擁有人工智慧,能做到嗎?
李飛飛:首先,確實有很多投資、努力和資源投入到大公司的人工智慧研究和開發中,但並不是所有的人工智慧都發生在那裡。我想說的是學術界繼續在人工智慧的研究和發展中發揮著巨大的作用,尤其是在人工智慧的長期探索中。什麼是學術界?學術界是一個由學生和教授組成的世界範圍的網路,他們對不同的觀點進行非常獨立和創造性的思考。所以從這個角度來看,這是人工智慧研究中的一種非常基層的努力,這種努力還在繼續。小企業和獨立研究機構也可以發揮作用。有很多公開可用的數據集。這是一個在分享和傳播知識和技術方面非常開放的全球社區。所以,是的,無論如何我們都希望全球參與進來。
主持人:好吧,這是我最喜歡的問題。不幸的是,這是匿名者發來的。如果我在八年級,我還需要學習嗎?
李飛飛:作為一個媽媽,我會告訴你是的。回去寫作業吧。
主持人:飛飛,75分鐘前,你說我們不會得出任何結論你覺得我們有什麼進展嗎?
李飛飛:嗯,我們開啟了人文主義者和技術專家之間的對話,我想看到更多這樣的對話。
主持人:太好了。非常感謝。謝謝你,飛飛。
雷鋒網註:本文編譯自WIRED
※理想ONE「偷襲」豪華品牌 李想強調不會收取金融服務費 | 2019上海車展
※萬萬沒想到,我的「五一」特價機票是從爬蟲手裡買的
TAG:雷鋒網 |