比起擔心AI統治人類,不如先預防AI技術的惡意使用
當我們提到人工智慧時,我們最先在腦海里浮現的可能是擬人化的機器形象,如 Siri或者 Alexa,但事實是人工智慧早已無處不在,而它們大部分都作為後台程序運行。
而我們對於人工智慧的隱憂,更多是像大部分科幻影視作品中提到的,人工智慧會在某一天擁有超越人類的智慧,進而統治我們。而與此相比,更有可能的威脅卻是,一些人試圖利用人工智慧(如生成合成圖像、文本和音頻的能力)進行不道德、惡意犯罪,帶來麻煩。
26位 AI 領域的頂級研究人員在牛津大學發表了一份長達100頁關於「惡意使用 AI 技術」的論文:
The Malicious Use of Artificial Intelligence:
Forecasting, Prevention, and Mitigation.
探討了人工智慧在錯誤的控制下所帶來的風險,以及減輕這些風險的策略。
完成此論文的包括牛津大學人類未來研究所,劍橋大學現存風險研究中心,美國智庫「新美國安全中心」,電子前沿基金會,以及曾由埃隆·馬斯克創建的非盈利組織 Open AI等機構。
「我們都同意,人工智慧可以有很多積極的應用。」牛津未來人類研究所研究員Miles Brundage表示:「但圍繞惡意使用人工智慧問題的文獻則少得多。」
隨著人工智慧能力的日益強大和普及,論文中將人工智慧系統所導致威脅分為三種:
數字安全:使用 AI 來自動執行網路攻擊中所涉及的任務,這會加大網路攻擊的效率,尤其是那些勞動密集型的網路攻擊。同時 Open AI 也表示,網路黑客們也有可能利用 AI 來合成人類的指紋、聲紋,也有可能用 AI 來自動尋找軟體漏洞。
物理安全:使用無人機以及其他無人設備進行攻擊。這種威脅會對民眾造成人身傷害,尤其是當自動駕駛、自動飛行等系統遭到惡意使用時,其造成的損害不可預計。
政治安全:使用 AI 來執行監視、遊說、欺騙,從而造成公眾恐慌、社會動蕩等危害。這種惡意使用 AI 的方式對一些權力集中的國家格外有效。
對於人為利用人工智慧造成負面影響的案例不勝枚舉。去年年底時,一些模擬的色情視頻開始在網上流傳,一些名人的面孔被嫁接到不同的身體上,有些效果可以以假亂真。如果把這種技術用在政治人物身上,將左右政治輿論。
而對於以上威脅,論文也給出了四條預防建議:
AI 技術的研究者應該認真地考慮其研究方向的兩面性,並將其負面影響作為優先和研究重點來考慮,在該技術真正威脅到人類之前,主動與相關人士接觸。
政策制定者應與技術部門保持密切聯繫,並分配預算以支持研究人員調查、緩解潛在的惡意行為。
實踐出真知,解決威脅的最好辦法就是多去使用。如數字安全領域,研究者應多去參與防禦性工作,以讓技術達到更高的成熟度。
需要開發和遵循人工智慧的倫理框架。更多的人需要參與到這些討論中來。不僅僅是人工智慧科學家和決策者,還有倫理學家、企業和公眾。
那麼,人類能不能開發一個演算法檢測出這些惡意使用的人工智慧,從而加以阻止呢?
※深度分析:野蠻生長的中國直播史
※新的黑客手段可以讓Chrome瀏覽器假死
TAG:WTT資訊 |