當前位置:
首頁 > 最新 > 科技:人工智慧再掀爭議,危險已迫在眉睫?

科技:人工智慧再掀爭議,危險已迫在眉睫?

圍繞人工智慧是利是弊的討論已經很多,其中很大一部分是對遙遠未來的猜想,或者上升到倫理與哲學層面的思辨。但事實上,隨著人工智慧技術的迅速發展和普及運用,它正在給人類社會帶來現實的威脅。

2月21日,25位來自牛津大學人類未來研究所、劍橋大學存在風險研究中心和埃隆?馬斯克(Elon Musk)支持的OpenAI公司的專家共同發布《人工智慧的惡意使用:預測、預防和緩解》報告,指出未來5年人工智慧可能帶來的潛在社會威脅及其化解方式。

報告寫道:「隨著人工智慧越來越強大,越來越普及,我們預計人工智慧系統的廣泛應用將導致現有威脅的擴大,還會引發新的威脅,甚至改變典型的威脅特徵。

這份長達98頁的報告重點關注與人工智慧被惡意使用緊密相關三個安全領域:數字安全(digital)、物理安全(physical)和政治安全(political)。專家們警告,人工智慧的不當使用可能破壞規模和效率之間的平衡,並使大規模、精細化和高效率的攻擊成為可能。

報告同時指出,正如人工智慧可以完成人類不可勝任的工作,它也可能帶來新的攻擊方式。具體而言,報告認為,與自動攻擊、釣魚、語音合成、數據中毒有關的網路攻擊將會增多。無人機以及全自動和半自動駕駛系統的出現也會構成新的風險,包括多輛無人駕駛汽車故意撞擊,使用數千架無人機協同攻擊,把商用無人機變成人臉識別刺客,控制關鍵基礎設施以索要贖金等。而在政治方面,人工智慧還可用於左右民眾觀點,形成高度精準的宣傳,傳播虛假但卻可信的文章和視頻。此外,人工智慧還能在私有和公共空間催生更好的監控技術。

這些威脅有許多正在成為現實,因此緩解危機已成迫切需求。報告就此給出了5點建議:人工智能和機器學習研究人員應該承認其研究成果是雙刃劍;政策制定者應該與技術人員密切合作,調查、預防和緩解人工智慧可能的惡意使用方式;應該向電腦安全等其他高風險技術領域學習一些方法,將其應用於人工智慧領域;應該在這些領域優先形成規範和道德框架;討論這些挑戰時所涵蓋的利益相關者和專家範圍應該擴大。

劍橋大學生存風險研究中心執行主任埃吉爾泰革(Seán ó héigeartaigh)是這份報告的共同撰寫人之一,他表示:「人工智慧是遊戲改變者,這份報告已描繪出未來5到10年世界會變成什麼樣子,我們現在就必須做出選擇,我們的報告就是呼籲全球各政府、機構與人士拿出行動。」

對此,網路上也存在批評的聲音。美國技術研究和分析網站Gigaom的評論員柯林斯(Jon Collins)指出,對於所有提出的風險,報告並沒有定量描述,而只是稱之以「可能出現」,這不是對風險的科學描述方式。他說:「風險究竟有多大?我們不得而知。

此外,另一些評論者也注意到,報告中許多地方註明「撰寫報告的多位作者對此持有不同觀點」。就此看來,報告起到的喚醒作用可能遠大於對實際操作的指示。

(綜編//曾奕 )

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 鏡報 的精彩文章:

財新:別管比特幣了……

TAG:鏡報 |