當前位置:
首頁 > 教育 > 人工智慧教育中不可忽視倫理教育

人工智慧教育中不可忽視倫理教育

主持人:本報記者 黃蔚

對話專家:北京航空航天大學計算機學院教授 熊璋 副教授 王靜遠

對話背景:人工智慧教育中的倫理教育有兩個側面:一個是人工智慧系統設計目標、技術路線、功能實現的倫理,價值取向是推動科技進步、促進社會發展、改善人民生活,一定不能違背社會大眾福祉;另一個是使用人工智慧系統時的倫理,簡單說就是揚善避惡,做造福人類的事,而不能利用人工智慧技術做危害社會、危害他人的行徑。記者日前就人工智慧和倫理教育的話題與北京航空航天大學計算機學院的熊璋、王靜遠兩位教授進行了對話。

要保證健康的人工智慧教育,必須關注其中的倫理教育

主持人:使用機器代替人類的腦力勞動,是人類自計算機發明伊始就有的一個夢想。經過了幾十年的努力,人工智慧技術經歷了幾起幾落,日漸成熟,已經開始輔助或代替人類一些腦力勞動,在一些具有確定目標的任務當中(如圍棋、人臉識別等)人工智慧甚至能夠超越人類,表現出了更加優秀的性能。在人工智慧教育中,我們要關注其中的科學道理、發展規律、對社會發展的影響,那人工智慧教育中的倫理教育,我們應當放在什麼樣的位置呢?

熊璋:鐮刀斧頭、蒸汽機、電力、電話延伸和增強了人類四肢和五官,只有人工智慧,是第一次延伸和增強了人類的腦力。人工智慧技術相較於之前所有科技進步的最大不同之處,就是它能夠將人類從部分腦力勞動中解放出來。隨著人工智慧技術的不斷成熟和廣泛應用,未來會有越來越多的判斷和決策交由人工智慧去完成,如身份確認、評判作業、閱讀病案、篩選簡歷、投資決策等,這就意味著人工智慧將深度參與人類社會的許多重要活動。

我們不得不承認,人類在做判斷和決策時,其依據一定包括社會公認準則和決策人的情感、態度、價值觀,社會對人類決策者存在許多倫理道德規範和約束。在機器參與人類的判斷和決策,扮演人工智慧的角色時,讓系統依據一套客觀指標去判斷是容易的,讓系統從事決策性事務時,能夠服從社會公認的準則和人類的價值觀則是人工智慧的一大挑戰。

王靜遠:例如,一款合理的人工智慧簡歷篩選軟體,不應該因為性別、種族、膚色等因素作歧視性的簡歷甄別;一款用於智能醫療的軟體,不能夠為了獲取不當利益而誇大或掩蓋病情,甚至貽誤治療。公平、公正、無歧視、無欺騙等這些用來要求人類決策者行為的倫理與道德標準,也都需要在人工智慧的自動決策當中切實體現。教育工作的一項重要任務就是幫助人們樹立善良、正直、公平、公正等正確的價值道德標準。現在的人工智慧技術水平,我們還不可能對人工智慧程序進行道德教育,但是在我們開展人工智慧教育時,絕不能忽視人工智慧教育中的倫理教育。

人工智慧教育中的幾個基本倫理教育要點

主持人:教育開發者在設計和開發人工智慧工具時要充分考慮社會倫理的基本要求,除了要符合信息技術不危害倫理的基本原則,例如不製造計算機病毒、不開發基於人工智慧的有害程序、不進行數據盜竊等,還有其他方面的考慮嗎?

熊璋:我們還要充分考慮人工智慧在社會活動中所扮演的新角色,考慮到這些角色的不當行為可能帶來的倫理風險,不主動利用角色的特殊地位為個人牟利或是危害他人利益。

例如,當開發人員為一個公司開發人力資源管理系統,在使用傳統資料庫、信息系統等技術時,道德規範的開發人員需要做到的是不能利用自己的技術優勢在程序中預留後門、不能竄改和拷貝公司的內部數據、在程序設計時充分考慮信息安全因素等。在開發一個基於人工智慧的人力資源管理系統時,開發人員則還需要考慮機器代替人去作惡的倫理道德風險。例如應該主動避免將種族、膚色、性別等因素作為特徵輸入到自動決策演算法當中,不開發對員工個人隱私具有窺探性的演算法功能等。

進一步,人工智慧倫理教育還要教使用者學會在合理的場景正確使用技術。技術通常是中性的,善惡只體現在技術的使用場景當中。例如基於人工智慧的視頻「換臉」技術,其發明的初衷是為了用於電影特效、藝術創作等,但也可能會被應用在不良宣傳、偽造證據等不當場景當中。

此外,還要避免人工智慧被動倫理風險,這是指在人工智慧擔負重要工作職能時,可能會遭到環境變化、外來攻擊等不確定因素的干擾,如果在重要崗位上所使用的人工智慧技術不夠可靠和穩健,在遭到外界攻擊時就有可能產生一些不可預料的後果。如自動駕駛過程中,特殊的光照等場景可能導致演算法對於明顯的障礙物視而不見,對於「刷臉」支付應用中的圖像識別演算法,一些對抗樣本可以完全混淆人工智慧模型的輸出,將賬戶開放給不應被授權的訪客。這些都是關鍵崗位上人工智慧可靠性不足所帶來的風險問題。

王靜遠:要教育學生將來在使用一項人工智慧技術代替人類工作時,主動了解技術的局限性、不確定性及風險後果。

對於整個社會而言,無論是人工智慧技術的開發者還是使用者,都需要進行必要的責任意識教育。人工智慧工具的重要特性是輔助和代理人類去完成一定的腦力勞動。在機器代理人類去完成一定任務時,「代理風險」就會不可避免地產生。

例如,在傳統戰爭中,武器操作者需要親臨戰場進行廝殺,因此對於殺戮的殘酷性會有直觀的認識。到了無人武器時代,武器操作者只需要在辦公室里點擊按鈕就能夠殺敵於千里之外,戰爭殘酷性對操作者就降低到了電子遊戲的水平。

而到了人工智慧時代,武器殺人有可能完全由演算法來決定,人的生死就完全控制在了演算法手中。在這個過程中如果再出現由於人工智慧不可靠所帶來的意外影響,所造成的後果甚至會給整個人類帶來的巨大災難。要想避免這樣的悲劇發生,必要的技術管控手段固然必不可少,加強對於人工智慧工具研發與使用者的責任意識教育也同樣非常重要。

管理部門在促進人工智慧教育健康發展上的作為

主持人:人工智慧是一個發展的科學、發展的技術,在它的發展過程中,除了對科學技術的推動,對社會發展的促進,人工智慧與教育的融合還催生了伴隨式評價、個性化指導、團隊式作業,創新了教學環境、氛圍和文化,會出現新的改變和新的衝擊,我們的學校和管理部門應當有何作為呢?

熊璋:人工智慧教育中的倫理教育有一個不斷發展、不斷完善的過程,維護這個過程的科學性、維護人工智慧教育的健康發展任重道遠。人工智慧教育應該納入義務教育、普通高中和大學的課程體系,保證學校作為人工智慧教育的主渠道。教育管理部門要在普通高中和義務教育階段的課程方案中明確人工智慧課程是信息技術課程、信息科學課程的重要組成部分,明確培養目標、課程內容和學業質量標準,並不斷適時更新,要嚴格保證學校用教材的科學性、嚴謹性和規範性,要及時培訓學校的一線教師,讓他們成為主力軍。同時也要引導社會輿論和社會力量共同維護人工智慧教育的健康發展。

《中國教育報》2019年06月15日第3版

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 中國教育新聞網 的精彩文章:

灰摩卡:中俄民間交流的一股小小暖力量
人工智慧助力教育質量提升

TAG:中國教育新聞網 |