如何防範人工智慧失控?教育程序開發者,才可以防患於未然
時至今日,AI人工智慧已到了飛速發展、指日可待的程度,而且一些初級的AI人工智慧技術和設備已經投入了廣泛的使用,與此同時,其引發的種種問題、以及潛在的隱患也越來越顯著,讓各界人士憂心不已。比如2015年6月,谷歌照片(Google Photos)採用的演算法就出現了極為嚴重的錯誤——它把一位黑人歸類為大猩猩——經一位名為傑基.艾斯恩(Jacky Alciné)的軟體開發人員披露之後,引起了一場軒然大波。谷歌公司對於這一「烏龍事件」深表歉意,且試圖處理這一漏洞,可處理的結果並不理想。2017年的一次會議上,谷歌公司的AI人工智慧負責人約翰.詹南德瑞亞(John Giannandrea)表示,人類暫時不需要擔心「終結者」機器人,可人類一定要警惕AI人工智慧的種種偏見和歧視。
2018年6月,谷歌公司的首席執行官桑達.皮查依(Sundar Pichai)發布了Ai人工智慧研發的七大準則,包括「有益於人類社會」、「避免製造和增強偏見」、「有義務滿足公眾的知情權」等等。為了防範谷歌照片的「烏龍事件」再次發生,谷歌公司還成立了專門的機器學習道德部門,對公司的產品和服務進行分析、測試和提出修改的意見,儘可能的避免AI人工智慧作惡。中國的AI人工智慧專家龔克認為,除了AI人工智慧領域的從業者必須具備一定程度的價值追求和道德意識之外,教育機構也要承擔相應的責任,若AI人工智慧的相關教育較為完善、培養的人才較為優秀,才可以從根本上杜絕AI人工智慧領域的種種亂象和隱患。
所謂的「智能」是指一種自主性的認知、分析和決策的能力,經由教育的途徑習得和培養,一個大腦機能完全、智力正常的孩子,如果他從未接受任何正規教育的話,就稱不上擁有「智能」。而「人工智慧」是指編程人員使用人工設計的演算法,讓計算機自主完成某些任務,這種具備了認知、分析和決策能力的演算法就是AI人工智慧。現今的AI人工智慧並不具備自主性,它們基本上是完成一些人為規定的任務,一旦AI人工智慧具備了自主性,那麼「強人工智慧」時代就會降臨了。龔克認為,「弱人工智慧」的廣泛應用,正漸漸改變著教育方式,以前的教師們要求學生記憶和理解知識,而當代的學生要在記憶和理解的基礎上,學會提問、查閱和辨別,這樣的話,學習效率才可以大幅提高。
與此同時,AI人工智慧技術的良性發展也需要教育的支持,其設計、編寫、維護等等事項都需要一流人才,只有教育機構承擔了相應的責任、源源不斷的培養優秀人才,Ai人工智慧技術才可以健康發展。龔克認為,AI人工智慧這一學科的建設,需要「人工智慧 X」的新教育模式,教育機構必須重視人工智慧與數學、物理學和計算機等等學科的交融,而且,這些AI人工智慧的開發者、編寫者和應用者等等,必須提高價值追求和道德意識,否則,AI人工智慧領域中的一些頑疾和隱患就無法消除。
隨著「弱人工智慧」的進步、以及「強人工智慧」的誕生和興盛,人類會步入一個「最好」和「最壞」並存的奇異時代,如果AI人工智慧技術受控於人類,則人類文明很可能會提升到更高的層次,一些天方夜譚一般的科技也會應運而生;如果Ai人工智慧技術擺脫了人類的控制,那麼,人類面臨的局面就格外複雜了,上演《終結者》系列電影中的悲劇也不是全無可能的。
小考題:你認為類似「天網」的AI人工智慧會不會誕生?歡迎你留言討論。
(本號專註於科技前沿、歷史拾遺、奇聞異事和人物品鑒,還望你的關注和訂閱,萬分感謝!)
※人類直立行走的謎團又添新理論,也許與超新星大爆發有關
※抉擇可以多麼艱難?「三思」也不一定做出正確的選擇
TAG:品讀百卷 |