AI對人類產生敵意了?但為何它自己不知道
對於大多數人而言,檢驗AI是否真智能的一個標準就是,它到底像不像人類。
其實,AI的深度學習從很大程度來說,是對「人」的模仿。無論是一開始看圖識別,還是後來嘗試用人類的學習方式學習,都是研究人員對它進行的「人類訓練」。
從另外一個角度來看,AI幾乎就是一個剛誕生的嬰兒,大人教它走路、說話、認識事物、發展智力等。但是,當有一天,你突然發現自己一手帶大的孩子竟然突然罵了你一句,你會是什麼反應呢?
滿口髒話的聊天機器人
還記得當年鼎鼎大名的聊天機器人Tay嗎?
微軟爸爸滿懷信心地將自家孩子Tay上線Twitter,滿以為會打開一扇新世界的大門,沒想到大門是打開了,裡面卻不是新世界。
上線才不到24個小時,Tay已經學會了調皮搗蛋、罵髒話,甚至發表種族主義言論以及煽情的政治宣言。可能微軟一開始根本沒想到,自己一手帶大的好孩子竟然一天不到就劣跡斑斑。
Tay是微軟技術研究和必應團隊開發的,它通過學習大量的匿名對話學會了與人交流。它還學習了一群人的對話,包括即興喜劇演員。
微軟當時的說法是:「你與Tay聊得越多,它就會變得越智能。」換句話說就是,Tay會在與你的聊天中學習你所說的話,讓它變得更像人類,於是,在一些不懷好意的人驅使下,Tay「成功」地被教壞了。
而Tay還只是個開始。隨著語音助越來越滲入人們的生活,聊天對話就成了必不可少的使命。隨口來句髒話根本不是事兒。
不僅是「出言不遜」,AI也開始逐步學會用人的眼光了解這個世界。
去年網上有人曝出谷歌翻譯將護士翻譯為「she」,將醫生翻譯為「he」,引發了關於AI職業歧視的問題;後又將黑人和大猩猩識別為同一種生物,爆發AI種族歧視的輿論大潮……
其實不難發現,自從AI開始進入人們生活開始,關於由語言歧視引發的AI道德論的紛爭就沒有停止過。
AI並不知道在罵人
其實,從嚴格意義上來說,AI的語言歧視完全沒有必要上升到全民批判甚至精神緊張的高度。大家只需要明白一件事,語音助手為什麼會罵人?
人們愛逗小孩的習慣是不分國界的,而有了語音助手之後,它就充當了「小孩」的角色。大家在工作忙碌之餘都喜歡逗一些不正經的。
作為一種新生事物,語音助手是除了孩子之外第一個能學舌的物件,並且它不是真正的小孩,說話也就更隨便了,對它說兩句髒話貌似也相當正常。
於是,有了第一句,就有了第二句。國罵教完了,開始花式罵架。以智能音箱的學習能力,掌握這點兒東西自然不在話下。
學幾句髒話其實並不難,畢竟這是AI的看家本領。但當一些人上綱上線開始恐懼AI對人類產生敵意時,但AI自己並不知道自己所說的髒話到底有什麼含義。
讓AI讀懂人類將是一個遙遠而艱辛的路程。時至今日,AI更像是一個幼兒,它全盤接受著來自這個世界的所有內容,隨著「年歲漸長」,它或許會懂得世界的善惡冷暖和喜怒哀樂。
而我們現在要做的,就是不斷拍去它成長路上沾染的灰塵,令其成為一個乾淨的人工智慧。
※VR市場有病,《頭號玩家》有葯?
※三星這麼討好中國了,為何大家還是愛搭不理?
TAG:科技報料 |