公眾輿論如何塑造人工智慧的未來
如今,人工智慧(AI)正在發展,消費者對其關注度越來越高。而人工智慧在未來會給人們帶來痛苦和恐懼嗎?
人們對人工智慧發展的焦慮如今非常明顯。科學家斯蒂芬·霍金和特斯拉CEO伊隆·馬斯克對於人類能夠控制人工智慧也表示懷疑。Facebook公司首席執行官馬克?扎克伯格駁斥了這些可怕的問題,並稱他們的說法「不負責任」。 人形機器人(Al Sophia)在沙烏地阿拉伯獲得公民身份,這成為了媒體的頭條新聞,但也給人們帶來了一些疑慮。這個討論吸引了大量的公眾關注,並帶來了直接的和延遲的後果。
公眾輿論的影響可能會阻礙人工智慧的採用。只要人們認為這種技術是危險的,不管事實與否,人工智慧的發展都會受到阻礙。
然而,公眾情緒受大眾文化的影響多於對專家的影響。世界末日的荒涼情景對人們特別具有震撼力。伊隆·馬斯克(Elon Musk)將人工智慧稱為是人類文明的基本存在風險時,人們對這種恐懼和疑慮產生了共鳴。
那麼人們究竟害怕什麼?以下來了解一些最流行的說法。
1.不受控制的發展
人工智慧不僅僅是人類的工具。如果其變得足夠強大,人工智慧可以掌握自己的命運。根據這個說法,當人工智慧進化到能夠獨立思考時,它會發現自己優於人類。因此,人類必須制服或消滅人工智慧。這是一個經典的反烏托邦的故事。許多專家(包括伊隆·馬斯克、比爾·蓋茨、史蒂芬·霍金)都提出了對於這個問題的消極觀點。
毀滅創造者的創造物是一個古老的主題。它在西方文化中的第一個突出的例子是科幻小說中的《弗蘭肯斯坦》的怪物一樣可怕。而其後來者(電影中的HAL 9000、終結者和矩陣)仍保持這個傳統。不過,這個話題是非常具有爭議的。即使是那些對人工智慧保持警惕線陣營的人也認為這樣的技術不會很快到來。
但是伊隆·馬斯克提出的一點是非常重要的,人類專家必須積極主動應對,而在行業中保持領先是不夠的。人們必須向前看,人工智慧究竟是否會構成威脅,科學家必須想到所有可能的情景來安撫公眾的想法和感受。
在採取預防措施的同時,要注意不要忽略人工智慧實施的積極案例。而出現一次失誤或漏洞可能會導致對整個行業不利的立法出台,並導致未來幾年人工智慧的發展停滯不前。
2.致命的錯誤
另一個流行的情況表明,過分信任技術是危險的。如果人工智慧缺乏情感智能或數據,可能會錯誤地解讀人類的要求。另外,由於錯誤或病毒的原因,人工智可能變得不穩定並且可能是危險的。正如O"Reilly Media公司創始人蒂姆?奧萊利(Tim O"Reilly)所說:「我們的演算法系統有點像阿拉伯神話中的精靈。我們要求他們做某些事情,但如果我們沒有清楚表達意願,他們會曲解命令,會給人們帶來意想不到的結果。」
人們還沒有準備好處理不可預知的人工智慧。百分百安全是消費者讓虛擬助手和機器人進入人們日常生活的必要條件。例如,當一輛自動駕駛汽車發生一起交通事故時,人工智慧的安全性總是會受到嚴格的審查。
到目前為止,只有一例人工智慧的錯誤導致人員傷亡,但這足以引起人們的爭議。當人工智慧解決危險情況時,人們無法對這種單一的事件進行權衡。而其實全球每年發生的4萬多起事故都是由於司機的大意疏忽或誤操作導致傷亡。這些事故中78%以上的司機在駕駛汽車時在發簡訊。這是人工智慧永遠不會做的事情。
而且,在特斯拉汽車自動駕駛汽車發生的悲慘事故中,其自動駕駛系統未能識別出明亮天空背景中迎面駛來的汽車的白邊,從而導致事故的發生,而車上的司機至少有7秒鐘可以踩剎車,顯然他沒有注意。司機認為這輛車100%可以自動駕駛。人為錯誤(一廂情願)導致了這一事故發生。
法院對這次特斯拉自動駕駛汽車車禍的裁決處理對於該行業的未來發展是幸運的,這是一個很好的結果。專家們必須以樂觀的想法來解決這個問題。如果人工智慧的能力是有限的,那麼它就不能被當做「為人類駕駛汽車」或「理解人類的每一個願望」的東西。如果產品的名稱或其特定功能意味著自主性(「人工智慧」,「智能」,「自我」,「智能」),則必須對其功能提供指導說明。明確其用戶必須採取哪些措施。
恐怖谷
「恐怖谷」( Uncanny Valley)這一影片代表著人類對人工智慧的形而上學和存在的恐懼。類人的人工智慧會威脅到人類的獨特性和身份,將挑戰人類「特殊性」的觀念。人們擔心這些人工智慧會取代人類的工作。而科幻作家在上世紀五六十年代就已經積極探索這個概念。
由於當今的大多數人工智慧是虛擬助手和導航系統的組成部分,這種恐懼正在消失。但是,取代人力或減少可用職位數量的技術力量仍值得考慮。幾乎三分之一的人擔心人工智慧會取代他們的工作崗位。
在「恐怖谷」背景下考慮的另一個非常重要的事情就是人工智慧的情商。機器人如果有自己的夢想,這可能是令人毛骨悚然的,因為它們無能為力。他們確實感受到自己的情緒,但只是為了自我保護。他們不會尊重生物的痛苦,同情心對他們來說是陌生的事物。
許多專家認為,如果人們想創造一個能夠真正提高生活質量的人工智慧,那麼其情商就非常重要。人們很難預測未來,但具有一定情商的機器人肯定是朝著正確的方向邁出的一步。
3.制度化偏見
最近,人們開始擔心人工智慧會使種族主義、性別歧視以及創作者的其他偏見變得形式化,並且重現。這是迄今為止最真實的恐懼。儘管機器的編程並沒有摻雜偏見,但它們可以向人們學習,並採取相應行動。
微軟公司的聊天機器人Tai的命運多舛的實驗提供了一個機器學習機制可能會適得其反的例子。在搜索結果和面部識別問題上,有許多不太令人震驚的但卻令人不安的情況。 Google Photos在2015年錯誤地將兩個非洲裔美國人標記為大猩猩。2009年,惠普視頻跟蹤軟體沒有識別出膚色較暗的面孔。2015年,尼康相機軟體對於一名東亞人的面孔總是錯誤地提示為「眨眼」。
HeyHuman公司總經理Neil Davidson認為,企業應該成為時代的救世主,並且不能讓顧客失望。因此,企業必須盡一切力量創造一種無偏見和無害的人工智慧。Davidson說:「隨著這一技術領域的發展,人們需要從以前的失敗教訓中學習,並確保機器的功能具有一定的意識和直覺。」
被人類濫用
最後,人們擔心其他人會用人工智慧進行欺騙,欺騙他人的信任和愛情等。即使是在人工智慧的幫助下營銷也被視為一種操縱行為。90%的美國人認為,在市場營銷中使用人工智慧應該通過具有法律約束力的行為規範進行管理。四分之三的人認為企業應該在使用人工智慧之前需要獲得明確的控制權。
人們對機器的焦慮轉移到人類自身,這絕對是朝著正確方向邁出的一步。這個世界觀大多代表東方的反烏托邦傳統,這在日本流行文化中表現出來。 「攻殼機動隊」(漫畫和電視連續劇)展示了未來世界,而犯罪仍然是由人類犯下的錯誤,罪犯具有人類的動機和動力,而機器人只是一種工具,儘管其很複雜。
人們可能爭論這種清醒的態度和日本在機器人方面的成功是否是巧合。但有一點是肯定的——這種觀點在西方文化中也慢慢成為主流。人們不太關心人工智慧,而更多關心的是人類創造者。
影片《機械姬》(Ex Machina)」和「神秘博士」(Oxygen)代表了流行文化的這種轉變。這二者都顯示人類的貪婪和自私可能比任何先進的人工智慧更具破壞性。
事實上,人們可能更信任人工智慧。波士頓醫學中心的Michael Paasche-Orlow博士分享了他對於絕症患者的觀察。據他介紹,這些患者接受了旨在引導他們生命終結的人工智慧,有時更傾向於將其作為人類照顧者。他說:「事實證明,病人很高興能和電腦交談。」這些患者非常明確表示,「醫生從來沒有問過我這些事情。」
小貼士
?工程師有責任確保人工智慧的設計不會反映人類最壞的一面。對於在線服務,在邀請所有人加入之前,應該經常採取反濫用措施和過濾措施。另外,不能教授機器人知識的部分。
?訓練人工智慧,為其提供儘可能多樣化的數據。對於使用各種口音訓練語音識別。而面部識別使用不同年齡和種族的人來進行學習。在向公眾發布最終產品之前,在各種條件下測試所有功能。讓人工智慧演算法邊做邊學可能是代價高昂的錯誤。
?過於樂觀的人工智慧產品命名通常會引起誤解,並危害整個行業。企業要非常清楚人工智慧能做什麼,不能做什麼。人工智慧需要情商來獲得認可。情商在人類和機器人工作場所都有很高的需求。
?為了確保公眾觀念的改變,人們必須積極實施人工智慧實施的積極案例。幾十年來,人們習慣於不相信人工智慧。這些根深蒂固的恐懼不會輕易消除。
版權聲明:本文為企業網D1Net編譯,轉載需註明出處為:企業網D1Net,如果不註明出處,企業網D1Net將保留追究其法律責任的權利。
(來源:企業網D1Net)
企業網D1net已推出企業應用商店(www.enappstore.com),面向企業級軟體,SaaS等提供商,提供陳列,點評功能,不參與交易和交付。現可免費入駐,入駐後,可獲得在企業網D1net 相應公眾號推薦的機會。歡迎入駐。
※人們必須了解網路安全漏洞的最新趨勢
※D1net閱聞:IBM宣布搭載全新雲伺服器
TAG:企業網D1net |