谷歌轉向消極面的三個跡象
全球技術地圖
創新丨前沿丨科普丨資訊
我們只能期待,當谷歌不斷壯大,它的良心不會隨之消失。
勿作惡。
這個短句自2000年以來就一直是谷歌公司的座右銘。它甚至曾是「谷歌行為準則」的開篇之句——注意了,曾經是。上周五小發明網(Gizmodo)報道稱,四月底五月初時,谷歌將其行為準則中幾乎所有的「勿作惡」這句話都刪去了,只保留了結尾的最後一句。
這次刪減看起來微不足道,但卻可以看做是一個新的信號,標誌著谷歌道德重心的轉變。因為現在的谷歌絕不僅僅只是為我們最重要(或者最愚蠢)的問題提供答案,所以這個轉變可能意味著人類未來要有麻煩了。
考慮到谷歌現在對我們生活所產生的巨大影響,我們不禁要問,谷歌將如何利用自己巨大的權力呢?是用在好的方面還是壞的方面呢?我認為答案是後者,以下是谷歌轉向消極的三個跡象。
"Project Maven"AI軍事計劃
善惡的評判當然是主觀的,一個人的「惡」可能對於另一個人來說只是道德上的灰色地帶。但是,賦予無人機以殺人的能力從道德上講一定是邪惡的,而這就是谷歌最近在做的一個副項目。
今年三月,有新聞爆出谷歌參與了美國國防部的「Project Maven」計劃——一個研發用於戰爭的人工智慧無人機的計劃。於是,數千谷歌員工上書抗議,上周,有些人甚至辭職以表達他們的強烈不滿。
但谷歌仍然執意推進該項目,其員工向癮科技網站(Engadget)透露,谷歌似乎對軍事項目越來越感興趣,卻越來越忽視員工的想法。
具有欺騙性的人工智慧
編造謊言是道德上的另一個灰色地帶,而谷歌似乎正樂於樹立這樣的導向。谷歌的員工告訴癮科技網站(Engadget),公司不像以前那樣對他們開誠布公了,同時,谷歌對公眾的透明度也不如以往了。
本月早些時候,谷歌演示了一項谷歌助理的新功能Duplex——一項能夠代替用戶在日常生活中打電話的人工智慧技術。有人斷言此次演示中的人工智慧是造假的,然而就算不是,這項技術也是具有欺騙性的,因為人工智慧在演示的電話中是不可能透露自己非人類的身份的。
牛津互聯網研究所數字道德實驗室的研究員托馬斯·金(Thomas King)告訴了TechCrunch他對這個人工智慧電話展示的看法:「谷歌的實驗看上去好像是被設計用來欺騙的。」「(然而,)就算他們並不是故意要這麼做,人們還是可以指責他們出現了疏漏,沒能做到保證人工智慧不會欺騙。」
谷歌工程副總裁尤西·馬蒂亞斯(Yossi Matias)在發布後對CNET新聞說:等軟體推出後,人工智慧「可能」會讓人們知道它們是人工智慧。然而這一切只能等軟體面世後,我們才能知曉。
自私的打算
上周,The Verge掌握了一段2016年在谷歌內部流傳的視頻。該視頻的名稱是「自私的打算」,這段視頻展示了未來谷歌的樣子:那時候,谷歌將不只僅僅收集用戶的數據,還將利用這些數據,最終達到控制人們行為的目的。
當The Verge採訪谷歌時,谷歌的發言人並沒有否認這一令人毛骨悚然的事情,而是指出這一切僅僅只是理論上的設想:
「如果這令人感到不安,我們很理解,,但是它最初就是這麼被設計的。這是幾年前由Design團隊設計的思想實驗,該實驗想要用「投機設計」的方法來發現那些讓人不滿的點子和構想,從而引發人們對此的討論。但是,這和任何現在或者未來的產品都無關。」
不過,我們還是不難看出,從技術上說,谷歌完全可以創造出這個「自私的打算」。此外,那段視頻也指出谷歌會改變人們的行為,使其與「谷歌的價值觀」一致,比如說環境的可持續性。如果谷歌的價值觀改變了,那麼這個「自私的打算」也會改變其引導用戶的方向。
當然,「自私的打算」有好有壞,谷歌也正在朝好的方面做著努力:給保護環境項目捐錢並提供資源、給兒童提供受教育的機會,以及給予弱勢群體更多的支持。
然而,鑒於谷歌是如此的強大,如果它決定「勿作惡」不再是其一個值得追求的目標,那將意味著沒有人能知道它會做出怎樣的破壞。就目前而言,我們只能期待,當谷歌不斷壯大,它的良心不會隨之消失。
作者丨Kristin Houser
編譯丨IITE
選自丨Futurism
TAG:全球技術地圖 |