當前位置:
首頁 > 新聞 > 「假人工智慧」你以為的AI技術,其實是人偽裝的!

「假人工智慧」你以為的AI技術,其實是人偽裝的!

「假人工智慧」你以為的AI技術,其實是人偽裝的!

「假人工智慧」你以為的AI技術,其實是人偽裝的!

新智元推薦

來源:衛報周刊

編譯:Grace

【新智元導讀】7月4日百度的AI開發者大會上放了一段AI打電話的視頻,一些用戶一開始並沒有察覺,但有的用戶還是很快發現了對方是機器人。AI已經越來越可以像人類一樣工作。但是,你有沒有想過,也許你所使用的某些技術,其實是人類在幕後操縱?據了解,一些公司利用被專家稱為「綠野仙蹤技術」,將對人類的依賴作為對投資者的秘密……

「假人工智慧」你以為的AI技術,其實是人偽裝的!

建立一個由人工智慧驅動的服務很難。所以事實上一些初創公司已經研究出更便宜、更容易讓人類像機器人一樣行動,而不是讓機器像人類一樣行事。

「用人來完成這項工作可以讓您跳過大量的技術和業務開發挑戰。顯然,它不會擴展,但它允許你在早期構建一些東西並跳過困難部分,」ReadMe的首席執行官Gregory Koberger說,他說他就遇到了很多「偽AI」,「這基本上是人與人工智慧的原型。」

「假人工智慧」你以為的AI技術,其實是人偽裝的!

一些公司使用人來訓練AI系統;其他人在聲稱擁有可擴展的AI技術時暗中依賴他們。

什麼?讓人偽裝聊天機器人?

用偽人工智慧這一做法出現在本周華爾街日報靠前的一篇文章中,文章強調Google允許數百名第三方應用開發者訪問人們的收件箱。

在總部位於聖何塞的公司Edison Software,他們的人工智慧工程師瀏覽了數百名用戶的個人電子郵件 -以用戶的身份認證 - 來改進「智能回復」功能。該公司沒有提及在其隱私政策中人們可以查看用戶的電子郵件。

「華爾街日報」文章中強調的第三方遠非第一批做到這一點的。早在2008年,一家將語音郵件轉換為簡訊的公司Spinvox被指控他們用人工在海外呼叫中心完成工作而不是機器。

2016年,彭博社強調了人們每天花12小時假裝為聊天機器人做日曆安排服務(如X.ai和Clara)的困境。這項工作讓人頭腦麻木,僱員表示他們期待被機器人取代。

「假人工智慧」你以為的AI技術,其實是人偽裝的!

2017年,企業費用管理應用程序Expensify承認,它一直使用人工來轉錄一些收據,並聲稱是「智能掃描技術」處理的。具體的做法是:收據的掃描件被發布到亞馬遜的Mechanical Turk眾包勞動工具上,由低薪工人來閱讀和轉錄。

「我想知道Expensify SmartScan用戶是否知道Mechanical Turk工作人員會收到他們的收據,」推特上一位「Turker」和零工經濟工作者倡導者Rochelle LaPlante說道,「我正在看某個人的優步全名收據,還有接送他的地點。」

即使是在人工智慧上投入巨資的Facebook也依賴人類作為其Messenger M 的虛擬助手。

該不該利用人力偽裝人工智慧呢?

在某些情況下,人類習慣於訓練AI系統並提高其準確性。一家名為Scale的公司提供很多人力工作者為自動駕駛汽車和其他人工智慧系統提供訓練數據。比如,「定標器」會查看相機或感測器反饋,然後在框架中標記汽車,行人和騎車人。通過足夠的人工校準,AI能夠學習識別這些物體本身。

在其他情況下,公司會一直靠偽人工智慧直到真的實現。他們告訴投資者和用戶他們已經開發了可擴展的AI技術,然後同時秘密地依賴人類智能。

心理學家、心理健康支持聊天機器人Woebot創始人艾莉森·達西(Alison Darcy)將此描述為「綠野仙蹤設計技術」。

「你可以模擬某種東西的終極體驗。在人工智慧領域,很多時候是幕後有人而不是演算法,」她說,還補充說建立一個良好的人工智慧系統需要「非常巨大的數據」,有時設計師想知道投資之前是否有足夠的服務需求。

她說,這種方法不適合像Woebot這樣的心理支持服務。

「作為心理學家,我們遵循道德準則。不欺騙人是非常明顯的道德原則之一。「

研究表明,當人們認為他們正在與一台機器而不是一個人交談時,他們傾向於透露更多信息,因為為自己尋求心理健康幫助是一種恥辱。

來自南加州大學的一個團隊用名為Ellie的虛擬治療師對此進行了測試。他們發現,患有創傷後應激障礙的退伍軍人更有可能在他們知道艾莉是一個人工智慧系統而不是被告知有人在操作機器時泄露他們的癥狀。

其他人則認為公司應始終對其服務運營方式保持透明。

「我不喜歡那樣,」對於那些假裝提供人工智慧服務但實際僱用人力的公司,LaPlante如是說, 「這對我來說感覺不誠實和被欺騙,這些都不是我想從我正在使用的業務中得到的東西。

「而在工人方面,感覺我們被推到了幕後。我不喜歡我的勞動力被一家公司利用,他們會轉而向客戶撒謊到底發生了什麼。」

這種道德上的窘境也引發了人為的AI系統。最近的一個例子是Google Duplex,這是一個機器人助手,可以通過「ums」和「ers」完成令人毛骨悚然的逼真電話,預約約會和完成一些預訂任務。

在最初強烈反對之後,谷歌表示其人工智慧會向與之對話的人表明身份。

「在他們的演示版本中,在低影響力的對話中感覺有點欺騙性,」達西說。雖然在餐廳預訂餐桌可能看起來像是一個低風險的互動,但同樣的技術在錯誤的手上可能更具操控性。

例如,如果你可以製作模擬名人或政治家聲音的逼真電話,會發生什麼?

達西說:「人工智慧已經存在很大的恐懼,而且當缺乏透明度時,它並沒有真正幫助對話。」

對此,你怎麼看呢?

【加入社群】

新智元 AI 技術 + 產業社群招募中,歡迎對 AI 技術 + 產業落地感興趣的同學,加小助手微信號: aiera2015_3入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

「李飛飛稱不會離開谷歌」出席美國國會聽證,AI要以人為本
ACL 2018最佳論文公布!計算語言學最前沿研究都在這裡了

TAG:新智元 |