首家支持 Google Lens 的博物館即將到來,但用 AI 取代人力嚮導似乎說得還有點早
在 2017 年的 I/O 大會上,Google 發布了一款能識人又能識物的新產品:
你只需要對著別人的名片一掃,所有信息就能存進通訊錄;
你只需要對著景物一掃,就能獲得當前景物的所有信息;
當你在遊覽時,它還能擔當你的隨身翻譯、導遊……
更重要的是,這款產品打破了智能手機的檔次局限,無論是高端旗艦還是低端入門,只要搭載的是智能系統,任何手機都能用得上它。
這個在當時有著神仙功能的新品,就是我們在往後兩年 I/O 活動上都能看到的「Google Lens」,如今這個產品經過兩年的發展,它已經成為識物工具中的佼佼者。
而隨著今年 Google 在這款工具里加入 AR 和朗讀功能後,有著 124 年歷史的笛洋美術館(de Young museum)也在近日宣布,將全面支持遊客用 Google Lens 遊覽展館。
這也是世界上第一家支持 Google Lens 的美術館 / 博物館。
圖片來自:Artnews
在笛洋美術館內,遊客可以通過 Google Lens 對展品進行識別,系統在進行識別後會推送當前作品的作者、歷史等相關信息,用戶可以在館內通過這個功能自由獲取想了解的內容。
而且更有意思的是,除了對作品進行識別外,遊客還可以通過 Google Lens 對特定物品進行識別,識別成功後系統會播放作品相關的 AR 圖像或視頻內容。
通過這種方式,用戶能獲得面前這幅作品以外的信息,譬如讓作者在視頻中介紹當前作品的創作經歷等,讓遊客通過具象且優雅的方式獲得知識內容,就像和藝術家面對面交流一樣。
不過,AI 識物能在未來取代傳統人力嚮導成為遊客獲得新知識的主要途徑嗎?我認為這個想法是不錯,但現在說似乎還有點早。
強大的 AI 人工智慧讓 Google Lens 成為了當今世界上數一數二的識圖工具,越來越多的應用途徑,也讓這款工具走出實驗室和 PPT,成為用戶了解新事物的另一種途徑。
圖片來自:9to5Google
但這種機械式的嚮導能取代人力成為未來遊覽的發展主流嗎?我認為說「取代」那這話可能說得有點早了,而且在短期內,AI 嚮導不會取代人工成為主流。
首先我不否認 AI 的兩個優勢:全天候運作和可延展性。
相比於人工嚮導,AI 能 24 小時全天候工作,同時通過自學習能力,AI 能在執行任務的過程中不斷學習。而且在網路的幫助下,AI 並不是一個大腦在學習,而是伺服器主腦和終端「大腦」們的信息互通,從而組成一張存儲特徵的智能網路。
從表象來說,比如我用手機對著我面前的杯子進行掃描,系統會記錄物體的特徵信息,當其他用戶掃面類似的物體時,AI 會進行特徵識別和結果篩選,快速得出識別結果。或者當我第一次掃描這個物體時,AI 會先記錄特徵,當我第二次掃描時,AI 會繼續增加特徵點,從而全局提升識別的速度和準確率。
神經網路的自學習能力能讓 AI 的識別效率接近人腦,甚至有著不受情緒和精神的影響,它可能還會超越人腦,但是能得出準確無誤的結果,前提是需要大量訓練。
AI 能在短時間內得出識別結果,實際上有賴於研發團隊在功能推出前的各種訓練工作。譬如在 Google 的 TensorFlow API 中,他們會通過COCO 資料庫的 90 大類、共 30 萬張圖像對 AI 進行識別訓練,繼而通過圖像去提升 AI 的識別能力。但即便有著大量的訓練信息作為基礎,AI 也並非天下無敵。
The Verge 在近日的《人工智慧難以識別低收入地區的日用品》這篇文章中,就對 AI 識別的基礎進行探討,並給出了「AI 訓練不平衡」的觀點。
研究人員發現,物體識別演算法在識別月收入 50 美元的家庭物品時,結果的誤差大約會比超過 3500 美元的物品增加 10%。而且不同地區物品的準確率也差異甚大,比如演算法在識別美國物品方面會比索馬利亞和布吉納法索的物品提升 15%~20% 的準確率。
另外這篇文章有意思的論點在於,由於 AI 識物在訓練時大多都是在發達地區訓練,因此對於非發達地區的物品,AI 識物會出現識別失效的情況,這種不平衡的現象很可能會影響未來自動駕駛在非發達地區的發展,因為自動駕駛需要依賴感測器和 AI 識別。
同一個 Soap(肥皂),不同的結果. 圖片來自:The Verge
所以儘管 AI 在某些方面比人類表現出色,但前提需要大量的數據支撐,對於存在變數的物品,人腦在學習和處理上則會比 AI 優秀。面對博物館固定的展品,AI 能帶來低成本、快捷的體驗,但應對互動和資料庫沒有的物品,人力嚮導仍然佔有一定優勢。
不過 AI 要取代人力,真正要克服的不是知識量,而是交互情感。
AI 識物能提供詳細的知識傳播,但卻不具備人類最可貴的互動交流。雖然 AI 識物方便參觀者通過手機查看當前展品的詳細信息,但這只是機械性地獲得千篇一律的內容,而並非是人與人交流。這種區別就像網上授課和面對面課堂,獲得的信息是不變的,但若是要提問詳情中沒有的知識,誰能解答呢?
當然,面對情感這個大問題,不少廠商也正通過語音優化讓 AI 貼近人類發聲,比如 Google Duplex 在語音中加入了仿人類的語氣和停頓,「唔」、「哦」這些助詞讓 AI 說出的話更像是個真人而並不是機器人;蘋果也在 iOS 13 通過 TTS 對 Siri 進行多語音拼合優化,讓 Siri 的發音更加自然。
Google Assistant 有特別的發音技巧
總體而言,雖然目前 AI 有著強大的學習能力和識別效率,但作為知識的提供途徑,AI 當下仍處於輔助為主的發展階段,擁有情感和交互的人力依然佔有主流優勢。
不過不可否的是,在互聯網技術推動下,AI 已經踏上了高速路,越來越貼近真實人類,儘管目前我們還在為「人工智慧」和「人工智障」而辯論 ,但是讓 AI 在若干年後給我們提供新知識,並非不可能。
※小米手環 4 體驗:彩色屏幕+小愛同學,這款智能手環更棒了
※iPadOS 發布:支持多窗口同時操作,還有延遲更低的 Apple Pencil
TAG:愛范兒 |