智能語音助手不安全!能被人耳聽不到的聲音控制
騰訊科技訊 據外媒報道,研究人員發現利用人耳聽不到的聲音可以控制智能語音助手,這不禁讓人們開始擔心那些可以用語音激活的設備是否安全。
很多智能語音助手,如亞馬遜的Alexa、谷歌的Assistant以及三星和華為的語音助手,都存在這個問題。黑客可以利用這個漏洞來控制設備,命令它們執行一些非法任務,例如下載惡意軟體或開啟前門。
浙江大學的研究人員能夠控制一些時下流行的設備,例如運行有Siri語音助手的iPhone和MacBook、運行有Bixby的較新款Galaxy智能手機、亞馬遜智能音箱Echo以及運行Windows 10(內置Cortana智能助手)的PC電腦。
他們可以將語音指令變成超聲波頻率,從而控制設備。這種超聲波只有設備能夠聽到,人耳是聽不到的。安全研究人員利用這種方法能夠命令iPhone「撥打號碼1234567890」,或命令Macbook和Nexus 7打開惡意網站。
黑客可以同時利用硬體和軟體。他們利用硬體來接收超聲波,利用軟體來分辨人的聲音和電腦合成的聲音。
在大多數情況下,只有當聲源距離設備幾英寸遠的時候,這些設備才能夠接收到聲音。但是,有時候,研究人員能夠在幾英尺遠的地方發出攻擊指令。例如,他們利用蘋果智能手錶Apple Watch就可以這樣做。
在普林斯頓大學和康奈爾大學所做的一項類似的研究中,安全研究人員可以在兩三米遠的距離命令谷歌Pixel手機拍照、開啟飛行模式以及向Alexa詢問天氣情況以及購物清單上的物品。
安全公司MWR Security上個月也進行了一項單獨的研究,結果表明黑客可以利用亞馬遜Echo原版中的硬體漏洞將它變成監聽器。
如果用戶感到擔心,可以避免在公眾場合使用語音指令設備,或關閉語音助手功能。(編譯/樂學)
※傳台積電遭歐美反壟斷調查:排擠晶元對手
※尷尬!FB聲稱的美國廣告受眾竟比人口普查數據還高
※HTT與印政府簽署備忘錄 超級高鐵將落地印度安得拉邦
※諾貝爾獎得主怒批比特幣:與市場泡沫何其相似
TAG:騰訊科技 |