人工智慧的福音,人類不幸的開始
一條消息:科學家稱未來計算機或能刪除你的思想
據英國《每日郵報》4月26日報道,生物倫理學家的一項最新研究發現,未來的計算機或許能夠在人們意識不到的情況下,對人類的思想進行收集、儲存甚至刪除。
看來以後往腦袋上的接電線,或鑽什麼什麼共振機器肚子里一類事件,要慎重了,進去容易,出來呢?傻了?好可怕。
生物倫理學家在研究中表示,與人類大腦相關的神經技術未來將更加先進,應用也更廣泛,但同時也會被黑客盯上。他們會在未經授權的情況下入侵人們的思想,窺探大腦中的想法甚至可以將其刪除。
神經技術的發展將大腦成像和人機交互等技術帶離醫學上的臨床應用,帶入消費領域。如此一來,雖然這類技術的進步可能會有益於個人和整個社會,但確實存在被濫用的風險。研究人員認為,這會給個人自由帶來意想不到的威脅。
研究報告的聯合作者羅伯托·安多爾諾教授解釋稱,大腦成像技術已經發展到一定水平,刑事法庭中也出現了關於其合法性的討論。大腦成像技術不僅被用於評估嫌疑人的刑事犯罪責任或重新犯罪的風險,消費品公司也在用它來了解客戶的消費行為,進而從消費者身上獲得企業想要的反應。
研究人員表示,隨著神經技術的發展和普及,該技術有可能被黑客入侵,人們的思想也可能因此遭到入侵。用來控制消費者行為的人機交互技術如果被第三方攻擊,可能對使用者造成生理和心理上的雙重損害。
報告還指出,由於這類技術不斷發展,有關的人權法也應與時俱進。新法律要保護人類的思想自由,使之不受侵犯。同時,研究人員也警告稱,神經技術的發展可能在未來威脅和侵犯人類的思想隱私。
該報告的作者們建議在不久的將來出台四項新的人權法,防止隱私等被別有用心者利用。這些人權法涉及公民的認知自由、精神隱私、精神完整性以及心理連續性等權利。
報告的主要作者、瑞士巴塞爾大學生物醫學倫理研究所博士生馬爾塞洛·延卡說:「思想被認為是個人自由和自我決定的最後庇護所,然而神經工程學、腦成像科技和神經技術的發展進步將思想自由置於危險境地。」
延卡還表示,在研究中所提出的立法建議將賦予公民對具有強迫性及侵略性的神經技術說「不」的權利,同時為神經技術所收集的數據提供隱私保護,防止人們的思想受到神經技術濫用的傷害。
※無線充電離我們還有多遠
※未來事件:無處不在的互聯網
※天蠍座到底記不記仇?誰看見蠍子復仇了?
※科幻電影:人獸雜交不知你看沒看,反正是噁心到我了
※科幻電影:諸神之混亂女神的陷阱
TAG:科幻星座 |
※人工智慧取代人類工作?別開玩笑了,人工智慧遠不及人類的一半!
※人工智慧可以作為人類智慧的一部分,是為人類服務的
※人類永生-人工智慧的未來
※人工智慧與人類智能的共進化
※人工智慧會不會真的與人類為敵?
※不斷成熟的人工智慧,會威脅到人類嗎?
※人工智慧VS人類智慧,誰將是最終的贏家?
※谷歌開發出了令人類愉悅的人工智慧?
※人工智慧和人體細胞克隆,在未來哪一個對人類的威脅更大?
※為什麼人工智慧不能替代人類的智慧?
※人工智慧火了,人類就有些尷尬了
※人工智慧之父:即便人工智慧終將超過人類 也會對人類失去興趣
※「後人類時代」的門徒,宏智力創始人談腦機介面和人工智慧的未來
※人工智慧的發展是否會讓人類的存在受到威脅?
※人工智慧對人類的危害如同核武器?未來人類會被人工智慧取代?
※人工智慧科技對人類未來的展望
※人工智慧時代,人類會和機器人相愛嗎?
※人工智慧會威脅我們人類的生存?
※張首晟:人工智慧能發現人類不懂的科學時才超越人類
※人工智慧取代了人類,人類還有存在的意義嗎?