聽得出你心情好壞的機器人,就要來了……
矽谷Live /實地探訪/熱點探秘/ 深度探討
本周的科技前沿又跟大家見面了!除了美國各高校在機器人、自動駕駛等方面取得了一些新的進展之外,矽谷大公司在智能硬體、深度學習等方面也有新的突破。大家趕緊來看!
北美高校
密歇根大學:新演算法讓機器人對複雜環境變得更加敏感
機器人感知是阻礙家用機器人實際應用的最大瓶頸之一。在環境結構比較有序的地方,機器人可以很快地完成建造汽車等任務。 然而,人類的生活環境是非結構化的,面對這種混亂環境,目前的機器人還不夠智能。
密歇根大學的研究人員開發出一種演算法,可以讓機器人更快地感知周遭環境的變化,從而成為家庭輔助機器人。
他們將這種新演算法稱為「Pull Message Passing for Nonparametric Belief Propagation」。 通過這種演算法,在僅僅10分鐘內,機器人就可以得出對周圍環境和方向的準確理解,而用以往的方法需要超過一個半小時。
研究人員表示,通過他們的演算法,機器人可以正確地感知和使用抽屜,即便是抽屜被毯子蓋住了一半、或是一半被拉開,或者機器人上的感應器被抽屜遮擋住。
之所以能有這麼大的進步,是因為研究人員們將以往的 push messaging 改為了 pull messaging 形式,從而達到了簡化計算需求的目的。
簡單來說,與 push messaging 形式中不停地對周圍物品發送信號—收集反饋信息—計算—再發射—反饋—計算這樣的方式不同,pull messaging 演算法讓機器人先對空間信息進行一個整體的掃描,對周圍所有的物品定位,標註上包含多重信息的編號,並將每個編號物品上的數據進行橫向比較,從而節省後續的計算的時間。
耶魯大學:研究發現癌症藥物如何抑制癌細胞中的DNA修復
根據耶魯大學癌症中心的研究,一種被認為用途有限的抗癌藥物西地尼布(cediranib)其實擁有更多超級功效:它能夠阻止某些癌細胞修復它們的DNA。這項研究被發表在《科學轉化醫學》雜誌上。
該研究主要作者 Peter Glazer 教授表示,「DNA 修復以幾種不同的方式發生,這就是為什麼一些特定技術的抑製劑可能如此有價值的原因。人們正在認識到,操縱 DNA 修復可能非常有利於提高傳統癌症治療的效果。」
使用西地尼布來幫助阻止癌細胞修復 DNA 損傷可能對許多依賴靶向藥物的癌症有用。而關於西地尼布為何可以在 DNA 修復過程的早期階段關閉 DNA 修復的原因,Glazer 教授表示,「與另外一種藥物 Olaparib 不同的是,西地尼布不能直接阻斷 DNA 修復分子,也就是不能直接阻止 DNA 將自身縫合在一起,它其實是影響了 DNA 修復基因表達的調控。」
MIT:研發的非接觸式無線健康監測設備通過臨床測試
麻省理工學院 CSAIL 與 Novartis 公司合作測試了一項新技術:這種可用於生理信號的被動、非接觸式無線監控可以用於對在家卧床的患者進行全天候的健康監測,而全部監測由類似於Wi-Fi的裝置完成,患者無需佩戴任何接收設備。
麻省理工學院的 Dina Katabi 教授及她的學生們開發了這項技術。這個類似於Wi-Fi的監測設備可以通過傳輸低功率無線電信號,使用機器學習演算法分析無線電信號的反射,來生成相應的生理指標。在無需患者佩戴感測器及改變行為的情況下,該設備可以收集信息包括患者的身體移動數據,行走姿勢,呼吸,心率,睡眠的時間,睡眠中的呼吸暫停次數等。
Novartis 公司與麻省理工學院的團隊合作探索了這項技術在臨床試驗中的潛在用途,在實驗室中使用該設備對個體進行了多天的研究,並將所得數據與使用專業測量儀器的數據結果進行比較。比較結果表明,這項無線監測技術具有捕獲運動和生理指標的能力。
如果後續研發和測試順利,那麼這種監測方式則有望走入病患家中,為人們的生活提供便利。
感興趣的小夥伴可以閱讀更多信息:
https://www.csail.mit.edu/news/wireless-health-monitoring-system-shows-promise-clinical-trials
MIT:為自動駕駛系統加入人性化的建議
通過肉眼的觀察和簡單的輔助工具,人類駕駛員就可以駕車在未行駛過的道路上「如履平地」。然而,這種簡單的思考和推理能力對於無人駕駛系統來說仍是個難題。
為了讓無人駕駛系統擁有這種「簡單的人類推理能力」,麻省理工學院CSAIL的研究人員創建了僅使用簡單的地圖和視覺數據的系統,使無人駕駛汽車能夠在從未走過的複雜環境中輕鬆導航。
這個自動駕駛系統可以通過使用來自攝像機的路況數據和簡單的GPS地圖,來「學習」人類駕駛員在小區域內行駛道路時的轉向模式。然後,受過訓練的系統就可以模仿人類駕駛員的方式,來為行駛在全新區域里的無人車導航。
與人類駕駛員的推理方式類似,該系統還可以通過實時地檢測地圖與實際道路特徵之間的不一致,再次檢測無人車的系統定位、感測器和映射是否正確,從而保證對無人車導航的正確性。
該系統使用了卷積神經網路(CNN)的機器學習模型進行圖像識別。在訓練期間,系統會觀察並學習人類駕駛員的駕駛習慣和方式。 CNN將方向盤的旋轉等駕駛操作與通過攝像機和輸入的地圖觀察到的路況信息相關聯。並最終根據各種道路情況生成最可能的轉向命令,對無人車的導航進行輔助。
喬治亞理工:識別基因組變異技術,從幾天縮短到幾小時
從生物致病到癌症引起的突變,診斷許多健康問題的第一步通常始於識別基因組的變異。但是,現有技術可能需要數天時間。近日,喬治亞理工開發的一種新演算法能大幅縮短識別細胞或生物體中的基因組變異識的時間。
「將 DNA 序列與參考序列對齊是生物學中基因分型的關鍵一步。」該研究的負責人員 Chirag Jain 說道。因此喬治亞計算機工程學院和英特爾的研究人員共同設計了軟體包裝 PasGAL,這是第一個能夠將 DNA 序列與複雜基因組圖譜對齊的多核並行演算法。
這個軟體包能夠利用現代計算機結構的多核特性,在多個數據點上同時執行一個任務。Jain 說,以前每次只能從人身上取出一個參考的 DNA 序列,一次只能評估一個單獨的基因組,而現在則可以同時評估多個個體的多個基因組。
伯克利:造出會飛檐走壁的彈跳機器人
2016年,UC伯克利機器人學博士生Justin Yim製造了一個單腿機器人Salto。Salto 不僅可以像娃娃跳一樣跳躍,也能像一條靈活的狗狗那樣越過障礙。
Yim 和伯克利電氣工程和計算機科學系教授 Ronald Fearing 合作進行該項目。Fearing 所在的仿生微系統實驗室致力於探索如何利用動物運動機制創建更加靈活的機器人。Salto 有一條強大的腿,這條腿就是根據嬰猴來建模的。
研究者希望 Salto 能夠推動小型敏捷機器人的發展,這類機器人可以在碎石路上跳躍行走,支援搜救行動。
「小型機器人可以做很多事,」Yim 解釋道:「比如去大型機器人或人類無法活動的地方。假設在災難發生時,它們就可以用於尋找受災的人,且不會對救援者造成危險,甚至會比沒有輔助工具的救援者更快。」
傳送門:https://news.berkeley.edu/2019/05/21/with-a-hop-a-skip-and-a-jump-high-flying-robot-masters-obstacles-with-ease/
斯坦福大學:科學家給分子打上熒游標簽,更好理解細胞運作機理
如果我們將細胞視為機器,將分子視為運動部件,那麼通過觀察分子的去向和它們的作用,我們能更好理解生命是如何運作的。
斯坦福大學生物工程師 Jan Liphardt 領導的團隊開發了一種方法,用來跟蹤單個分子在長時間內穿過細胞的軌跡,並製作影像。他們通過改進熒光蛋白(FP)標記技術來實現這一目標,該技術允許科學家用熒光蛋白標記生物分子來追蹤它們的運動 。
熒光蛋白(FP)標記技術面世已有一段時間,它的研發者獲得了2008年諾貝爾化學獎。該技術使生物化學家能夠將FP或熒光團附著到他們想要追蹤的分子上。當被激光照射時,熒光團發光,從而研究人員能夠跟蹤標記的分子。但目前的技術有一個嚴重的缺點,那就是熒光團通常在幾秒鐘內即會燃盡。
而研究團隊成員 Liphardt 和 Rajarshi Ghosh 開發了一種新型熒游標簽,能夠更好地用於實際的實驗中,不會快速燃盡。該項研究發表在《自然化學生物學》雜誌上。通過對熒光蛋白(FP)標記技術的改進,科學家將能夠更好的了解生物變化的過程。
哥倫比亞大學:開發出由大腦控制的助聽器
我們都知道,有些公共場所(例如餐廳)格外攏音,非常嘈雜,你連對面交談的人說話都很難聽清,但人類大腦能集中注意力、著重聽某個聲音,可以毫不費力的放大一個特定聲音而不牽扯其他聲音,但現階段助聽器卻做不到。
本周,哥倫比亞大學的工程師們在 Science Advances 上發表了一項新技術:由大腦控制的助聽器。這種由大腦控制的助聽器由 AI 驅動,可監控佩戴者腦電波,自動過濾無關聲音、放大增強佩戴者想要關注的聲音。
哥倫比亞大學 Mortimer B. Zuckerman Mind Brain Behavior Institute 研究員、該論文作者 Nima Mesgarani 博士說,他們發現兩個人在交談的時候,說話的人的腦電波與聽者的腦電波會逐漸趨同。於是團隊將語音分離演算法與神經網路、及模仿大腦自然計算能力的數學模型相結合,開發了一款腦控助聽器,使用腦電波來判斷哪些聲音是需要被放大的 「重點聲音」,哪些聲音是噪音。
那麼,這個功能效果如何呢?雖然目前在室內環境中測試效果還不錯,但是否能在室外環境也實現相同的效果,還需要進一步研究。雖然這項技術還處在極早期階段,但該技術有望給助聽器領域帶來不小的革新。
大公司
彭博社:亞馬遜要開發讀心術了?
據彭博社報道,亞馬遜正在開發一種可以讀取情緒的、基於 Alexa 音控的攜帶型可穿戴設備,你沒看錯,Alexa 以後很可能了解你說話背後是快樂還是憤怒了!
據了解,這是亞馬遜硬體開發團隊 Lab126 和 Alexa 語音軟體團隊共同合作的一款產品,該設備將專為智能手機應用程序設計,配有麥克風和軟體,能夠根據用戶的聲音辨別佩戴者的情緒狀態。
除此之外,彭博社還透露,亞馬遜很可能將根據情緒狀態,向人們提供相關廣告或產品推薦。這意味著,用戶是快樂、悲傷、恐懼、憤怒或任何其他情緒,都會得到更適合他們心情的不同建議的產品。
早在 2017 年,亞馬遜提交的美國專利中就描述了這樣一種系統,語音軟體使用聲音模式分析確定用戶感受。知名調研機構尼爾森研究顯示,與不包含情感因素的廣告相比,考慮人類情感並引發情緒反應的廣告產生 23% 的銷量增長。換句話說,公司越了解客戶在任何時刻的感受,他們在向你做廣告時就越有效。
所以,我們以後還能不能放心地對著 Alexa 說話了?
谷歌:移動相機 移動人:深度學習深度預測方法
在攝像機和人物同時都運動的情況下,從 2D 圖像數據重建 3D 場景一直是個難度很大的挑戰。以往的方法通常需要多攝像機陣列,或者當攝像機移動時,場景中的物體保持靜止才能做到。
谷歌於5月23日發表的論文《Learning the Depths of Moving People by Watching Frozen People》中,研究人員通過應用基於深度學習的方法來解決這一挑戰。該方法可以從普通視頻生成深度圖,即使攝像機和被拍攝主體都在自由移動也沒關係。
該模型避免了直接3D測量,而是基於以前的數據,讓演算法學習人體姿態和形狀。這項研究開創了首個針對攝像機和人體同時運動的情況而定製的學習方法。
NVIDIA:不必部署 AI 工具,輕鬆把 AI 引入醫院放射科
在深度學習最具發展潛力的領域之一 —— 醫學影像領域,AI 已經開始發力了,但並非每一家醫院都有足夠的設備去打造人工智慧 醫學影像的能力。
本周,英偉達和美國放射學院(ACR)聯合發布了醫院 AI 參考架構框架( ACR AI-LAB ),該框架包括英偉達的 GPU、Clara AI 工具包等基礎設施,以及 GE 的Edison平台,以及構建和部署 AI 系統所需步驟的描述,並提供有關每個步驟所需的基礎結構的指導,幫助醫院輕鬆在放射科部署人工智慧計劃。
該框架三大亮點在於:醫院數據、臨床AI工作流程、AI計算能力,且這個 AI 框架的工作流程已經與醫院系統例現有的醫學影像存儲系統相關聯了。通過上述努力,將意味著有醫學影像科的醫療保健機構,將不必再自行構建系統、部署 AI 工具了。
科研機構
俄羅斯斯科爾科沃科學技術研究所:比 Deepfakes 還牛、直接把靜態圖變成動圖
5月20號,俄羅斯斯科爾科沃科學技術研究所(Skolkovo Institute of Science and Technology)發文 《Few-Shot Adversarial Learning of Realistic Neural Talking Head Models》,宣布研發出了一款 「直接把靜態圖變成動態圖」 的換臉神器。
比如能把蒙娜麗莎變成這樣:
或者這樣:
這樣的蒙娜麗莎,似乎看著不那麼神秘了?
近半年來已有幾項研究表明,通過訓練卷積神經網路,可以生成看起來很真實的人面部圖像。但如果想讓機器生成一個看起來足夠逼真的人臉部動圖(比如說話、皺眉等),現有技術下就需要讓機器通過單個人的大量圖像進行訓練。但有時我們需要從少數幾張圖片、甚至一張圖片,就能做出從單張頭像到動圖的生成。
這篇論文里談到的技術就只需要幾張、甚至一張圖就能生成真實可信的動圖。機器先集中看很多視頻、在海量視頻數據集上執行冗長的元學習,之後通過功能強大的生成器(generator) 及 鑒別器(discriminator),它就能把少數幾張圖片、或單張圖片變成動圖。
值得注意的是,該系統能夠根據人的圖片,根據每張不同的頭像,「量身定做」 生成器及鑒別器的參數,因此儘管需要調整數千萬個參數,但訓練可以僅基於少量圖像快速完成。
大家對本周的科技前沿印象最深刻的是什麼呢?歡迎留言討論!
沒讀過癮?技術前沿洞察是矽谷洞察的系列欄目,歡迎點擊此前的技術前沿洞察:
※當基因編輯遇上藝術家,CRISPR是否還令人害怕?| 矽谷洞察
※醫學影像創業公司使用AI對鼻竇和腦部掃描結果進行分類 |矽谷洞察
TAG:矽谷密探 |