當前位置:
首頁 > 新聞 > 3D列印出活體心臟,AI讓你體驗登月!

3D列印出活體心臟,AI讓你體驗登月!

矽谷Live /實地探訪/熱點探秘/ 深度探討

大家好,技術前沿洞察又來啦!你們知道嗎,3D列印技術可以打出活體心臟啦,我們終於可以實現用眼睛來控制鏡頭的焦距了,以後無人機可能實現數日飛行,AI能夠圓大家的登月夢了....高校、大公司的前沿技術頻出,趕緊來看!

美國高校

卡內基梅隆大學3D列印出活體的、正常運作的人類心臟

來自卡內基梅隆大學的一組研究人員正在研究活體列印人類心臟的3D,包括列印小血管和大型心室。在8月的第二期《科學》雜誌上,這個研究小組分享了他們的成就。

這是一種先進版本的Freeform Reversible Embedding of Suspended Hydrogels(FRESH)技術,以前所未有的複雜度3D列印膠原蛋白,並構建人類心臟的組成部分,如小血管到瓣膜到心室搏動。最近該技術獲得專利,並許可給了FluidForm公司。FluidForm正在致力於大幅提升3D列印活體器官的能力。

列印能夠正常運作的人體器官特別具有挑戰性,因為器官形狀複雜,必須在列印時獲得支持,否則會開始下垂,而該團隊通過用一種臨時支撐凝膠列印支架解決了這個問題。

雖然研究人員準確地列印出了患者器官的解剖結構,並且器官可以像真實的心臟一樣收縮和擴張,但目前其還在概念驗證階段,列印的部件還沒有進入活體。

更多信息:https://futurism.com/the-byte/researchers-3d-printed-functional-components-human-heart

斯坦福大學開發出淡水和海水混合能源技術

最近斯坦福大學的研究團隊發表在美國化學學會的ACS Omega期刊上的一篇論文,介紹了一種將鹹海水和淡水混合產生能量,製作電池,並用它來為沿海污水處理廠供電的方案。

研究人員測試了這種電池的一個原型,監測它的能量生產,同時用帕洛阿爾托(Palo Alto)地區工廠每小時排放的廢水與半月灣(Half Moon Bay)附近收集的海水交替進行沖洗。在180多次循環中,電池材料在捕獲鹽度梯度能量方面保持了97%的效率。

這項技術可以在任何淡水和鹽水混合的地方使用,但應用於廢水處理廠是一個特別有價值的業務場景。廢水處理是能源密集型的,約佔美國總電力負荷的3%。但是,廢水處理廠很容易受到電網關閉的影響。使廢水處理廠實現能源獨立不僅可以減少電力的使用和排放,還可以減少它們受停電的影響。

更多信息:https://news.stanford.edu/2019/07/29/generating-energy-wastewater/

人工智慧演算法搞的發明應該算誰的?

來自英國的科學家正在與三個不同國家的專利局打官司,探討的議題是:人工智慧演算法搞出來的新發明,專利到底應該算誰的?

Stephen Thaler是一位工程師和法律專家,他開發了一個叫做Dabus AI 的演算法,而Dabus AI 則發明了數種新技術,例如它設計了基於分形的易於掌握的食物容器,以及發明了可反映大腦活動的模式燈。

Stephen Thaler為Dabus AI 的這些發明在英國、歐洲和美國申請專利,並想把這些專利歸到Dabus AI 名下。然而,這些國家的專利局認為,如果有人使用了 Dabus AI 演算法發明了某樣產品,那麼按照傳統定義,專利合法權利歸於人類而不是演算法。這是一個不同尋常的分歧,說明我們的法律體系還未準備好適應新的新興技術。

更多信息:https://futurism.com/scientists-ai-inventor-patent

加州大學聖迭戈分校:眨一眨眼,就能改變焦距的軟性鏡頭

加州大學聖地亞哥分校的研究人員開發了一種柔軟的機器鏡片,操作者可以通過眨眼和眼部肌肉運動來控制鏡頭。當操作者眨眼兩次時,鏡片會將調換焦距,如果向左、向右、向上或向下看,鏡片則將跟隨眼球的運動,切換到不同的方向(如下圖)。

由於鏡頭由柔軟的材料製成,因此可以在自身焦距上改變32%。這個軟性鏡片是人類和軟機器之間介面的第一個例子,是軟質活性物質的概念證明,可通過身體信號進行遠程控制。該系統的潛在應用包括視覺假肢,可調節眼鏡,VR和以及軟性機器人等。

「雖然目前這個項目僅僅體現了眼電控制,但背後的想法非常通用,」研究人員表示, 「在本次演示中,我們使用眼球運動產生的信號來控制軟性鏡頭。原則上,我們可以擴展這個想法,並使用其他例如手部運動、心跳等生物信號來控制軟性機器人。」

小探也很希望以後不用手動去調節相機焦距,動一動眼睛就能出大片!

更多信息:https://ucsdnews.ucsd.edu/pressrelease/eye-controlled-soft-lens-paves-way-to-soft-human-machine-interfaces

耶魯大學:Juul 電子煙會產生未被列出的化學品,可能損害用戶呼吸道

耶魯大學的研究人員發現,目前流行於市面的 Juul 電子煙的多口味煙彈在化學反應中可能會產生意想不到的化學物質,並可能刺激使用者的呼吸道。

儘管 Juul 電子煙非常受歡迎,但是人們對其氣霧(vapor)的成分了解甚少。研究人員用一個電子煙機器分析了 Juul 的「CrèmeBrulée」,「Fruit Medley」和「Cool Cucumber」這幾種煙彈,並發現在一種常見的香料「香草素」與電子煙中攜帶尼古丁和香料的醇相互作用時,會形成一種叫做縮醛(Acetals )的化學物質。

「我們可以在"CrèmeBrulée』口味的煙彈以及由此產生的氣霧中檢測出這些縮醛,」該項目的主要研究者 Hanno Erythropel 表示。該研究發現,60%-70%的縮醛會從煙彈液體轉移到蒸汽中,並被用戶吸入身體。

該項目的另一位研究者,杜克大學的Sven-Eric Jordt表示,研究者沒想動會發現由香草醛形成的這麼多其他化學物質。香草醛在傳統捲煙中被禁止使用,但在電子煙沒有太多限制。但研究表明,由香草醛產生的化學物質比香草醛本身更容易刺激呼吸道。

在用於測試的 Juul 電子煙產品中,大多數縮醛是由與甘油反應產生的。研究人員還指出,在測試中發現,「Fruit Medley」這種口味總含有的薄荷醇,一種用於抵消尼古丁苦味的物質,有可能增加使用者的尼古丁攝入量。

更多信息:https://news.yale.edu/2019/07/30/juul-users-inhaling-chemicals-not-listed

加州大學伯克利分校:無人機將有望憑藉新技術飛行數日

加州大學伯克利分校的研究人員在熱光電效率方面獲得了突破,這一技術突破可能超輕型發動機可以為無人機提供數天的動力。

熱光電技術是一種以讓無人機和其他無人駕駛飛行器連續運行數天的超輕型替代動力源,在過去的15年里,利用熱光伏技術將熱量轉化為電能的效率一直停滯在23%。

最近,來自加州大學伯克利分校的一個研究小組發現,安裝在光伏電池背面的高反射鏡可以反射低能紅外光子,並重新加熱熱源——這將為高能光子提供再次獲得電力的機會。這項突破性的發現使研究人員能夠將熱光伏技術的效率提高到29%。

根據伯克利實驗室材料科學部高級教員科學家、加州大學伯克利分校電子工程和計算機科學教授 Yablonovitch 的說法,目前的研究建立在他和學生2011年發表的工作基礎之上。當時的研究發現「與傳統的科學智慧相反,提高太陽能電池效率的關鍵是不吸收更多的光子,而是發射更多的光子」。

研究人員現在的目標是通過應用這些新技術發現,在未來將熱光電效率提升到達到50%。

更多信息:https://newscenter.lbl.gov/2019/07/26/drones-will-fly-for-days-with-this-new-technology/

大公司

Facebook在腦移植增強現實眼鏡的研發中更進一步

經過兩年的摸索, Facebook和UCSF的研究人員近日在Nature Communications 雜誌上發表了腦機介面項目的成果,可以準確地通過捕捉來自實時的大腦信號來解讀佩戴設備的人聽到和說出的對話。此成果是向神經植入領域邁出的重要一步,可用於恢復因中風,脊髓損傷或其他疾病而失去說話能力的患者的自然交流

UCSF通過從大腦的兩個不同部分解碼兩種信息,將其用作上下文,來提高精度。他們使用電極植入三名接受癲癇治療的患者的大腦中。志願者聽取了一組預先錄製的問題並大聲說出了他們的反應。UCSF團隊記錄下他們的大腦活動,並將這些數據用來訓練機器學習演算法。之後,當研究參與者被要求再次回答問題時,演算法僅使用大腦活動來首先確定志願者是在聽還是說,然後嘗試解碼語言。

然而,Facebook對生成增強現實眼鏡比生物醫學設備更感興趣。前日,埃隆馬斯克的大腦增強公司Neuralink宣布正在開發一種由3,000個柔性電極組成的植入式陣列,以增強大腦功能。而Facebook打算製造使用紅外線從外部聽大腦信號的AR眼鏡。Facebook Reality Lab的負責人表示, 該計劃暫時沒有產品化的目標,尚在早期研究階段。

IBM的HEIDI: 人類和機器可以共同合作攻克法律術語

在計算語言學協會第57屆年會(ACL 2019)上,IBM展示了「HEIDL:Learning Linguistic Expressions with Deep Learning and Human-in-the-Loop」,這種新的模式使人們更輕鬆,更快捷審閱由人類標記數據訓練的深度學習模型產生的自然語言標籤的有效性。

IBM Research AI和密歇根大學之間的這種合作探索了human-in-the-loop模式的替代方案,例如主動學習,將專業人士帶入循環兩次:首先由IBM律師在近150份合同中梳理了20,000個句子,以注釋與終止,通信和支付等關鍵條款相關的短語。利用這些數據在新的human-in-the-loop原型里訓練一個自然語言處理模型提取條款。

HEIDL通過精確程度(precision)和回顧(recall)對機器生成的語言表達進行排名。精確度是指在合同中正確識別相關條款的程度。而回顧用來衡量在提取相關條款時的有效性。換句話說,更精確的表達可以減少錯誤,並且可以更好地回顧更多條款。HEIDL用戶可以通過設置最小精度和回顧閾值來限制可接受語句的集合,然後可以立即觀察到這些變更的影響。

英偉達使用AI增強技術重現登月體驗

在本周洛杉磯的SIGGRAPH 2019會議上,為了慶祝阿波羅11號登月50周年,英偉達推出了一款由RTX驅動的互動演示,讓與會者一起登月飛行。參觀英偉達展台的參觀者將立即認出一個真實重現的登月場景:一名宇航員站在阿波羅11號著陸器旁邊。但是,走得更近,他們會注意到宇航員開始移動 - 而且它正在複製他們的確切動作。

英偉達在展位中設置了一個攝像頭,以捕捉人的姿勢,並將他們的動作與3D呈現的宇航員相匹配。使用由NVIDIA Research設計的姿勢估計技術,互動式演示不需要任何特殊的套裝,多個攝像頭或深度感測器 - 它只需要一個願意參與者和一個現成的網路攝像頭。

通過實時光線跟蹤來呈現每個細節,結合開放式協作平台Omniverse,英偉達簡化了2D和3D產品流水線,從單個2D視頻源重建3D人體運動和位置。利用姿態估計技術,RTX GPU中的Tensor Core可加快AI推理,從而了解人的運動。然後將該信息翻譯並發送到Omniverse渲染器,以使精確的移動與3D宇航員相匹配。射出真實的3D圖像讓參會者模擬一名宇航員,探索真實的月球景觀。

小探也很想去體驗一把登月的感覺呢!

更多信息:https://blogs.nvidia.com/blog/2019/07/30/nvidia-rtx-apollo-11-demo/

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 矽谷密探 的精彩文章:

招人啦!矽谷洞察誠招資深科技編輯/記者
研究人員教人工智慧連接視覺和觸覺等感官 | 矽谷洞察

TAG:矽谷密探 |