當前位置:
首頁 > 最新 > 追本溯源:5種受生物啟發的人工智慧方法

追本溯源:5種受生物啟發的人工智慧方法

【導讀】1月15日,機器學習研究人員Luke James(簡介見文末)發布一篇博文,介紹了5種受到生物啟發的人工智慧方法,包括人工神經網路(人腦神經元)、遺傳演算法(DNA染色體)、集群演算法(蟻群優化和粒子群優化)、強化學習(條件反射)、人工免疫系統(生物免疫),括弧中表示受到的生物啟發,這些演算法分別屬於搜索或預測模型。作者將大自然中的啟發與流行的AI方法對應起來,從一個獨特的角度討論這五種AI演算法的內部原理,非常值得一讀。

5 Ways mother nature inspires artificial intelligence

引言

在人工智慧的世界裡,有許多東西的存在是因為它在當今技術領域中存在應用場景。人類不僅花費數十年時間研究並完善數學計算以使這些奇妙複雜的學習演算法發揮作用,而且在此期間,我們對人工智慧的研究比對自己物種的研究更深入促使下一代智能產生。 「大自然」及其所包含的一切,都將其根植於人工智慧的運作之中。

David Attenborough的野生動物紀錄片非常令人震撼。他們對地球上許多物種的行為和特性進行了詳細的研究,他們讓我們了解他們如何融入自然生態系統,並共同努力,使我們的星球蓬勃發展——使之成為地球。 我不是David Attenborough,但我仍然會帶你參加我自己的野生動物紀錄片。 這些明星生物就是那些受大自然啟發的人工智慧演算法。 但首先,我需要向您介紹兩個演算法的概念。 搜索/尋路和預測建模(Search/Pathfinding and Predictive Modelling)。

搜索演算法

搜索演算法本質上是程序,旨在找到一個目標的最佳/最短的路線。 例如,旅行推銷員問題是一個典型的搜索優化問題,您可以獲得城市和城市之間的距離列表。 在每個城市訪問一次的前提下,您必須搜索旅行推銷員的最短路線以盡量減少旅行時間和開支(並確保您最終返回原城市)。這個問題有個實際用途是送貨車。 想像一下,倫敦有100個人在網上訂購,所有的包裹都裝進一個麵包車。 快遞員必須計算最有效的路線(在距離和花費的時間之間尋找一個平衡點),以便從倉庫(最終返回倉庫)交付這些包裹,並確保公司浪費的時間和金錢最少。

預測模型演算法

今天,預測建模受到大量的炒作。全世界的數據科學家們都在舒適的辦公大樓屋頂上呼喊「神經網路」口號。像谷歌這樣的公司正試圖用這些複雜的小的「人造大腦」的不同變體來解決各種問題。 基本上預測建模使用統計數據來預測結果。 你經常聽到數據科學家試圖解決兩種預測建模問題:回歸和分類。 回歸是發現兩組變數之間相關性,分類是確定數據集屬於不同類別的概率的過程。

5種生物啟發的學習演算法

前饋神經網路——最基本的神經網路

演算法類型:預測模型

生物啟發:認知腦功能(神經元)

用例:情感分析,圖像識別/檢測,語言糾錯,機器人

我們從最常見的人工智慧(AI)演算法開始。 神經網路是機器學習的一個子類。 它們的設計模仿大腦中神經元的功能,神經元與軸突和樹突相互作用,以便通過系統傳遞信息,通過一系列「層」產生預測輸出。 每個層都提供了一個額外的數據表示層,並允許對最複雜的問題進行建模。

神經網路可能是使用最廣泛的機器學習演算法,是目前數據科學和機器學習中最熱門的領域。這一概念最初在1958年提出被稱為「感知機」,後來被Geoffrey Hinton改進,並被谷歌和Facebook等公司所推廣。神經網路可以用來解決各種各樣的問題,包括自然語言處理和視覺識別。這種有監督的學習演算法可以解決回歸和分類問題,被用於智能手機和智能家庭設備等消費產品中。

在遺傳演算法中複製個體

演算法類型:搜索/尋路

生物啟發:適者生存/進化(細胞繁殖)

用例:數據挖掘/分析,機器人,製造/設計,流程優化

為了解決搜索問題,遺傳演算法在一系列連續的迭代中採用類似進化的方法——「適者生存」。 每一代都含有一些模仿我們在DNA中看到的染色體的字元串。 人群中的每個人都代表搜索空間內的一個點,因此每個人都是可能的候選解決方案。 為了提高解決方案的數量,我們把每個人都進行一個進化的過程:

蟻群優化的例子——一種集體智能演算法。

演算法類型:搜索/尋路

生物啟發:螞蟻聚居地/魚群/鳥群

用例:機器人,視頻遊戲AI,製造,路線規劃

蟻群優化和粒子群優化是符合「集體智慧」概念的兩個最常見的演算法。 在基本層面上,所討論的演算法都使用多個工作代理。 每個工作代理都表現出非常基本的行為,集體(作為一個整體)共同工作,用更複雜,更緊急的行為來解決問題。

蟻群優化(ACO)與粒子群優化(PSO)有很大不同。 兩者都旨在實現緊急行為,但用兩種不同的方式去做。 像真實蟻群一樣,ACO利用信息素的「氣味」將個人代理引導到最短的路徑上。 最初,在問題空間中初始化一個隨機信息素。 個人代理人將開始遍歷搜索空間,隨著信息素氣味的消失而丟棄。 在每一步中,信息素將以一個確定的速率衰減。 單個代理人根據他們前方的信息素氣味的強度做出決定,以遍歷搜索空間。 氣味在特定方向越強,越有可能以這種方式行進。 最著名的解決方案最終將是信息素氣味最強的方案。

PSO看起來更多的是整體方向。 一些單個代理被初始化,他們開始方向隨機的進行初始化。 在每個時間段,每個代理都需要決定是否改變方向。 決策將基於最好的解決方案(稱為pbest / global best)的方向、最佳鄰居(當地最佳)的方向以及當前的行進方向。 行進的新方向通常是考慮所有值的一個很好的「妥協」。

增強學習環境中的代理行為

演算法類型:預測模型

生物啟發:傳統條件反射

用例:視頻遊戲,自動車輛控制,生產線軟體,金融系統

隨著心理學和經典條件反射研究的進展,強化學習(RL)支持為代理的有利行動提供積極的數值響應。 學習強化學習的概念往往比流行的經典條件反射例子更容易,如Pavlov』s Dogs。 這是一個在1890年進行的研究,俄羅斯心理學家Ivan Pavlov正在研究狗的流涎情況。 一個很好的文章可以解釋這件事(https://www.simplypsychology.org/pavlov.html)。 從本質上講,如果一個RL代理採取了一個好的行動(一個完成任務所需的步驟),它被給予數字獎勵。 代理將學習使用一個策略——如最大限度地提高每個單獨步驟的獎勵。 將原始輸入應用到演算法中,可以使代理開發自己的問題意識,以及如何以最有效的方式解決問題。

RL演算法與其他機器學習技術(如神經網路)組合是很常見的。 這通常被稱為深度強化學習。 當RL演算法作出特定的決定時,神經網路經常被用來估計給予RL代理的獎勵。 谷歌的Deep Mind在這個領域已經取得了很大的進步,採用深度Q學習方法來解決更為普遍的問題(例如一種演算法能夠發揮整個Atari遊戲庫的能力,在遊戲「Go」中能獨立擊敗世界冠軍,而無需其他幫助,他們現在正在採用這種方法來處理更複雜的遊戲,比如「星際爭霸II」。

Q學習是一種無模型的強化學習演算法。它可以用來尋找任何有限馬爾可夫決策過程的最優的動作選擇策略。在程序初始化時,每個動作的Q值對值是由開發人員定義和更新由RL演算法在每一時間步。每個動作值對應的Q值由開發者定義,並在每個時間步由RL演算法更新。 以下圖像是更新Q動作值對的等式示例。

Q學習值更新公式

人工免疫系統組件

演算法類型:預測模型

生物啟發:免疫系統

用例:安全軟體,自主導航系統,調度系統,故障檢測軟體

免疫系統是通過產生免疫應答來保護機體免受物質和病原體的系統。 人工免疫系統(AIS)是自適應系統,受理論免疫學和觀察免疫功能的啟發,並應用它解決實際問題。 AIS是生物啟發計算和自然計算的子領域,與機器學習和人工智慧相關。 有多種AIS相關的演算法:

像生物免疫系統一樣,AIS能夠將系統內的所有細胞分類為「自我」或「非自我」細胞。 一個分散式的情報工作隊被用來對所有的細胞採取行動。 參與免疫的兩種最重要的細胞類型:B細胞和T細胞(白細胞)。 T細胞有三種類型, 一種用來激活B細胞,一種是結合併破壞外來入侵者,另一種是抑制自身免疫問題。 B細胞負責產生與抗原結合的特異性蛋白質的抗體 ——毒性/外來物質。 人工免疫系統通常通過監視入侵檢測來抵禦網路攻擊,並且常常集成到企業級軟體中。與本文中提到的其他演算法不同,關於這方面的免費在線學習資料非常有限。

這裡我給出了5個受大自然激發的技術的例子。 還有更多的生物啟發式演算法會影響我們的AI系統,所以對於我遺漏的經驗和知識,您可以在評論中分享自己的見解。

作者簡介:

我是一名健身運動員和軟體工程師,對健美和機器學習充滿熱情。 我在自己的博客和網站討論這些話題,還有其他話題。 我在我的Github中提供鏈接,所以你可以在我的社交媒體帳戶(Facebook,Instagram,Twitter等),看到我正在進行的項目。

http://lukealexanderjames.com/

-END-

專 · 知

人工智慧領域主題知識資料查看獲取【專知薈萃】人工智慧領域26個主題知識資料全集(入門/進階/論文/綜述/視頻/專家等)

同時歡迎各位用戶進行專知投稿,詳情請點擊

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 專知 的精彩文章:

谷歌一個模型解決所有問題《One Model to Learn Them All》 論文深度解讀

TAG:專知 |