當前位置:
首頁 > 科技 > 評估會話AI解決方案時需要考慮的9個關鍵問題

評估會話AI解決方案時需要考慮的9個關鍵問題

原創不易 請隨手點擊關注

本文由Rehoo團隊Tin原創,無授權禁轉!(圖片來自網路)

人工智慧(AI)和機器學習(ML)是這個時代討論的最具代表性的話題。它在今天的科學家中引起了很大的爭議,它們對人類的益處怎麼強調都不過分。我們需要關注並了解圍繞AI和ML的潛在威脅。

誰能想像有一天機器的智能會超過人類的智慧,未來學家稱之為奇點的時刻,一位著名的科學家(人工智慧的先驅),阿蘭圖靈1950年提出,機器可以像孩子一樣教。圖靈還在他最常讀的題為「 計算機器和智能 」的論文中探討了這個問題及其他問題的答案。

1955年,John McCarthy發明了一種名為「人工智慧」的編程語言LISP。幾年後,研究人員和科學家們開始使用計算機進行編碼,識別圖像,翻譯語言等。甚至早在1955年,人們就希望他們有一天會讓電腦說話和思考。

像Hans Moravec(機器人專家),Vernor Vinge(科幻作家)和Ray Kurzweil這樣的偉大研究人員正在廣泛地思考。這些人正在考慮什麼時候機器能夠設計出單獨實現目標的方法。

像斯蒂芬霍金這樣的偉人警告說,當人們無法與先進的人工智慧競爭時,「它可能意味著人類的終結。」我會說,我們不應該做的事情之一是在建設上全力推進超級智能而不考慮潛在的風險。加州大學伯克利分校計算機科學教授Stuart J. Russell說,這感覺有點愚蠢。

以下是實施ML和AI的五種可能的危險以及如何解決它:

1.機器學習(ML)模型可能存在偏見,因為它具有人性。

像機器學習和人工智慧技術一樣有前途,它的模型也容易受到意想不到的偏見。是的,有些人認為ML模型在決策方面是公正的。他們沒有錯,但他們碰巧忘記了人類正在教這些機器,而且從本質上說並不完美。

此外,ML模型在處理數據時也會對決策產生偏見。你知道那些感覺有偏見的數據(不完整的數據),直到自學機器人。機器會導致危險的結果嗎?

比如說,你經營一家批發商店,你想要建立一個能夠理解你的顧客的模型。因此,您構建的模型不太可能違背區分商品的購買力。您還希望使用模型的結果在年底獎勵您的客戶。因此,您收集客戶購買記錄,具有良好信用評分的歷史,然後開發模型。

如果您最信任的買家的配額碰巧與銀行發生債務,他們無法按時找到自己的立足點,當然,他們的購買力將直線下降;那麼,你的模型會發生什麼?當然,它無法預測客戶違約的意外率。從技術上講,如果您決定在年底使用其輸出結果,那麼您將使用有偏見的數據。

注意:在機器學習和數據偏見方面,數據是一個易受影響的元素,聘請專家為您精心管理這些數據。另請注意,除了您之外沒有人在尋找這些數據。 這些專家應該隨時質疑數據積累過程中存在的任何概念; 由於這是一個微妙的過程,他們也應該願意積極尋找這些偏見如何在數據中表現出來的方式。但是看看你創建了什麼類型的數據和記錄。

2.修復模型模式。

在認知技術中,這是開發模型時不應忽視的風險之一。不幸的是,大多數開發的模型,特別是那些為投資策略設計的模型,都是這種風險的受害者。

想像一下,花幾個月的時間為您的投資開發模型。經過多次試驗後,您仍然可以獲得「準確的輸出」。當您使用「真實世界輸入」(數據)嘗試模型時,它會給您帶來毫無價值的結果。

為什麼會這樣?這是因為該模型缺乏可變性。此模型使用一組特定數據構建。它只能與設計數據完美匹配。出於這個原因,安全意識的AI和ML開發人員應該學會在將來開發任何演算法模型時管理這種風險。通過輸入他們可以找到的所有形式的數據可變性,例如,演示圖形數據集,然而,這不是所有數據。

3.對輸出數據的錯誤解釋可能是一個障礙。

對數據輸出的錯誤解釋是機器學習未來可能面臨的另一個風險。想像一下,在您努力工作以獲得良好數據之後,您就可以正確地開發一台機器了。您決定與另一方分享您的輸出結果,也許是您的老闆進行審核。

在所有事情之後,你的老闆的解釋甚至不是你自己的看法。他有一個不同的思維過程,因此與你的偏見不同。你覺得你為成功付出的努力是多麼糟糕。這種情況一直在發生。這就是為什麼每個數據科學家不僅在構建建模時有用,而且在理解和正確解釋任何設計模型的輸出結果的「每一點」時也是如此。

在機器學習中,沒有錯誤和假設的餘地,它必須儘可能完美。如果我們不考慮每個角度和可能性,我們就會冒這種技術危害人類的風險。注意:錯誤解釋從機器發布的任何信息可能會給公司帶來厄運。因此,數據科學家,研究人員和參與者不應該對這方面一無所知。他們開發機器學習模型的意圖應該是積極的,而不是反過來。

AI和ML仍未被科學完全理解。

實際上,許多科學家仍在試圖了解AI和ML的全部內容。雖然兩者仍在新興市場中佔據一席之地,但許多研究人員和數據科學家仍在挖掘更多信息。由於對AI和ML的這種不確定的理解,許多人仍然害怕,因為他們認為仍有一些未知的風險尚未知曉。即便像谷歌,微軟這樣的大型科技公司仍然不夠完美。

Tay Ai是一款人工智慧ChatterBot,於2016年3月23日由微軟公司發布。它是通過Twitter發布的,與Twitter用戶互動,但不幸的是,它被認為是種族主義者。它在24小時內關閉。

Facebook還發現他們的聊天機器人偏離了原始腳本,並開始用自己創建的新語言進行通信。有趣的是,人類無法理解這種新創造的語言。很奇怪對嗎?仍未修復。

注意:為了解決這種「存在威脅」,科學家和研究人員需要了解AI和ML是什麼。此外,他們還必須在正式向公眾發布之前測試,測試和測試機器運行模式的有效性。

機器永遠存在,這是另一個不容忽視的潛在危險。AI和ML機器人不能像人類一樣死亡。他們是不朽的。一旦他們接受了一些任務的培訓,他們就會繼續執行,而且往往沒有監督。

如果沒有充分管理或監控人工智慧和機器學習屬性 ,它們可以發展成為獨立的殺手機器。當然,這項技術可能對軍隊有利,但如果機器人無法區分敵人和無辜的公民,無辜的公民會怎樣呢?

這種機器模型他們了解我們的恐懼,厭惡和喜歡,並可以使用這些數據來對付我們。注意:AI創建者必須準備好承擔全部責任,確保在設計任何演算法模型時考慮到這種風險。

結論:

機器學習無疑是世界上最具技術能力的能力之一,具有很高的實際商業價值 - 特別是在與大數據技術合併時。

它看起來很有希望,我們不應忽視這樣一個事實,即它需要仔細規劃以適當地避免上述潛在的威脅:數據偏差,固定的模型模式,錯誤的解釋,不確定性。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 Rehoo科技 的精彩文章:

以人為本 數字化零售轉型的黃金法則
提供卓越的客戶客服體驗 人工智慧機器人與實時客服是完美搭檔

TAG:Rehoo科技 |