當前位置:
首頁 > 最新 > 時下產品經理入行AI的技術分解

時下產品經理入行AI的技術分解

時下產品經理入行AI的技術分解

隨著大數據的累積,AI迅猛發展,希望了解AI的人,期待從事AI產品經理工作的人也越來越多,但是擺在希望從事AI產品經理工作的人面前的第一件事是AI的技術範圍?時下有哪些落地的AI技術?各自的優缺點是什麼?產品經理視角應該知道的技術和切入的角度?本篇重點解答以上問題。

一、產品經理對AI技術理解

AI的發展已有近七十年的歷史,AI在技術實現上可歸類為六種途徑,即符號主義、連接主義、學習主義、行為主義、進化主義和群體主義。六種途徑並非涇渭分明,它們只是從不同的角度提出了解決方案,如學習主義就用到了人工神經網路來實現。產品經理理解的AI應該是廣義範疇。

目前今日頭條估值高達350億美金,今日頭條系產品的快速發展主要特徵是對AI和機器學習的應用。

時下流行的機器學習以及深度學習演算法實際上是符號主義、連接主義以及行為主義理論的進一步拓展。

對於機器學習的理解,筆者認為產品經理可以從三個問題入手,即機器學什麼、機器怎麼學、機器做什麼。

首先,機器學習需要學習的內容是能夠表徵此項任務的函數,即能夠實現人們需要的輸入和輸出的映射關係,從資訊理論的角度來看,其學習的目標是確定兩個狀態空間內所有可能取值之間的關係,使得熵儘可能最低。熵越低信息越有序。

其次,機器怎麼學。要實現學習目標,就要教給機器一套評判的方法,而不同於告訴機器每個具體步驟如何操作的傳統方法,這需要對機器描述過程演進為對機器描述結果。從數學角度來看,就是為機器定義一個合適的損失函數,能夠合理量化真實結果和訓練結果的誤差,並將之反饋給機器繼續作迭代訓練。

最後,機器學習究竟要做什麼,其實主要做三件事,即分類(Classification)、回歸(Regression)和聚類(Clustering),其中分類和回歸屬於監督學習的範疇,而聚類則屬於非監督學習的範疇。目前多數人工智慧落地應用的背後,都是通過對現實問題抽象成相應的數學模型,分解為這三類基本任務的有機組合,並對其進行建模求解的過程。

機器學習的產品過程演示:

二、時下AI熱點演算法分類

這裡,我們首先討論當前的三大最常見的機器學習任務及其常用演算法。

首先是回歸。回歸是一種用於連續型數值變數預測和建模的監督學習演算法;回歸任務的特徵是具有數值型目標變數的標註數據集。

回歸演算法有很多種,其中最為常用的演算法主要有四種:

第一是(正則化)線性回歸,它最簡的形式是用一個連續的超平面來擬合數據集;

第二是回歸樹(集成方法),該方法又稱為決策樹,通過將數據集重複分割成不同的分支來最大化每次分離的信息增益,從而讓回歸樹很自然地學到非線性關係,集成方法包括隨機森林(RF)或梯度提升樹(GBM);除此之外,還有最鄰近演算法和深度學習。

第二是分類。分類演算法用於分類變數建模及預測的監督學習演算法,許多回歸演算法都有其對應的分類形式,分類演算法往往適用於類別(或其可能性)的預測,而非數值。

其中最為常用的演算法主要有五種。

1)(正則化)邏輯回歸。邏輯回歸通過邏輯函數將預測映射到到1的區間,因此預測值可被視為某一類別的概率。

2)分類樹(集成方法)。對應於回歸樹的分類演算法是分類樹。通常,它們都是指決策樹,更為嚴謹的說法是「分類回歸樹」,也就是非常有名的CART演算法。

3)支持向量機。支持向量機使用一個名為核函數的技巧,來將非線性問題變換為線性問題,其本質是計算兩個觀測數據的距離。支持向量機演算法所尋找的是能夠最大化樣本間隔的決策邊界,因此又被稱為大間距分類器。

4)樸素貝葉斯。基於條件概率和計數的簡單演算法,其本質是一個概率表,通過訓練數據來更新其中的概率。它預測新觀察值的過程,就是根據樣本的特徵值在概率表中來尋找最為可能的類別。被稱為「樸素」的原因是其核心的特徵條件獨立性假設(例如,每一項輸入特徵都相互獨立)在現實中幾乎是不成立的。

5)深度學習方法。

第三是聚類。聚類演算法基於數據內部結構來尋找樣本自然族群(集群)的無監督學習任務,使用案例包括用戶畫像、電商物品聚類、社交網路分析等。

用戶電商物品需求聚類分析圖:

其中最為常用的演算法主要有五種。

1)K均值。基於樣本點間的幾何距離來度量聚類的通用目的演算法。由於集群圍繞在聚類中心,結果會接近於球狀並具有相似的大小。

2)仿射傳播。基於兩個樣本點之間的圖形距離來確定集群,其結果傾向於更小且大小不等的集群。

3)分層/層次。主要完成層次聚類的目標。

4)DBSCAN。基於密度的聚類演算法,它將樣本點的密集區域組成集群;其最新進展是HDBSCAN,它允許集群的密度可變。

在機器學習領域內,兩個最為重要的概念是維度及特徵選取。其中「維(Dimensionality)」通常指數據集中的特徵數量(即輸入變數的個數)。而特徵選取是從你的數據集中過濾掉不相關或冗餘的特徵。特徵選取(Feature Selection)。

主要包括四種方法。

1)方差閾值。摒棄掉觀測樣本那些觀測值改變較小的特徵(即,它們的方差小於某個設定的閾值)。這樣的特徵價值極小。

2)相關性閾值。去掉那些高度相關的特徵(這

些特徵的特徵值變化與其他特徵非常相似),它們提供的是冗餘信息。

3)遺傳演算法。可用於不同任務的一大類演算法的統稱。它們受進化生物學與自然選擇的啟發,結合變異與交叉,在解空間內進行高效的遍歷搜索。

4)逐步搜索。逐步搜索是一個基於序列式搜索的監督式特徵選取演算法。它有兩種形式:前向搜索和反向搜索。

特徵取與特徵提取不同,其關在於:特徵取是從原特徵集中取一個子特徵集,而特徵提取是在原特徵集的基上重新構造出一些(一個或多個)全新的特徵。

特徵提取(Feature Extraction)主要用來創造一個新的、較小的特徵集,但仍能保留絕大部分有用的信息,主要包括三種方法。

1)主成分分析。非監督式演算法,它用來創造原始特徵的線性組合。新創造出來的特徵他們之間都是正交的,也就是沒有關聯性。具體來說,這些新特徵是按它們本身變化程度的大小來進行排列的。第一個主成分代表了你的數據集中變化最為劇烈的特徵,第二個主成分代表了變化程度排在第二位的特徵,以此類推。

2)線性判別分析。監督式學習方式,它必須使用有標記的數據集。

3)自編碼機。人工神經網路,它是用來重新構建原始輸入的。關鍵是在隱含層搭建比輸入層和輸出層更少數量的神經元。這樣,隱含層就會不斷學習如何用更少的特徵來表徵原始圖像。機器學習還包括密度估計(Density Estimation)和異常檢測(Abnormal Detection)的任務,在此略過。總的來說歸類機器學習演算法一向都非常棘手,由於其背後實現原理、數學原理等存在差異,其分類標準存在多個維度,而常見的分類標準主要包括:生成/判別、參數/非參數、監督/非監督等。

三、深度學習大熱的背後力量

筆者認為,時下深度學習大熱,是因為DL(DeepLearning)在機器學習演算法中主要有以下三點。

(第一),深度學習與傳統產品之間的區別。

傳統產品在語音識別、物體識別方面無法有效展開應用,其重要原因之一就是這類演算法無法使用語音及圖像的高維度數據(High-dimensional Data)在高維空間學習複雜的函數,這類高維空間通常也意味著對算力的極大消耗,即使算力極為豐富的現階段也無法有效滿足其算力需求;因此,深度學習方法應運而生。傳統產品演算法所面臨的問題被稱作維度詛咒(Curse of Dimensionality),高維度數據的參數設置需求隨著變數的增加呈指數型增長,對計算能力提出了極大挑戰,近乎無法完成。而深度學習採用多層調參,層層收斂的方式,將參數數量始終控制在一個較為合理的水平,使得原本不可計算的模型可運算了,其理解如圖所示:

(第二),深度神經網路具有完備性。從理論上來說,深度神經網路可以表徵任何函數,因此深度神經網路可以通過不同的參數及網路結構對任意函數進行擬合,排除了其無法學習到複雜函數的可能性。

(第三),深度學習的特徵選取完備。深度學習具有自動學習特徵的能力,這也是深度學習又叫無監督特徵學習(Unsupervised Feature Learning)的原因。從深度學習模型中選擇某一神經層的特徵後就可以用來進行最終目標模型的訓練,而不需要人為參與特徵選取。

四、產品經理應該了解的深度學習演算法應用

首先:演算法

AI演算法從專家系統至特徵工程到深度學習這個過程中,人工參與在逐漸減少,而機器工作在逐漸增加,深度學習演算法主要包括兩個方面。

一是卷積神經網路(Convolutional Neural Network,CNN)。卷積神經網路是近年發展起來,並引起廣泛重視的一種高效識別方法。時下CNN已經成為眾多科學領域的研究熱點之一,K.Fukushima在1980年提出的新識別機是卷積神經網路的第一個實現網路。隨後,具有代表性的研究成果是Alexander和Taylor提出的「改進認知機」,該方法綜合了各種改進方法的優點並避免了耗時的誤差反向傳播。

一般CNN的基本結構包括兩層。

1)特徵提取層。每個神經元的輸入與前一層的局部接受域相連,並提取該局部的特徵。一旦該局部特徵被提取後,它與其它特徵間的位置關係也隨之確定下來。

2)特徵映射層。網路的每個計算層由多個特徵映射組成,每個特徵映射是一個平面,平面上所有神經元的權值相等。特徵映射結構採用sigmoid函數作為卷積網路的激活函數,使得特徵映射具有位移不變性。此外,由於一個映射面上的神經元共享權值,因而減少了網路自由參數的個數。卷積神經網路中的每一個卷積層都緊跟著一個用來求局部平均與二次提取的計算層,這種特有的兩次特徵提取結構減小了特徵解析度。

CNN主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。由於CNN的特徵檢測層通過訓練數據進行學習,所以在使用CNN時,避免了顯示的特徵抽取,而隱式地從訓練數據中進行學習;再者由於同一特徵映射面上的神經元權值相同,所以網路可以並行學習,這也是卷積網路相對於神經元彼此相連網路的一大優勢。卷積神經網路以其局部權值共享的特殊結構在語音識別和圖像處理方面有著獨特的優越性,其布局更接近於實際的生物神經網路,權值共享降低了網路的複雜性,特別是多維輸入向量的圖像可以直接輸入網路這一特點避免了特徵提取和分類過程中數據重建的複雜度。

二是遞歸神經網路(Recurrent Neural Network, RNN)。在實際應用中,我們會遇到很多的多序列形數據,如自然語言處理問題中的單詞、語音處理中每幀的聲音信號、每天股票價格的時間序列數據等。

以某自然語言處理公司產品為例:

為了建模序列問題,RNN引入了隱狀h(hidden state)的概念。一個RNN網路中可以存在一個或多個隱狀態,計算時每一步使用的參數都是一樣的,即每個步驟的參數都是共享的,這是RNN的重要特點之一。同時需要注意的是,RNN網路的輸入和輸出序列必須是等長的。由於這個限制的存在,經典RNN的試用範圍比較小,但也有一些問題適合經典的RNN結構建模,如計算視頻中每一幀的分類標籤。因為要對每一幀進行機選,一次輸入和輸出序列等長;又如輸入為字元,輸出為下一個字元的概率,著名的用於生成文章、詩歌甚至是代碼的Char RNN(The Unreasonable Effectivenessof Recurrent Neural Networks)就是一個很好的例子。

當我們要處理的問題輸入是一個序列,輸出是一個單獨的值而不是序列的時候,需要對RNN網路中最後一個h進行輸出變化即可完成。這種結構通常用來處理序列分類問題。如輸入一段文字判別它所屬的類別,輸入一個句子判斷其情感傾向,輸入一段視頻並判斷它的類別等等。對於輸入不是序列而輸出為序列的情況,只需要在序列開始時進行輸入計算或把輸入信息作為每個階段的輸入即可。這種網路結構可以處理的問題包括兩方面,一是從圖像生成文字,此時輸入的是圖像的特徵,而輸出的序列是一段句子,二是從類別生成語音或音樂等。

RNN最重要的一個變種是N輸入M輸出,這種結構又叫做Encoder-Decoder模型,也可稱之為Seq2Seq模型。實際生產生活中我們遇到的大部分問題序列都是不等長的,如機器翻譯中源語言和目標語言中的句子往往沒有相同的長度。為此Encoder-Decoder結構會先將輸入數據編碼成一個上下文向量C,得到C的方式有多種,最簡單的方法就是把Encoder的最後一個隱狀態賦值給C,還可以對最後的隱狀態做一個變換得到C,也可以對所有的隱狀態做變換。在得到C後,就用另一個RNN網路對其解碼,這部分RNN網路被稱為Decoder。具體做法就是將C當做之前的初始狀態輸入到Decoder網路中。

由於這種Encoder-Decoder結構不限制輸入和輸出的序列長度,因此應用範圍廣泛,常見應用包括:

1)機器翻譯,Encoder-Decoder的最經典應用是在機器翻譯領域最先提出的;

2)文本摘要,輸入是一段文本序列,輸出是這段文本序列的摘要序列;

3)閱讀理解,將輸入的文章和問題分別編碼,再對其進行解碼得到問題的答案;

4)語音識別,輸入是語音信號序列,輸出是文字序列。在Encoder-Decoder結構中,Encoder把所有的輸入序列都編碼成一個統一的語義特徵C再解碼,因此,C中必須包含原始序列中的所有信息,它的長度就成了限制模型性能的瓶頸。如機器翻譯問題,當需要翻譯的句子較長時,一個C可能存不下那麼多信息,就會造成翻譯精度的下降。而Attention機制通過在每個時間輸入不同的C來解決這個問題,每一個C會自動去選取與當前所要輸出的結果最合適的上下文信息。

其次,深度學習(DL)有其不足之處

以上從一名入行AI產品經理的視角簡要介紹了深度學習CNN及RNN兩類網路的基本原理及應用場景,雖然其在多種識別、感知任務中表現優異,但筆者實踐中發現DL也存在著以下三方面的不足。

1)數據基礎問題。我們在實際生產生活中所收集到的數據往往都是小數據,而不是大數據。比如說,我們手機上的個人數據,在教育、醫療、基因的檢測與實驗、學生測驗、客服問答上的數據,都是小數據。所以只有實現從大數據向小數據遷移的通用模型,才能真正幫助更多的領域用上人工智慧,這是人工智慧的普及性問題,但基於大數據迭代的深度學習模型無法勝任小數據場景業務。

例如:當筆者在給AI+領域做AI賦能產品諮詢設計的時候,搭建的Call out機器人構建完Fintech領域,這個架構的知識庫到互聯網教育領域需要重新搭建。

2)模型可靠性問題。深度學習模型非常脆弱,稍加移動、離開現有的場景數據,它的效果就會降低;因此深度學習模型的可靠性是一個重要問題。對機器學習來說,由於訓練數據和實際應用數據存在區別,訓練出來的模型被用於處理它沒有見過的數據時,效果就會大打折扣。而緩解這一問題的辦法,正是遷移學習,它能把可靠性提升一個台階。

3)應用上的問題,特別是機器學習模型在應用個性化方面的問題。比如在手機上,在推薦信息、服務的時候,它要適用於個人的行為。因為任何個人的數據都是小數據,個性化的問題就是如何把雲端的通用模型適配到終端的小數據上,讓它也能工作。這就是遷移學習比較適合的事情,幫助機器學習從雲端往移動端遷移。

例如:Siri是一款雲端通用型軟體機器人,但是Siri並不能完全基於筆者本人的工作、生活提供工作生活的個性化建議,這裡需要解決的問題是如何把雲端大數據情況下的場景切換到個性化的本地落地產品。

五、AI技術產品經理落地的角度

AI領域的機器學習、深度學習技術是一個無線逼近的極限。產品經理時下了解AI技術以後,一個關鍵責任是落地產品,時下切入AI產品的重點角度是如何在AI技術本身隨著演算法完善、數據豐富、算力增長進行中交付符合用戶心理預期的產品。

這裡不僅僅是AI技術問題,更是產品經理捕捉人性的能力。

產品經理入行AI產品經理,需要提升自己的兩個能力,一個是對AI技術的認知能力,一個是捕捉人性甄別需求的能力。認知技術能力決定產品經理能不能利用技術的無線逼近,判斷需求能力決定產品經理能否在時下的AI技術水平下交互符合用戶人性的產品。

這種能力需要我們持續學習,畢竟一款產品的成功是一家企業成功的代表!

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 LineLian 的精彩文章:

TAG:LineLian |