當前位置:
首頁 > 科技 > 你是合格的機器學習數據科學家嗎?來挑戰這40題吧!

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!

編者按:


現在公眾號有置頂功能了,大家把微信更新到最新版本,點開「大數據實驗室」公眾號。點「置頂公眾號」鍵,就可以置頂了,這樣。不管我們什麼時候更新,您都能容易找到。


選自 Analytics Vidhya


作者:ANKIT GUPTA


機器之心編譯

參與:機器之心編輯部


目前機器學習是最搶手的技能之一。如果你是一名數據科學家,那就需要對機器學習很擅長,而不只是三腳貓的功夫。作為 DataFest 2017 的一部分,Analytics Vidhya 組織了不同的技能測試,從而數據科學家可以就這些關鍵技能進行自我評估。測試包括機器學習、深度學習、時序問題以及概率。這篇文章將給出機器學習測試問題的解答。你可以通過鏈接獲得其他測試問題及解答。


深度學習:https://www.analyticsvidhya.com/blog/2017/04/40-questions-test-data-scientist-deep-learning/


時序問題:https://www.analyticsvidhya.com/blog/2017/04/40-questions-on-time-series-solution-skillpower-time-series-datafest-2017/


概率:https://www.analyticsvidhya.com/blog/2017/04/40-questions-on-probability-for-all-aspiring-data-scientists/


在本文的機器學習測試中,超過 1350 人註冊參與其中。該測試可以檢驗你對機器學習概念知識的掌握,並為你步入業界做準備。如果錯過了實時測試,沒有關係,你可以回顧本文以自我提升。機器之心對這些試題及解答進行了編譯介紹。你能答對多少題呢?不妨與我們分享。


整體分數分布


下面給出了測試得分的分布,希望能幫助你了解一下自己的水平。成績單也可以看這裡:https://datahack.analyticsvidhya.com/contest/skillpower-machine-learning/lb

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!


目前已有 210 人參與了這些試題的測試,最高分為 36。平均得分為 19.36,中位數為 21,最常出現的得分(Mode Score)為 27。


測試題與解答


假定特徵 F1 可以取特定值:A、B、C、D、E 和 F,其代表著學生在大學所獲得的評分。現在請答題:


1. 在下面說法中哪一項是正確的?


A. 特徵 F1 是名義變數(nominal variable)的一個實例。


B. 特徵 F1 是有序變數(ordinal variable)的一個實例。


C. 該特徵並不屬於以上的分類。


D. 以上說法都正確。


答案為(B):有序變數是一種在類別上有某些順序的變數。例如,等級 A 就要比等級 B 所代表的成績好一些。


2. 下面哪個選項中哪一項屬於確定性演算法?

A.PCA


B.K-Means


C. 以上都不是


答案為(A):確定性演算法表明在不同運行中,演算法輸出並不會改變。如果我們再一次運行演算法,PCA 會得出相同的結果,而 k-means 不會。


3. 兩個變數的 Pearson 相關性係數為零,但這兩個變數的值同樣可以相關。


A. 正確


B. 錯誤


答案為(A):Y=X2,請注意他們不僅僅相關聯,同時一個還是另一個的函數。儘管如此,他們的相關性係數還是為 0,因為這兩個變數的關聯是正交的,而相關性係數就是檢測這種關聯。詳情查看:https://en.wikipedia.org/wiki/Anscombe s_quartet


4. 下面哪一項對梯度下降(GD)和隨機梯度下降(SGD)的描述是正確的?


在 GD 和 SGD 中,每一次迭代中都是更新一組參數以最小化損失函數。

在 SGD 中,每一次迭代都需要遍歷訓練集中的所有樣本以更新一次參數。


在 GD 中,每一次迭代需要使用整個訓練集或子訓練集的數據更新一個參數。


A. 只有 1


B. 只有 2


C. 只有 3


D.1 和 2


E.2 和 3


F. 都正確


答案為(A):在隨機梯度下降中,每一次迭代選擇的批量是由數據集中的隨機樣本所組成,但在梯度下降,每一次迭代需要使用整個訓練數據集。


5. 下面哪個/些超參數的增加可能會造成隨機森林數據過擬合?

樹的數量


樹的深度


學習速率


A. 只有 1


B. 只有 2


C. 只有 3


D.1 和 2


E.2 和 3


F. 都正確


答案為(B):通常情況下,我們增加樹的深度有可能會造成模型過擬合。學習速率在隨機森林中並不是超參數。增加樹的數量可能會造成欠擬合。

6. 假如你在「Analytics Vidhya」工作,並且想開發一個能預測文章評論次數的機器學習演算法。你的分析的特徵是基於如作者姓名、作者在 Analytics Vidhya 寫過的總文章數量等等。那麼在這樣一個演算法中,你會選擇哪一個評價度量標準?


均方誤差


精確度


F1 分數


A. 只有 1


B. 只有 2


C. 只有 3


D. 1 和 3


E. 2 和 3


F. 1 和 2

答案為(A):你可以把文章評論數看作連續型的目標變數,因此該問題可以劃分到回歸問題。因此均方誤差就可以作為損失函數的度量標準。


7. 給定以下三個圖表(從上往下依次為1,2,3). 哪一個選項對以這三個圖表的描述是正確的?

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!


你是合格的機器學習數據科學家嗎?來挑戰這40題吧!


你是合格的機器學習數據科學家嗎?來挑戰這40題吧!



A. 1 是 tanh,2 是 ReLU,3 是 SIGMOID 激活函數


B. 1 是 SIGMOID,2 是 ReLU,3 是 tanh 激活函數

C. 1 是 ReLU,2 是 tanh,3 是 SIGMOID 激活函數


D. 1 是 tanh,2 是 SIGMOID,3 是 ReLU 激活函數


答案為(D):因為 SIGMOID 函數的取值範圍是 [0,1],tanh 函數的取值範圍是 [-1,1],RELU 函數的取值範圍是 [0,infinity]。


8. 以下是目標變數在訓練集上的 8 個實際值 [0,0,0,1,1,1,1,1],目標變數的熵是所少?


A. -(5/8 log(5/8) + 3/8 log(3/8))


B. 5/8 log(5/8) + 3/8 log(3/8)


C. 3/8 log(5/8) + 5/8 log(3/8)


D. 5/8 log(3/8) – 3/8 log(5/8)


答案為(A):信息熵的公式為:


9. 假定你正在處理類屬特徵,並且沒有查看分類變數在測試集中的分布。現在你想將 one hot encoding(OHE)應用到類屬特徵中。那麼在訓練集中將 OHE 應用到分類變數可能要面臨的困難是什麼?

A. 分類變數所有的類別沒有全部出現在測試集中


B. 類別的頻率分布在訓練集和測試集是不同的


C. 訓練集和測試集通常會有一樣的分布


D. A 和 B 都正確


E. 以上都不正確


答案為(D):A、B 項都正確,如果類別在測試集中出現,但沒有在訓練集中出現,OHE 將會不能進行編碼類別,這將是應用 OHE 的主要困難。選項 B 同樣也是正確的,在應用 OHE 時,如果訓練集和測試集的頻率分布不相同,我們需要多加小心。


10.Skip gram 模型是在 Word2vec 演算法中為詞嵌入而設計的最優模型。以下哪一項描繪了 Skip gram 模型?

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!



A. A


B. B


C. A 和 B


D. 以上都不是


答案為(B):這兩個模型都是在 Word2vec 演算法中所使用的。模型 A 代表著 CBOW,模型 B 代表著 Skip gram。


11. 假定你在神經網路中的隱藏層中使用激活函數 X。在特定神經元給定任意輸入,你會得到輸出「-0.0001」。X 可能是以下哪一個激活函數?


A. ReLU


B. tanh


C. SIGMOID


D. 以上都不是


答案為(B):該激活函數可能是 tanh,因為該函數的取值範圍是 (-1,1)。


12. 對數損失度量函數可以取負值。


A. 對


B. 錯


答案為(B):對數損失函數不可能取負值。


13. 下面哪個/些對「類型 1(Type-1)」和「類型 2(Type-2)」錯誤的描述是正確的?


類型 1 通常稱之為假正類,類型 2 通常稱之為假負類。


類型 2 通常稱之為假正類,類型 1 通常稱之為假負類。


類型 1 錯誤通常在其是正確的情況下拒絕假設而出現。


A. 只有 1


B. 只有 2


C. 只有 3


D. 1 和 2


E. 1 和 3


F. 3 和 2


答案為(E):在統計學假設測試中,I 類錯誤即錯誤地拒絕了正確的假設(即假正類錯誤),II 類錯誤通常指錯誤地接受了錯誤的假設(即假負類錯誤)。


14. 下面在 NLP 項目中哪些是文本預處理的重要步驟?


詞幹提取(Stemming)


移去停止詞(Stop word removal)


目標標準化(Object Standardization)


A. 1 和 2


B. 1 和 3


C. 2 和 3


D. 1、2 和 3


答案為(D):詞幹提取是剝離後綴(「ing」,「ly」,「es」,「s」等)的基於規則的過程。停止詞是與語境不相關的詞(is/am/are)。目標標準化也是一種文本預處理的優良方法。


15. 假定你想將高維數據映射到低維數據中,那麼最出名的降維演算法是 PAC 和 t-SNE。現在你將這兩個演算法分別應用到數據「X」上,並得到數據集「X_projected_PCA」,「X_projected_tSNE」。下面哪一項對「X_projected_PCA」和「X_projected_tSNE」的描述是正確的?


A. X_projected_PCA 在最近鄰空間能得到解釋


B. X_projected_tSNE 在最近鄰空間能得到解釋


C. 兩個都在最近鄰空間能得到解釋


D. 兩個都不能在最近鄰空間得到解釋


答案為(B):t-SNE 演算法考慮最近鄰點而減少數據維度。所以在使用 t-SNE 之後,所降的維可以在最近鄰空間得到解釋。但 PCA 不能。


16-17 題的背景:給定下面兩個特徵的三個散點圖(從左到右依次為圖 1、2、3)。

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!



16. 在上面的圖像中,哪一個是多元共線(multi-collinear)特徵?


A. 圖 1 中的特徵


B. 圖 2 中的特徵


C. 圖 3 中的特徵


D. 圖 1、2 中的特徵


E. 圖 2、3 中的特徵


F. 圖 1、3 中的特徵


答案為(D):在圖 1 中,特徵之間有高度正相關,圖 2 中特徵有高度負相關。所以這兩個圖的特徵是多元共線特徵。


17. 在先前問題中,假定你已經鑒別了多元共線特徵。那麼下一步你可能的操作是什麼?


移除兩個共線變數


不移除兩個變數,而是移除一個


移除相關變數可能會導致信息損失。為了保留這些變數,我們可以使用帶罰項的回歸模型(如 ridge 或 lasso regression)。


A. 只有 1


B. 只有 2


C. 只有 3


D. 1 或 3


E. 1 或 2


答案為(E):因為移除兩個變數會損失一切信息,所以我們只能移除一個特徵,或者也可以使用正則化演算法(如 L1 和 L2)。


18. 給線性回歸模型添加一個不重要的特徵可能會造成:


增加 R-square


減少 R-square


A. 只有 1 是對的


B. 只有 2 是對的


C. 1 或 2 是對的


D. 都不對


答案為(A):在給特徵空間添加了一個特徵後,不論特徵是重要還是不重要,R-square 通常會增加。


19. 假設給定三個變數 X,Y,Z。(X, Y)、(Y, Z) 和 (X, Z) 的 Pearson 相關性係數分別為 C1、C2 和 C3。現在 X 的所有值加 2(即 X+2),Y 的全部值減 2(即 Y-2),Z 保持不變。那麼運算之後的 (X, Y)、(Y, Z) 和 (X, Z) 相關性係數分別為 D1、D2 和 D3。現在試問 D1、D2、D3 和 C1、C2、C3 之間的關係是什麼?


A. D1= C1, D2 < C2, D3 > C3


B. D1 = C1, D2 > C2, D3 > C3


C. D1 = C1, D2 > C2, D3 < C3


D. D1 = C1, D2 < C2, D3 < C3


E. D1 = C1, D2 = C2, D3 = C3


F. 無法確定


答案為(E):特徵之間的相關性係數不會因為特徵加或減去一個數而改變。


20. 假定你現在解決一個有著非常不平衡類別的分類問題,即主要類別佔據了訓練數據的 99%。現在你的模型在測試集上表現為 99% 的準確度。那麼下面哪一項表述是正確的?


準確度並不適合于衡量不平衡類別問題


準確度適合于衡量不平衡類別問題


精確率和召回率適合于衡量不平衡類別問題


精確率和召回率不適合于衡量不平衡類別問題


A. 1 and 3


B. 1 and 4


C. 2 and 3


D. 2 and 4


答案為(A):參考問題 4 的解答。


21. 在集成學習中,模型集成了弱學習者的預測,所以這些模型的集成將比使用單個模型預測效果更好。下面哪個/些選項對集成學習模型中的弱學習者描述正確?


他們經常不會過擬合


他們通常帶有高偏差,所以其並不能解決複雜學習問題


他們通常會過擬合


A. 1 和 2


B. 1 和 3


C. 2 和 3


D. 只有 1


E. 只有 2


F. 以上都不對


答案為(A):弱學習者是問題的特定部分。所以他們通常不會過擬合,這也就意味著弱學習者通常擁有低方差和高偏差。


22. 下面哪個/些選項對 K 折交叉驗證的描述是正確的


增大 K 將導致交叉驗證結果時需要更多的時間


更大的 K 值相比於小 K 值將對交叉驗證結構有更高的信心


如果 K=N,那麼其稱為留一交叉驗證,其中 N 為驗證集中的樣本數量


A. 1 和 2


B. 2 和 3


C. 1 和 3


D. 1、2 和 3


答案為(D):大 K 值意味著對過高估計真實預期誤差(訓練的折數將更接近於整個驗證集樣本數)擁有更小的偏差和更多的運行時間(並隨著越來越接近極限情況:留一交叉驗證)。我們同樣在選擇 K 值時需要考慮 K 折準確度和方差間的均衡。


23 題至 24 題的背景:交叉驗證在機器學習超參數微調中是十分重要的步驟。假定你需要為 GBM 通過選擇 10 個不同的深度值(該值大於 2)而調整超參數「max_depth」,該樹型模型使用 5 折交叉驗證。 4 折訓練驗證演算法(模型 max_depth 為 2)的時間為 10 秒,在剩下的 1 折中預測為 2 秒。


23. 哪一項描述擁有 10 個「max_depth」不同值的 5 折交叉驗證整體執行時間是正確的?


A. 少於 100 秒


B. 100-300 秒


C. 300-600 秒


D. 大於等於 600 秒


E. 無法估計


答案為(D):因為深度為 2 的 5 折交叉驗證每一次迭代需要訓練 10 秒和測試 2 秒。因此五折驗證需要 12*5 = 60 秒,又因為我們需要搜索 10 個深度值,所以演算法需要 60*10 = 600。


24. 在先前的答案中,如果你訓練同樣的演算法調整 2 個超參數,假設是 max_depth 和 learning_rate。你想要選擇正確的值對抗 max_depth(從給定的 10 個深度值中)和學習率(從 5 個不同的學習率做選擇)。在此情況下,整體時間是下面的哪個?


A.1000-1500 秒


B.1500-3000 秒


C. 多於或等於 3000 Second


D. 都不是


答案為(D):和 23 題一樣。


25. 下表是機器學習演算法 M1 的訓練錯誤率 TE 和驗證錯誤率 VE,基於 TE 和 VE 你想要選擇一個超參數(H)。

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!



基於上表,你會選擇哪個 H 值?


A.1


B.2


C.3


D.4


E.5


答案為(D):看這個表,D 選項看起來是最好的。


26. 為了得到和 SVD 一樣的投射(projection),你需要在 PCA 中怎樣做?


A. 將數據轉換成零均值


B. 將數據轉換成零中位數


C. 無法做到


D. 以上方法不行


答案為(A):當數據有一個 0 均值向量時,PCA 有與 SVD 一樣的投射,否則在使用 SVD 之前,你必須將數據均值歸 0。


問題 27-28 的背景:假設存在一個黑箱演算法,其輸入為有多個觀察(t1, t2, t3,…….. tn)的訓練數據和一個新的觀察(q1)。該黑箱演算法輸出 q1 的最近鄰 ti 及其對應的類別標籤 ci。你可以將這個黑箱演算法看作是一個 1-NN(1-最近鄰)


27. 能夠僅基於該黑箱演算法而構建一個 k-NN 分類演算法?註:相對於 k 而言,n(訓練觀察的數量)非常大。


A. 可以


B. 不行


答案為(A):在第一步,你在這個黑箱演算法中傳遞一個觀察樣本 q1,使該演算法返回一個最近鄰的觀察樣本及其類別,在第二步,你在訓練數據中找出最近觀察樣本,然後再一次輸入這個觀察樣本(q1)。該黑箱演算法將再一次返回一個最近鄰的觀察樣本及其類別。你需要將這個流程重複 k 次。


28. 我們不使用 1-NN 黑箱,而是使用 j-NN(j>1) 演算法作為黑箱。為了使用 j-NN 尋找 k-NN,下面哪個選項是正確的?


A. j 必須是 k 的一個合適的因子


C. 不能辦到


答案為(C):原因和 27 題一樣


29. 有以下 7 副散點圖(從左到右分別編號為 1-7),你需要比較每個散點圖的變數之間的皮爾遜相關係數。下面正確的比較順序是?


1


1>2>3 > 4


7


7>6>5>4


A. 1 和 3


B. 2 和 3


C. 1 和 4


D. 2 和 4


30. 你可以使用不同的標準評估二元分類問題的表現,例如準確率、log-loss、F-Score。讓我們假設你使用 log-loss 函數作為評估標準。下面這些選項,哪個/些是對作為評估標準的 log-loss 的正確解釋。


如果一個分類器對不正確的分類很自信,log-loss 會嚴重的批評它。


對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然後對 log-loss 的相應分布會非常大。


3.log-loss 越低,模型越好。


A.1 和 3


B.2 和 3


C.1 和 2


D.1、2、3


答案為(D):答案無需解釋。


問題 31-32 背景:下面是數據集給出的 5 個樣本。

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!



注意:圖像中點之間的視覺距離代表實際距離。


31. 下面哪個是 3-NN(3-最近鄰)的留一法交叉驗證準確率?


A.0


B.0.4


C.0.8


D.1


答案為(C):留一法交叉驗證,我們將選擇(n-1) 觀察值作為訓練,以及驗證的 1 觀察值。把每個點作為交叉驗證點,然後找到 3 個最近鄰點。所以,如果你在每個點上重複該步驟,你會為上圖中給出的所有正類找到正確的分類,而錯誤分類負類。因此,得到 80% 的準確率。


32. 下面哪個 K 值將會有最低的差一法(leave-one-out)交叉驗證精確度?


A. 1NN


B. 3NN


C. 4NN


D. 以上所有具有相同的差一法錯誤


答案(A):在 1-NN 中,被錯誤分類的每一個點都意味著你將得到 0% 的精確度。


33. 假設你被給到以下數據,你想要在給定的兩個類別中使用 logistic 回歸模型對它進行分類。你正在使用帶有 L1 正則化的 logistic 回歸,其中 C 是正則化參數,w1 和 w2 是 x1 和 x2 的係數。當你把 C 值從 0 增加至非常大的值時,下面哪個選項是正確的?


A. 第一個 w2 成了 0,接著 w1 也成了 0


B. 第一個 w1 成了 0,接著 w2 也成了 0


C. w1 和 w2 同時成了 0


D. 即使在 C 成為大值之後,w1 和 w2 都不能成 0


答案(B):通過觀察圖像我們發現,即使只使用 x2,我們也能高效執行分類。因此一開始 w1 將成 0;當正則化參數不斷增加時,w2 也會越來越接近 0。


34. 假設我們有一個數據集,在一個深度為 6 的決策樹的幫助下,它可以使用 100% 的精確度被訓練。現在考慮一下兩點,並基於這兩點選擇正確的選項。


注意:所有其他超參數是相同的,所有其他因子不受影響。


深度為 4 時將有高偏差和低方差


深度為 4 時將有低偏差和低方差


A. 只有 1


B. 只有 2


C. 1 和 2


D. 沒有一個


答案(A):如果在這樣的數據中你擬合深度為 4 的決策樹,這意味著其更有可能與數據欠擬合。因此,在欠擬合的情況下,你將獲得高偏差和低方差。


35. 在 k-均值演算法中,以下哪個選項可用於獲得全局最小?


嘗試為不同的質心(centroid)初始化運行演算法


調整迭代的次數


找到集群的最佳數量


A. 2 和 3


B. 1 和 3


C. 1 和 2


D. 以上所有


答案(D):所有都可以用來調試以找到全局最小。


36. 假設你正在做一個項目,它是一個二元分類問題。你在數據集上訓練一個模型,並在驗證數據集上得到混淆矩陣。基於上述混淆矩陣,下面哪個選項會給你正確的預測。


精確度是~0.91


錯誤分類率是~0.91


假正率(False correct classification)是~0.95


真正率(True positive rate)是~0.95


A. 1 和 3


B. 2 和 4


C. 1 和 4


D. 2 和 3


答案(C):精確度(正確分類)是 (50+100)/165,約等於 0.91。真正率是你正確預測正分類的次數,因此真正率將是 100/105 = 0.95,也被稱作敏感度或召回。


37. 對於下面的超參數來說,更高的值對於決策樹演算法更好嗎?


用於拆分的樣本量


樹深


樹葉樣本


A. 1 和 2


B. 2 和 3


C. 1 和 3


D. 1、2 和 3


E. 無法分辨


答案(E):對於選項 A、B、C 來說,如果你增加參數的值,性能並不一定會提升。例如,如果我們有一個非常高的樹深值,結果樹可能會過擬合數據,並且也不會泛化。另一方面,如果我們有一個非常低的值,結果樹也許與數據欠擬合。因此我們不能確定更高的值對於決策樹演算法就更好。


38-39 題背景 :想像一下,你有一個 28x28 的圖片,並使用輸入深度為 3 和輸出深度為 8 在上面運行一個 3x3 的卷積神經網路。注意,步幅是 1,你正在使用相同的填充(padding)。


38. 當使用給定的參數時,輸出特徵圖的尺寸是多少?


A. 28 寬、28 高、8 深


B. 13 寬、13 高、8 深


C. 28 寬、13 高、8 深


D. 13 寬、28 高、8 深


答案(A):計算輸出尺寸的公式是:輸出尺寸=(N – F)/S + 1。其中,N 是輸入尺寸,F 是過濾器尺寸,S 是步幅。閱讀這篇文章(鏈接:https://www.analyticsvidhya.com/blog/2016/04/deep-learning-computer-vision-introduction-convolution-neural-networks/)獲得更多了解。


39. 當使用以下參數時,輸出特徵圖的尺寸是多少?


A. 28 寬、28 高、8 深


B. 13 寬、13 高、8 深


C. 28 寬、13 高、8 深


D. 13 寬、28 高、8 深


答案 (B):同上


40. 假設,我們正在 SVM 演算法中為 C(懲罰參數)的不同值進行視覺化繪圖。由於某些原因,我們忘記了使用視覺化標註 C 值。這個時候,下面的哪個選項在 rbf 內核的情況下最好地解釋了下圖(1、2、3 從左到右,圖 1 的 C 值 是 C 1,圖 2 的 C 值 是 C 2,圖 3 的 C 值 是 C 3)中的 C 值。


A. C1 = C2 = C3


B. C1 > C2 > C3


C. C1 < C2 < C3


D. 沒有一個


答案 (C):錯誤項的懲罰參數 C。它也控制平滑決策邊界和訓練點正確分類之間的權衡。對於 C 的大值,優化會選擇一個較小邊距的超平面。更多內容:https://www.analyticsvidhya.com/blog/2015/10/understaing-support-vector-machine-example-code/


原文地址:https://www.analyticsvidhya.com/blog/2017/04/40-questions-test-data-scientist-machine-learning-solution-skillpower-machine-learning-datafest-2017/


金融產品設計培訓(上海 2017年5月13-14日)


銀行、證券、基金、信託、保險提供的不同類型的金融產品;


從需求到產品;從創意到產品;從策略到產品;


資金池產品(流動性管理、收益管理)


分級基金產品、槓桿ETF等等


FOF產品的結構與績效


保本基金與定向增發基金……


2017年5月13—14日 上海


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

TAG:機器學習 |

您可能感興趣

數據科學家必備的10種機器學習演算法
每一位數據科學家都應掌握的5大機器學習演算法
備好數據後,數據科學家還要做什麼?
數據科學家不可錯過的機器學習模型開發利器
假如科學家不再投稿……讓雜誌來追科學家?
腦洞|假如科學家不再投稿……讓雜誌來追科學家?
世上最有智慧的是什麼人?科學家?文學家?哲學家?NO!
科學家是怎麼把自己「玩死」的?
你玩的遊戲,被別人拿來發Nature:10萬玩家助科學家證明,愛因斯坦真的錯了
如何成為一名厲害的數據科學家?
把30000枚核彈投進黑洞,會有什麼結果?科學家這樣回答!
摩擦力從哪裡來?這個問題讓科學家愁了幾百年
吃驚!科學家為什麼說2型糖尿病是吃出來的?
科學家難當,數學還是要學好
成為搶手的數據科學家最應具備的技能?先學Python准沒錯
讓更多科學家坐下來盡情討論吧
如今的數據科學家,距離深度學習有多遠?
為什麼數據科學家需要掌握「遷移學習」?一文詳解
科學家該怎樣做科普?
科學家想這樣給人工智慧「去偏」……