你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)
選自 Analytics Vidhya
作者:ANKIT GUPTA
機器之心編譯
參與:機器之心編輯部
目前機器學習是最搶手的技能之一。如果你是一名數據科學家,那就需要對機器學習很擅長,而不只是三腳貓的功夫。作為 DataFest 2017 的一部分,Analytics Vidhya 組織了不同的技能測試,從而數據科學家可以就這些關鍵技能進行自我評估。測試包括機器學習、深度學習、時序問題以及概率。這篇文章將給出機器學習測試問題的解答。你可以通過鏈接獲得其他測試問題及解答。
深度學習:https://www.analyticsvidhya.com/blog/2017/04/40-questions-test-data-scientist-deep-learning/
時序問題:https://www.analyticsvidhya.com/blog/2017/04/40-questions-on-time-series-solution-skillpower-time-series-datafest-2017/
概率:https://www.analyticsvidhya.com/blog/2017/04/40-questions-on-probability-for-all-aspiring-data-scientists/
在本文的機器學習測試中,超過 1350 人註冊參與其中。該測試可以檢驗你對機器學習概念知識的掌握,並為你步入業界做準備。如果錯過了實時測試,沒有關係,你可以回顧本文以自我提升。機器之心對這些試題及解答進行了編譯介紹。你能答對多少題呢?不妨與我們分享。
整體分數分布
下面給出了測試得分的分布,希望能幫助你了解一下自己的水平。成績單也可以看這裡:https://datahack.analyticsvidhya.com/contest/skillpower-machine-learning/lb
目前已有 210 人參與了這些試題的測試,最高分為 36。平均得分為 19.36,中位數為 21,最常出現的得分(Mode Score)為 27。
測試題與解答
假定特徵 F1 可以取特定值:A、B、C、D、E 和 F,其代表著學生在大學所獲得的評分。現在請答題:
1. 在下面說法中哪一項是正確的?
A. 特徵 F1 是名義變數(nominal variable)的一個實例。
B. 特徵 F1 是有序變數(ordinal variable)的一個實例。
C. 該特徵並不屬於以上的分類。
D. 以上說法都正確。
答案為(B):有序變數是一種在類別上有某些順序的變數。例如,等級 A 就要比等級 B 所代表的成績好一些。
2. 下面哪個選項中哪一項屬於確定性演算法?
A.PCA
B.K-Means
C. 以上都不是
答案為(A):確定性演算法表明在不同運行中,演算法輸出並不會改變。如果我們再一次運行演算法,PCA 會得出相同的結果,而 k-means 不會。
3. 兩個變數的 Pearson 相關性係數為零,但這兩個變數的值同樣可以相關。
A. 正確
B. 錯誤
答案為(A):Y=X2,請注意他們不僅僅相關聯,同時一個還是另一個的函數。儘管如此,他們的相關性係數還是為 0,因為這兩個變數的關聯是正交的,而相關性係數就是檢測這種關聯。詳情查看:https://en.wikipedia.org/wiki/Anscombe"s_quartet
4. 下面哪一項對梯度下降(GD)和隨機梯度下降(SGD)的描述是正確的?
在 GD 和 SGD 中,每一次迭代中都是更新一組參數以最小化損失函數。
在 SGD 中,每一次迭代都需要遍歷訓練集中的所有樣本以更新一次參數。
在 GD 中,每一次迭代需要使用整個訓練集或子訓練集的數據更新一個參數。
A. 只有 1
B. 只有 2
C. 只有 3
D.1 和 2
E.2 和 3
F. 都正確
答案為(A):在隨機梯度下降中,每一次迭代選擇的批量是由數據集中的隨機樣本所組成,但在梯度下降,每一次迭代需要使用整個訓練數據集。
5. 下面哪個/些超參數的增加可能會造成隨機森林數據過擬合?
樹的數量
樹的深度
學習速率
A. 只有 1
B. 只有 2
C. 只有 3
D.1 和 2
E.2 和 3
F. 都正確
答案為(B):通常情況下,我們增加樹的深度有可能會造成模型過擬合。學習速率在隨機森林中並不是超參數。增加樹的數量可能會造成欠擬合。
6. 假如你在「Analytics Vidhya」工作,並且想開發一個能預測文章評論次數的機器學習演算法。你的分析的特徵是基於如作者姓名、作者在 Analytics Vidhya 寫過的總文章數量等等。那麼在這樣一個演算法中,你會選擇哪一個評價度量標準?
均方誤差
精確度
F1 分數
A. 只有 1
B. 只有 2
C. 只有 3
D. 1 和 3
E. 2 和 3
F. 1 和 2
答案為(A):你可以把文章評論數看作連續型的目標變數,因此該問題可以劃分到回歸問題。因此均方誤差就可以作為損失函數的度量標準。
7. 給定以下三個圖表(從上往下依次為1,2,3). 哪一個選項對以這三個圖表的描述是正確的?
A. 1 是 tanh,2 是 ReLU,3 是 SIGMOID 激活函數
B. 1 是 SIGMOID,2 是 ReLU,3 是 tanh 激活函數
C. 1 是 ReLU,2 是 tanh,3 是 SIGMOID 激活函數
D. 1 是 tanh,2 是 SIGMOID,3 是 ReLU 激活函數
答案為(D):因為 SIGMOID 函數的取值範圍是 [0,1],tanh 函數的取值範圍是 [-1,1],RELU 函數的取值範圍是 [0,infinity]。
8. 以下是目標變數在訓練集上的 8 個實際值 [0,0,0,1,1,1,1,1],目標變數的熵是所少?
A. -(5/8 log(5/8) + 3/8 log(3/8))
B. 5/8 log(5/8) + 3/8 log(3/8)
C. 3/8 log(5/8) + 5/8 log(3/8)
D. 5/8 log(3/8) – 3/8 log(5/8)
答案為(A):信息熵的公式為:
9. 假定你正在處理類屬特徵,並且沒有查看分類變數在測試集中的分布。現在你想將 one hot encoding(OHE)應用到類屬特徵中。那麼在訓練集中將 OHE 應用到分類變數可能要面臨的困難是什麼?
A. 分類變數所有的類別沒有全部出現在測試集中
B. 類別的頻率分布在訓練集和測試集是不同的
C. 訓練集和測試集通常會有一樣的分布
D. A 和 B 都正確
E. 以上都不正確
答案為(D):A、B 項都正確,如果類別在測試集中出現,但沒有在訓練集中出現,OHE 將會不能進行編碼類別,這將是應用 OHE 的主要困難。選項 B 同樣也是正確的,在應用 OHE 時,如果訓練集和測試集的頻率分布不相同,我們需要多加小心。
10.Skip gram 模型是在 Word2vec 演算法中為詞嵌入而設計的最優模型。以下哪一項描繪了 Skip gram 模型?
A. A
B. B
C. A 和 B
D. 以上都不是
答案為(B):這兩個模型都是在 Word2vec 演算法中所使用的。模型 A 代表著 CBOW,模型 B 代表著 Skip gram。
11. 假定你在神經網路中的隱藏層中使用激活函數 X。在特定神經元給定任意輸入,你會得到輸出「-0.0001」。X 可能是以下哪一個激活函數?
A. ReLU
B. tanh
C. SIGMOID
D. 以上都不是
答案為(B):該激活函數可能是 tanh,因為該函數的取值範圍是 (-1,1)。
12. 對數損失度量函數可以取負值。
A. 對
B. 錯
答案為(B):對數損失函數不可能取負值。
13. 下面哪個/些對「類型 1(Type-1)」和「類型 2(Type-2)」錯誤的描述是正確的?
類型 1 通常稱之為假正類,類型 2 通常稱之為假負類。
類型 2 通常稱之為假正類,類型 1 通常稱之為假負類。
類型 1 錯誤通常在其是正確的情況下拒絕假設而出現。
A. 只有 1
B. 只有 2
C. 只有 3
D. 1 和 2
E. 1 和 3
F. 3 和 2
答案為(E):在統計學假設測試中,I 類錯誤即錯誤地拒絕了正確的假設(即假正類錯誤),II 類錯誤通常指錯誤地接受了錯誤的假設(即假負類錯誤)。
14. 下面在 NLP 項目中哪些是文本預處理的重要步驟?
詞幹提取(Stemming)
移去停止詞(Stop word removal)
目標標準化(Object Standardization)
A. 1 和 2
B. 1 和 3
C. 2 和 3
D. 1、2 和 3
答案為(D):詞幹提取是剝離後綴(「ing」,「ly」,「es」,「s」等)的基於規則的過程。停止詞是與語境不相關的詞(is/am/are)。目標標準化也是一種文本預處理的優良方法。
15. 假定你想將高維數據映射到低維數據中,那麼最出名的降維演算法是 PAC 和 t-SNE。現在你將這兩個演算法分別應用到數據「X」上,並得到數據集「X_projected_PCA」,「X_projected_tSNE」。下面哪一項對「X_projected_PCA」和「X_projected_tSNE」的描述是正確的?
A. X_projected_PCA 在最近鄰空間能得到解釋
B. X_projected_tSNE 在最近鄰空間能得到解釋
C. 兩個都在最近鄰空間能得到解釋
D. 兩個都不能在最近鄰空間得到解釋
答案為(B):t-SNE 演算法考慮最近鄰點而減少數據維度。所以在使用 t-SNE 之後,所降的維可以在最近鄰空間得到解釋。但 PCA 不能。
16-17 題的背景:給定下面兩個特徵的三個散點圖(從左到右依次為圖 1、2、3)。
16. 在上面的圖像中,哪一個是多元共線(multi-collinear)特徵?
A. 圖 1 中的特徵
B. 圖 2 中的特徵
C. 圖 3 中的特徵
D. 圖 1、2 中的特徵
E. 圖 2、3 中的特徵
F. 圖 1、3 中的特徵
答案為(D):在圖 1 中,特徵之間有高度正相關,圖 2 中特徵有高度負相關。所以這兩個圖的特徵是多元共線特徵。
17. 在先前問題中,假定你已經鑒別了多元共線特徵。那麼下一步你可能的操作是什麼?
移除兩個共線變數
不移除兩個變數,而是移除一個
移除相關變數可能會導致信息損失。為了保留這些變數,我們可以使用帶罰項的回歸模型(如 ridge 或 lasso regression)。
A. 只有 1
B. 只有 2
C. 只有 3
D. 1 或 3
E. 1 或 2
答案為(E):因為移除兩個變數會損失一切信息,所以我們只能移除一個特徵,或者也可以使用正則化演算法(如 L1 和 L2)。
18. 給線性回歸模型添加一個不重要的特徵可能會造成:
增加 R-square
減少 R-square
A. 只有 1 是對的
B. 只有 2 是對的
C. 1 或 2 是對的
D. 都不對
答案為(A):在給特徵空間添加了一個特徵後,不論特徵是重要還是不重要,R-square 通常會增加。
19. 假設給定三個變數 X,Y,Z。(X, Y)、(Y, Z) 和 (X, Z) 的 Pearson 相關性係數分別為 C1、C2 和 C3。現在 X 的所有值加 2(即 X+2),Y 的全部值減 2(即 Y-2),Z 保持不變。那麼運算之後的 (X, Y)、(Y, Z) 和 (X, Z) 相關性係數分別為 D1、D2 和 D3。現在試問 D1、D2、D3 和 C1、C2、C3 之間的關係是什麼?
A. D1= C1, D2 < C2, D3 > C3
B. D1 = C1, D2 > C2, D3 > C3
C. D1 = C1, D2 > C2, D3 < C3
D. D1 = C1, D2 < C2, D3 < C3
E. D1 = C1, D2 = C2, D3 = C3
F. 無法確定
答案為(E):特徵之間的相關性係數不會因為特徵加或減去一個數而改變。
20. 假定你現在解決一個有著非常不平衡類別的分類問題,即主要類別佔據了訓練數據的 99%。現在你的模型在測試集上表現為 99% 的準確度。那麼下面哪一項表述是正確的?
準確度並不適合于衡量不平衡類別問題
準確度適合于衡量不平衡類別問題
精確率和召回率適合于衡量不平衡類別問題
精確率和召回率不適合于衡量不平衡類別問題
A. 1 and 3
B. 1 and 4
C. 2 and 3
D. 2 and 4
答案為(A):參考問題 4 的解答。
21. 在集成學習中,模型集成了弱學習者的預測,所以這些模型的集成將比使用單個模型預測效果更好。下面哪個/些選項對集成學習模型中的弱學習者描述正確?
他們經常不會過擬合
他們通常帶有高偏差,所以其並不能解決複雜學習問題
他們通常會過擬合
A. 1 和 2
B. 1 和 3
C. 2 和 3
D. 只有 1
E. 只有 2
F. 以上都不對
答案為(A):弱學習者是問題的特定部分。所以他們通常不會過擬合,這也就意味著弱學習者通常擁有低方差和高偏差。
22. 下面哪個/些選項對 K 折交叉驗證的描述是正確的
增大 K 將導致交叉驗證結果時需要更多的時間
更大的 K 值相比於小 K 值將對交叉驗證結構有更高的信心
如果 K=N,那麼其稱為留一交叉驗證,其中 N 為驗證集中的樣本數量
A. 1 和 2
B. 2 和 3
C. 1 和 3
D. 1、2 和 3
答案為(D):大 K 值意味著對過高估計真實預期誤差(訓練的折數將更接近於整個驗證集樣本數)擁有更小的偏差和更多的運行時間(並隨著越來越接近極限情況:留一交叉驗證)。我們同樣在選擇 K 值時需要考慮 K 折準確度和方差間的均衡。
23 題至 24 題的背景:交叉驗證在機器學習超參數微調中是十分重要的步驟。假定你需要為 GBM 通過選擇 10 個不同的深度值(該值大於 2)而調整超參數「max_depth」,該樹型模型使用 5 折交叉驗證。 4 折訓練驗證演算法(模型 max_depth 為 2)的時間為 10 秒,在剩下的 1 折中預測為 2 秒。
23. 哪一項描述擁有 10 個「max_depth」不同值的 5 折交叉驗證整體執行時間是正確的?
A. 少於 100 秒
B. 100-300 秒
C. 300-600 秒
D. 大於等於 600 秒
E. 無法估計
答案為(D):因為深度為 2 的 5 折交叉驗證每一次迭代需要訓練 10 秒和測試 2 秒。因此五折驗證需要 12*5 = 60 秒,又因為我們需要搜索 10 個深度值,所以演算法需要 60*10 = 600。
24. 在先前的答案中,如果你訓練同樣的演算法調整 2 個超參數,假設是 max_depth 和 learning_rate。你想要選擇正確的值對抗 max_depth(從給定的 10 個深度值中)和學習率(從 5 個不同的學習率做選擇)。在此情況下,整體時間是下面的哪個?
A.1000-1500 秒
B.1500-3000 秒
C. 多於或等於 3000 Second
D. 都不是
答案為(D):和 23 題一樣。
25. 下表是機器學習演算法 M1 的訓練錯誤率 TE 和驗證錯誤率 VE,基於 TE 和 VE 你想要選擇一個超參數(H)。
基於上表,你會選擇哪個 H 值?
A.1
B.2
C.3
D.4
E.5
答案為(D):看這個表,D 選項看起來是最好的。
26. 為了得到和 SVD 一樣的投射(projection),你需要在 PCA 中怎樣做?
A. 將數據轉換成零均值
B. 將數據轉換成零中位數
C. 無法做到
D. 以上方法不行
答案為(A):當數據有一個 0 均值向量時,PCA 有與 SVD 一樣的投射,否則在使用 SVD 之前,你必須將數據均值歸 0。
問題 27-28 的背景:假設存在一個黑箱演算法,其輸入為有多個觀察(t1, t2, t3,…….. tn)的訓練數據和一個新的觀察(q1)。該黑箱演算法輸出 q1 的最近鄰 ti 及其對應的類別標籤 ci。你可以將這個黑箱演算法看作是一個 1-NN(1-最近鄰)
27. 能夠僅基於該黑箱演算法而構建一個 k-NN 分類演算法?註:相對於 k 而言,n(訓練觀察的數量)非常大。
A. 可以
B. 不行
答案為(A):在第一步,你在這個黑箱演算法中傳遞一個觀察樣本 q1,使該演算法返回一個最近鄰的觀察樣本及其類別,在第二步,你在訓練數據中找出最近觀察樣本,然後再一次輸入這個觀察樣本(q1)。該黑箱演算法將再一次返回一個最近鄰的觀察樣本及其類別。你需要將這個流程重複 k 次。
28. 我們不使用 1-NN 黑箱,而是使用 j-NN(j>1) 演算法作為黑箱。為了使用 j-NN 尋找 k-NN,下面哪個選項是正確的?
A. j 必須是 k 的一個合適的因子
B. j>k
C. 不能辦到
答案為(C):原因和 27 題一樣
29. 有以下 7 副散點圖(從左到右分別編號為 1-7),你需要比較每個散點圖的變數之間的皮爾遜相關係數。下面正確的比較順序是?
1<2<3<4
1>2>3 > 4
7<6<5<4
7>6>5>4
A. 1 和 3
B. 2 和 3
C. 1 和 4
D. 2 和 4
答案為(B):從圖1到圖4,相關性係數(絕對值)是遞減的。但圖4到7相關性係數絕對值是遞增的(值為負數,如0、-0.3、-0.7、-0.99等)
30. 你可以使用不同的標準評估二元分類問題的表現,例如準確率、log-loss、F-Score。讓我們假設你使用 log-loss 函數作為評估標準。下面這些選項,哪個/些是對作為評估標準的 log-loss 的正確解釋。
如果一個分類器對不正確的分類很自信,log-loss 會嚴重的批評它。
對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然後對 log-loss 的相應分布會非常大。
3.log-loss 越低,模型越好。
A.1 和 3
B.2 和 3
C.1 和 2
D.1、2、3
答案為(D):答案無需解釋。
問題 31-32 背景:下面是數據集給出的 5 個樣本。
注意:圖像中點之間的視覺距離代表實際距離。
31. 下面哪個是 3-NN(3-最近鄰)的留一法交叉驗證準確率?
A.0
B.0.4
C.0.8
D.1
答案為(C):留一法交叉驗證,我們將選擇(n-1) 觀察值作為訓練,以及驗證的 1 觀察值。把每個點作為交叉驗證點,然後找到 3 個最近鄰點。所以,如果你在每個點上重複該步驟,你會為上圖中給出的所有正類找到正確的分類,而錯誤分類負類。因此,得到 80% 的準確率。
32. 下面哪個 K 值將會有最低的差一法(leave-one-out)交叉驗證精確度?
A. 1NN
B. 3NN
C. 4NN
D. 以上所有具有相同的差一法錯誤
答案(A):在 1-NN 中,被錯誤分類的每一個點都意味著你將得到 0% 的精確度。
33. 假設你被給到以下數據,你想要在給定的兩個類別中使用 logistic 回歸模型對它進行分類。你正在使用帶有 L1 正則化的 logistic 回歸,其中 C 是正則化參數,w1 和 w2 是 x1 和 x2 的係數。當你把 C 值從 0 增加至非常大的值時,下面哪個選項是正確的?
A. 第一個 w2 成了 0,接著 w1 也成了 0
B. 第一個 w1 成了 0,接著 w2 也成了 0
C. w1 和 w2 同時成了 0
D. 即使在 C 成為大值之後,w1 和 w2 都不能成 0
答案(B):通過觀察圖像我們發現,即使只使用 x2,我們也能高效執行分類。因此一開始 w1 將成 0;當正則化參數不斷增加時,w2 也會越來越接近 0。
34. 假設我們有一個數據集,在一個深度為 6 的決策樹的幫助下,它可以使用 100% 的精確度被訓練。現在考慮一下兩點,並基於這兩點選擇正確的選項。
注意:所有其他超參數是相同的,所有其他因子不受影響。
深度為 4 時將有高偏差和低方差
深度為 4 時將有低偏差和低方差
A. 只有 1
B. 只有 2
C. 1 和 2
D. 沒有一個
答案(A):如果在這樣的數據中你擬合深度為 4 的決策樹,這意味著其更有可能與數據欠擬合。因此,在欠擬合的情況下,你將獲得高偏差和低方差。
35. 在 k-均值演算法中,以下哪個選項可用於獲得全局最小?
嘗試為不同的質心(centroid)初始化運行演算法
調整迭代的次數
找到集群的最佳數量
A. 2 和 3
B. 1 和 3
C. 1 和 2
D. 以上所有
答案(D):所有都可以用來調試以找到全局最小。
36. 假設你正在做一個項目,它是一個二元分類問題。你在數據集上訓練一個模型,並在驗證數據集上得到混淆矩陣。基於上述混淆矩陣,下面哪個選項會給你正確的預測。
精確度是~0.91
錯誤分類率是~0.91
假正率(False correct classification)是~0.95
真正率(True positive rate)是~0.95
A. 1 和 3
B. 2 和 4
C. 1 和 4
D. 2 和 3
答案(C):精確度(正確分類)是 (50+100)/165,約等於 0.91。真正率是你正確預測正分類的次數,因此真正率將是 100/105 = 0.95,也被稱作敏感度或召回。
37. 對於下面的超參數來說,更高的值對於決策樹演算法更好嗎?
用於拆分的樣本量
樹深
樹葉樣本
A. 1 和 2
B. 2 和 3
C. 1 和 3
D. 1、2 和 3
E. 無法分辨
答案(E):對於選項 A、B、C 來說,如果你增加參數的值,性能並不一定會提升。例如,如果我們有一個非常高的樹深值,結果樹可能會過擬合數據,並且也不會泛化。另一方面,如果我們有一個非常低的值,結果樹也許與數據欠擬合。因此我們不能確定更高的值對於決策樹演算法就更好。
38-39 題背景 :想像一下,你有一個 28x28 的圖片,並使用輸入深度為 3 和輸出深度為 8 在上面運行一個 3x3 的卷積神經網路。注意,步幅是 1,你正在使用相同的填充(padding)。
38. 當使用給定的參數時,輸出特徵圖的尺寸是多少?
A. 28 寬、28 高、8 深
B. 13 寬、13 高、8 深
C. 28 寬、13 高、8 深
D. 13 寬、28 高、8 深
答案(A):計算輸出尺寸的公式是:輸出尺寸=(N – F)/S + 1。其中,N 是輸入尺寸,F 是過濾器尺寸,S 是步幅。閱讀這篇文章(鏈接:https://www.analyticsvidhya.com/blog/2016/04/deep-learning-computer-vision-introduction-convolution-neural-networks/)獲得更多了解。
39. 當使用以下參數時,輸出特徵圖的尺寸是多少?
A. 28 寬、28 高、8 深
B. 13 寬、13 高、8 深
C. 28 寬、13 高、8 深
D. 13 寬、28 高、8 深
答案 (B):同上
40. 假設,我們正在 SVM 演算法中為 C(懲罰參數)的不同值進行視覺化繪圖。由於某些原因,我們忘記了使用視覺化標註 C 值。這個時候,下面的哪個選項在 rbf 內核的情況下最好地解釋了下圖(1、2、3 從左到右,圖 1 的 C 值 是 C 1,圖 2 的 C 值 是 C 2,圖 3 的 C 值 是 C 3)中的 C 值。
A. C1 = C2 = C3
B. C1 > C2 > C3
C. C1 < C2 < C3
D. 沒有一個
答案 (C):錯誤項的懲罰參數 C。它也控制平滑決策邊界和訓練點正確分類之間的權衡。對於 C 的大值,優化會選擇一個較小邊距的超平面。更多內容:https://www.analyticsvidhya.com/blog/2015/10/understaing-support-vector-machine-example-code/
※如何從信號分析角度理解卷積神經網路的複雜機制?
※英偉達推出PilotNet:讓人工智慧向人類司機學習駕駛車輛
※ROOBO攜「布丁豆豆」亮相大會,真正的核心競爭力並不在硬體
TAG:機器之心 |
※數據科學家必備的10種機器學習演算法
※假如科學家不再投稿……讓雜誌來追科學家?
※腦洞|假如科學家不再投稿……讓雜誌來追科學家?
※為什麼數據科學家需要掌握「遷移學習」?一文詳解
※世上最有智慧的是什麼人?科學家?文學家?哲學家?NO!
※把30000枚核彈投進黑洞,會有什麼結果?科學家這樣回答!
※你玩的遊戲,被別人拿來發Nature:10萬玩家助科學家證明,愛因斯坦真的錯了
※人死後有來世嗎?眾科學家的驗證給出了這種解答!
※如何成為一名厲害的數據科學家?
※想成為數據科學家?試試費曼技巧!
※M78星雲真的有奧特曼嗎?科學家深入研究,最終給出這樣的答案
※科學家最新研究:霸王龍原來不能吐舌頭……what?!
※每一位數據科學家都應掌握的5大機器學習演算法
※宇宙到底有盡頭嗎?科學家這樣解釋
※地球軌道上存在7500噸「太空殺器」 科學家研究了這些方法來清除
※數據科學家不可錯過的機器學習模型開發利器
※科學家該怎樣做科普?
※數據科學與數據科學家
※連科學家都無法回答的問題是什麼?
※Facebook 科學家:別給演算法模型喂垃圾數據了……