當前位置:
首頁 > 最新 > 深度學習英語專業辭彙

深度學習英語專業辭彙

深度學習英語辭彙

A

準確率(Accuracy)

激活函數(Activation function)

梯度下降演算法(AdaGrad)

曲線下面積(AUC)

B

反向傳播(Backpropagation)

基線(Baseline)

批量(Batch)

批量大小(Batch size)

偏置(Bias)

二元分類器(Binary classification)

根據值的範圍將一個連續特徵轉換成多個(binning/bucketing)

C

標定層(calibration layer)

候選採樣(candidate sampling)

檢查點(checkpoint)

類別(class)

類別不平衡數據集(class-imbalanced data set)

分類模型(classification)

分類閾值(classification threshold)

混淆矩陣(confusion matrix)

連續特徵(continuous feature)

收斂(convergence)

凸函數(concex function)

成本(cost)

交叉熵(cross-entropy)

D

數據集(data set)

決策邊界(decision boundary)

深度模型(deep model)

密集特徵(dense feature)

派生特徵(derived feature)

離散特徵(discrete feature)

正則化(dropout regularization)動態模型(dynamic model)

E

早期停止法(early stopping)

嵌入(embeddings)

經驗風險最小化(empirical risk minimization,ERM)

集成(ensemble)

評估器(Estimator)

樣本(example)

F

假負類(false negative,FN)

假正類(false positive,FP)

假正類率(false positive rate,FP rate)

特徵(feature)

特徵列(feature columns/FeatureColumn)

特徵交叉(feature cross)

特徵工程(feature engineering)

特徵集(feature set)

特徵定義(feature spec)

G

泛化(generalization)

廣義線性模型(generalized linear model)

梯度(gradient)

梯度截斷(gradient clipping)

梯度下降(gradient descent)

圖(graph)

H

啟發式(heuristic)

隱藏層(hidden layer)

折頁損失函數(Hinge loss)

測試數據(holdout data)

超參數(hyperparameter)

I

獨立同分布(independently and identically distributed,i.i.d)

推斷(inference)

輸入層(input layer)

評分者間一致性(inter-rater agreement)

K

Kernel 支持向量機(Kernel Support Vector Machines/KSVM)

L

L1 損失函數(L1 loss)

L1 正則化(L1 regularization)

L2 損失(L2 loss)

L2 正則化(L2 regularization)

標籤(label)

標註樣本(labeled example)

正則化率的同義詞(lambda)

層(layer)

學習率(learning rate)

最小二乘回歸(least squares regression)

線性回歸(linear regression)

logistic 回歸(logistic regression)

對數損失函數(Log Loss)

M

機器學習(machine learning)

均方誤差(Mean Squared Error/MSE)

小批量(mini-batch)

小批量隨機梯度下降(mini-batch stochastic gradient descent)

模型(model)

模型訓練(model training)

動量(Momentum)

多類別(multi-class)

N

NaN trap(NaN 是「Not a Number」的縮寫)

負類(negative class)

神經網路(neural network)

神經元(neuron)

歸一化(normalization)

Python中提供高效數組運算的開源數學庫(numpy)

O

目標(objective)

離線推斷(offline inference)

one-hot 編碼(one-hot encoding)

一對多(one-vs.-all)

在線推斷(online inference)

運算(Operation/op)

優化器(optimizer)

異常值(outlier)

輸出層(output layer)

過擬合(overfitting)

P

一種基於列的數據分析 API(Pandas)

參數(parameter)

參數伺服器(Parameter Server/PS)

參數更新(parameter update)

偏導數(partial derivative)

分區策略(partitioning strategy)

性能(performance)

困惑度(perplexity)

流程(pipeline)

正類(positive class)

精度(precision)

預測(prediction)

預測偏差(prediction bias)

預製評估器(pre-made Estimator)

預訓練模型(pre-trained model)

先驗信念(prior belief)

R

秩(rank)

評分者(rater)

召回率(recall)

修正線性單元(Rectified Linear Unit/ReLU)

回歸模型(regression model)

正則化(regularization)

正則化率(regularization rate)

受試者工作特徵曲線(receiver operating characteristic/ROC Curve)

根目錄(root directory)

均方根誤差(Root Mean Squared Error/RMSE)

S

負責存儲模型檢查點文件(Saver)

縮放(scaling)

序列模型(sequence model)

會話(session)

Sigmoid函數(sigmoid function)

為多類別分類模型中每個可能的類提供概率的函數(softmax)

稀疏特徵(sparse feature)

平方損失(squared loss)

靜態模型(static model)

穩態(stationarity)

步(step)

步長(step size)

隨機梯度下降(stochastic gradient descent/SGD)

結構風險最小化(structural risk minimization/SRM)

摘要(summary)

監督式機器學習(supervised machine learning)

合成特徵(synthetic feature)

T

張量(tensor)

張量處理單元(Tensor Processing Unit,TPU)

張量形狀(Tensor shape)

張量大小(Tensor size)

大型分散式機器學習平台(TensorFlow)

測試集(test set)

用於描述機器學習模型訓練或推斷的輸入數據(tf.Example)

訓練(training)

訓練集(training set)

真負類(true negative,TN)

真正類(true positive,TP)

真正類率(true positive rate,TP rate)

U

無標籤樣本(unlabeled example)

無監督機器學習(unsupervised machine learning)

V

驗證集(validation set)

W

權重(weight)

寬模型(wide model)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 澗泉心美 的精彩文章:

TAG:澗泉心美 |