深度學習英語專業辭彙
深度學習英語辭彙
A
準確率(Accuracy)
激活函數(Activation function)
梯度下降演算法(AdaGrad)
曲線下面積(AUC)
B
反向傳播(Backpropagation)
基線(Baseline)
批量(Batch)
批量大小(Batch size)
偏置(Bias)
二元分類器(Binary classification)
根據值的範圍將一個連續特徵轉換成多個(binning/bucketing)
C
標定層(calibration layer)
候選採樣(candidate sampling)
檢查點(checkpoint)
類別(class)
類別不平衡數據集(class-imbalanced data set)
分類模型(classification)
分類閾值(classification threshold)
混淆矩陣(confusion matrix)
連續特徵(continuous feature)
收斂(convergence)
凸函數(concex function)
成本(cost)
交叉熵(cross-entropy)
D
數據集(data set)
決策邊界(decision boundary)
深度模型(deep model)
密集特徵(dense feature)
派生特徵(derived feature)
離散特徵(discrete feature)
正則化(dropout regularization)動態模型(dynamic model)
E
早期停止法(early stopping)
嵌入(embeddings)
經驗風險最小化(empirical risk minimization,ERM)
集成(ensemble)
評估器(Estimator)
樣本(example)
F
假負類(false negative,FN)
假正類(false positive,FP)
假正類率(false positive rate,FP rate)
特徵(feature)
特徵列(feature columns/FeatureColumn)
特徵交叉(feature cross)
特徵工程(feature engineering)
特徵集(feature set)
特徵定義(feature spec)
G
泛化(generalization)
廣義線性模型(generalized linear model)
梯度(gradient)
梯度截斷(gradient clipping)
梯度下降(gradient descent)
圖(graph)
H
啟發式(heuristic)
隱藏層(hidden layer)
折頁損失函數(Hinge loss)
測試數據(holdout data)
超參數(hyperparameter)
I
獨立同分布(independently and identically distributed,i.i.d)
推斷(inference)
輸入層(input layer)
評分者間一致性(inter-rater agreement)
K
Kernel 支持向量機(Kernel Support Vector Machines/KSVM)
L
L1 損失函數(L1 loss)
L1 正則化(L1 regularization)
L2 損失(L2 loss)
L2 正則化(L2 regularization)
標籤(label)
標註樣本(labeled example)
正則化率的同義詞(lambda)
層(layer)
學習率(learning rate)
最小二乘回歸(least squares regression)
線性回歸(linear regression)
logistic 回歸(logistic regression)
對數損失函數(Log Loss)
M
機器學習(machine learning)
均方誤差(Mean Squared Error/MSE)
小批量(mini-batch)
小批量隨機梯度下降(mini-batch stochastic gradient descent)
模型(model)
模型訓練(model training)
動量(Momentum)
多類別(multi-class)
N
NaN trap(NaN 是「Not a Number」的縮寫)
負類(negative class)
神經網路(neural network)
神經元(neuron)
歸一化(normalization)
Python中提供高效數組運算的開源數學庫(numpy)
O
目標(objective)
離線推斷(offline inference)
one-hot 編碼(one-hot encoding)
一對多(one-vs.-all)
在線推斷(online inference)
運算(Operation/op)
優化器(optimizer)
異常值(outlier)
輸出層(output layer)
過擬合(overfitting)
P
一種基於列的數據分析 API(Pandas)
參數(parameter)
參數伺服器(Parameter Server/PS)
參數更新(parameter update)
偏導數(partial derivative)
分區策略(partitioning strategy)
性能(performance)
困惑度(perplexity)
流程(pipeline)
正類(positive class)
精度(precision)
預測(prediction)
預測偏差(prediction bias)
預製評估器(pre-made Estimator)
預訓練模型(pre-trained model)
先驗信念(prior belief)
R
秩(rank)
評分者(rater)
召回率(recall)
修正線性單元(Rectified Linear Unit/ReLU)
回歸模型(regression model)
正則化(regularization)
正則化率(regularization rate)
受試者工作特徵曲線(receiver operating characteristic/ROC Curve)
根目錄(root directory)
均方根誤差(Root Mean Squared Error/RMSE)
S
負責存儲模型檢查點文件(Saver)
縮放(scaling)
序列模型(sequence model)
會話(session)
Sigmoid函數(sigmoid function)
為多類別分類模型中每個可能的類提供概率的函數(softmax)
稀疏特徵(sparse feature)
平方損失(squared loss)
靜態模型(static model)
穩態(stationarity)
步(step)
步長(step size)
隨機梯度下降(stochastic gradient descent/SGD)
結構風險最小化(structural risk minimization/SRM)
摘要(summary)
監督式機器學習(supervised machine learning)
合成特徵(synthetic feature)
T
張量(tensor)
張量處理單元(Tensor Processing Unit,TPU)
張量形狀(Tensor shape)
張量大小(Tensor size)
大型分散式機器學習平台(TensorFlow)
測試集(test set)
用於描述機器學習模型訓練或推斷的輸入數據(tf.Example)
訓練(training)
訓練集(training set)
真負類(true negative,TN)
真正類(true positive,TP)
真正類率(true positive rate,TP rate)
U
無標籤樣本(unlabeled example)
無監督機器學習(unsupervised machine learning)
V
驗證集(validation set)
W
權重(weight)
寬模型(wide model)
TAG:澗泉心美 |