這725個機器學習術語表,太全了!
這725個機器學習術語表,太全了!
資料來源:https://mp.weixin.qq.com/s/yK9oq-jkep6qVJjM43O14Q
這是幾位機器學習權威專家匯總的725個機器學習術語表,非常全面了,值得收藏!
|
英文術語 |
中文翻譯 |
|---|---|
|
0-1 |
0-1損失函數 |
|
Accept-Reject |
接受–拒絕抽樣法/接受–拒絕釆樣法 |
|
Accumulated |
累積誤差反向傳播 |
|
Accuracy |
精度 |
|
Acquisition |
釆集函數 |
|
Action |
動作 |
|
Activation |
激活函數 |
|
Active |
主動學習 |
|
Adaptive |
自適應比特率算法 |
|
Adaptive |
AdaBoost |
|
Adaptive |
AdaGrad |
|
Adaptive |
Adam算法 |
|
Adaptive |
自適應諧振理論 |
|
Additive |
加性模型 |
|
Affinity |
親和矩陣 |
|
Agent |
智能體 |
|
Algorithm |
算法 |
|
Alpha-Beta |
α-β修剪法 |
|
Anomaly |
異常檢測 |
|
Approximate |
近似推斷 |
|
Area |
AUC |
|
Artificial |
人工智能 |
|
Artificial |
人工神經網絡 |
|
Artificial |
人工神經元 |
|
Attention |
注意力 |
|
Attention |
注意力機制 |
|
Attribute |
屬性 |
|
Attribute |
屬性空間 |
|
Autoencoder |
自編碼器 |
|
Automatic |
自動微分 |
|
Autoregressive |
自回歸模型 |
|
Back |
反向傳播 |
|
Back |
反向傳播算法 |
|
Back |
隨時間反向傳播 |
|
Backward |
反向歸納 |
|
Backward |
反向搜索 |
|
Bag |
詞袋 |
|
Bandit |
賭博機/老虎機 |
|
Base |
基學習器 |
|
Base |
基學習算法 |
|
Baseline |
基准 |
|
Batch |
批量 |
|
Batch |
批量規范化 |
|
Bayes |
貝葉斯決策准則 |
|
Bayes |
貝葉斯模型平均 |
|
Bayes |
貝葉斯最優分類器 |
|
Bayes’ |
貝葉斯定理 |
|
Bayesian |
貝葉斯決策理論 |
|
Bayesian |
貝葉斯推斷 |
|
Bayesian |
貝葉斯學習 |
|
Bayesian |
貝葉斯網/貝葉斯網絡 |
|
Bayesian |
貝葉斯優化 |
|
Beam |
束搜索 |
|
Benchmark |
基准 |
|
Belief |
信念網/信念網絡 |
|
Belief |
信念傳播 |
|
Bellman |
貝爾曼方程 |
|
Bernoulli |
伯努利分布 |
|
Beta |
貝塔分布 |
|
Between-Class |
類間散度矩陣 |
|
BFGS |
BFGS |
|
Bias |
偏差/偏置 |
|
Bias |
偏置 |
|
Bias |
偏差 |
|
Bias |
偏置偏移 |
|
Bias-Variance |
偏差 – 方差分解 |
|
Bias-Variance |
偏差 – 方差困境 |
|
Bidirectional |
雙向循環神經網絡 |
|
Bigram |
二元語法 |
|
Bilingual |
BLEU |
|
Binary |
二分類 |
|
Binomial |
二項分布 |
|
Binomial |
二項檢驗 |
|
Boltzmann |
玻爾玆曼分布 |
|
Boltzmann |
玻爾玆曼機 |
|
Boosting |
Boosting |
|
Bootstrap |
Bagging |
|
Bootstrap |
自助釆樣法 |
|
Bootstrapping |
自助法/自舉法 |
|
Break-Event |
平衡點 |
|
Bucketing |
分桶 |
|
Calculus |
變分法 |
|
Cascade-Correlation |
級聯相關 |
|
Catastrophic |
災難性遺忘 |
|
Categorical |
類別分布 |
|
Cell |
單元 |
|
Chain |
鏈式法則 |
|
Chebyshev |
切比雪夫距離 |
|
Class |
類別 |
|
Class-Imbalance |
類別不平衡 |
|
Classification |
分類 |
|
Classification |
分類與回歸樹 |
|
Classifier |
分類器 |
|
Clique |
團 |
|
Cluster |
簇 |
|
Cluster |
聚類假設 |
|
Clustering |
聚類 |
|
Clustering |
聚類集成 |
|
Co-Training |
協同訓練 |
|
Coding |
編碼矩陣 |
|
Collaborative |
協同過濾 |
|
Competitive |
競爭型學習 |
|
Comprehensibility |
可解釋性 |
|
Computation |
計算圖 |
|
Computational |
計算學習理論 |
|
Conditional |
條件熵 |
|
Conditional |
條件概率 |
|
Conditional |
條件概率分布 |
|
Conditional |
條件隨機場 |
|
Conditional |
條件風險 |
|
Confidence |
置信度 |
|
Confusion |
混淆矩陣 |
|
Conjugate |
共軛分布 |
|
Connection |
連接權 |
|
Connectionism |
連接主義 |
|
Consistency |
一致性 |
|
Constrained |
約束優化 |
|
Context |
上下文變量 |
|
Context |
上下文向量 |
|
Context |
上下文窗口 |
|
Context |
上下文詞 |
|
Contextual |
上下文賭博機/上下文老虎機 |
|
Contingency |
列聯表 |
|
Continuous |
連續屬性 |
|
Contrastive |
對比散度 |
|
Convergence |
收斂 |
|
Convex |
凸優化 |
|
Convex |
凸二次規划 |
|
Convolution |
卷積 |
|
Convolutional |
卷積核 |
|
Convolutional |
卷積神經網絡 |
|
Coordinate |
坐標下降 |
|
Corpus |
語料庫 |
|
Correlation |
相關系數 |
|
Cosine |
余弦相似度 |
|
Cost |
代價 |
|
Cost |
代價曲線 |
|
Cost |
代價函數 |
|
Cost |
代價矩陣 |
|
Cost-Sensitive |
代價敏感 |
|
Covariance |
協方差 |
|
Covariance |
協方差矩陣 |
|
Critical |
臨界點 |
|
Cross |
交叉熵 |
|
Cross |
交叉驗證 |
|
Curse |
維數災難 |
|
Cutting |
割平面法 |
|
Data |
數據挖掘 |
|
Data |
數據集 |
|
Davidon-Fletcher-Powell |
DFP |
|
Decision |
決策邊界 |
|
Decision |
決策函數 |
|
Decision |
決策樹樁 |
|
Decision |
決策樹 |
|
Decoder |
解碼器 |
|
Decoding |
解碼 |
|
Deconvolution |
反卷積 |
|
Deconvolutional |
反卷積網絡 |
|
Deduction |
演繹 |
|
Deep |
深度信念網絡 |
|
Deep |
深度玻爾玆曼機 |
|
Deep |
深度卷積生成對抗網絡 |
|
Deep |
深度學習 |
|
Deep |
深度神經網絡 |
|
Deep |
深度Q網絡 |
|
Delta-Bar-Delta |
Delta-Bar-Delta |
|
Denoising |
去噪 |
|
Denoising |
去噪自編碼器 |
|
Denoising |
去躁分數匹配 |
|
Density |
密度估計 |
|
Density-Based |
密度聚類 |
|
Derivative |
導數 |
|
Determinant |
行列式 |
|
Diagonal |
對角矩陣 |
|
Dictionary |
字典學習 |
|
Dimension |
降維 |
|
Directed |
有向邊 |
|
Directed |
有向圖模型 |
|
Directed |
有向分離 |
|
Dirichlet |
狄利克雷分布 |
|
Discriminative |
判別式模型 |
|
Discriminator |
判別器 |
|
Discriminator |
判別網絡 |
|
Distance |
距離度量 |
|
Distance |
距離度量學習 |
|
Distributed |
分布式表示 |
|
Diverge |
發散 |
|
Divergence |
散度 |
|
Diversity |
多樣性 |
|
Diversity |
多樣性度量/差異性度量 |
|
Domain |
領域自適應 |
|
Dominant |
主特徵值 |
|
Dominant |
占優策略 |
|
Down |
下釆樣 |
|
Dropout |
暫退法 |
|
Dropout |
暫退Boosting |
|
Dropout |
暫退法 |
|
Dual |
對偶問題 |
|
Dummy |
啞結點 |
|
Dynamic |
動態貝葉斯網絡 |
|
Dynamic |
動態規划 |
|
Early |
早停 |
|
Eigendecomposition |
特徵分解 |
|
Eigenvalue |
特徵值 |
|
Element-Wise |
逐元素積 |
|
Embedding |
嵌入 |
|
Empirical |
經驗條件熵 |
|
Empirical |
經驗分布 |
|
Empirical |
經驗熵 |
|
Empirical |
經驗誤差 |
|
Empirical |
經驗風險 |
|
Empirical |
經驗風險最小化 |
|
Encoder |
編碼器 |
|
Encoding |
編碼 |
|
End-To-End |
端到端 |
|
Energy |
能量函數 |
|
Energy-Based |
基於能量的模型 |
|
Ensemble |
集成學習 |
|
Ensemble |
集成修剪 |
|
Entropy |
熵 |
|
Episode |
回合 |
|
Epoch |
輪 |
|
Error |
誤差 |
|
Error |
誤差反向傳播算法 |
|
Error |
誤差反向傳播 |
|
Error |
糾錯輸出編碼 |
|
Error |
錯誤率 |
|
Error-Ambiguity |
誤差-分歧分解 |
|
Estimator |
估計/估計量 |
|
Euclidean |
歐氏距離 |
|
Evidence |
證據 |
|
Evidence |
證據下界 |
|
Exact |
精確推斷 |
|
Example |
樣例 |
|
Expectation |
期望 |
|
Expectation |
期望最大化 |
|
Expected |
期望損失 |
|
Expert |
專家系統 |
|
Exploding |
梯度爆炸 |
|
Exponential |
指數損失函數 |
|
Factor |
因子 |
|
Factorization |
因子分解 |
|
Feature |
特徵 |
|
Feature |
特徵工程 |
|
Feature |
特徵圖 |
|
Feature |
特徵選擇 |
|
Feature |
特徵向量 |
|
Featured |
特徵學習 |
|
Feedforward |
前饋 |
|
Feedforward |
前饋神經網絡 |
|
Few-Shot |
少試學習 |
|
Filter |
濾波器 |
|
Fine-Tuning |
微調 |
|
Fluctuation |
振蕩 |
|
Forget |
遺忘門 |
|
Forward |
前向傳播/正向傳播 |
|
Forward |
前向分步算法 |
|
Fractionally |
微步卷積 |
|
Frobenius |
Frobenius 范數 |
|
Full |
全填充 |
|
Functional |
泛函 |
|
Functional |
功能神經元 |
|
Gated |
門控循環單元 |
|
Gated |
門控RNN |
|
Gaussian |
高斯分布 |
|
Gaussian |
高斯核 |
|
Gaussian |
高斯核函數 |
|
Gaussian |
高斯混合模型 |
|
Gaussian |
高斯過程 |
|
Generalization |
泛化能力 |
|
Generalization |
泛化誤差 |
|
Generalization |
泛化誤差上界 |
|
Generalize |
泛化 |
|
Generalized |
廣義拉格朗日函數 |
|
Generalized |
廣義線性模型 |
|
Generalized |
廣義瑞利商 |
|
Generative |
生成對抗網絡 |
|
Generative |
生成式模型 |
|
Generator |
生成器 |
|
Generator |
生成器網絡 |
|
Genetic |
遺傳算法 |
|
Gibbs |
吉布斯分布 |
|
Gibbs |
吉布斯釆樣/吉布斯抽樣 |
|
Gini |
基尼指數 |
|
Global |
全局馬爾可夫性 |
|
Global |
全局最小 |
|
Gradient |
梯度 |
|
Gradient |
梯度截斷 |
|
Gradient |
梯度下降 |
|
Gradient |
梯度下降法 |
|
Gradient |
梯度爆炸問題 |
|
Gram |
Gram 矩陣 |
|
Graph |
圖卷積神經網絡/圖卷積網絡 |
|
Graph |
圖神經網絡 |
|
Graphical |
圖模型 |
|
Grid |
網格搜索 |
|
Ground |
真實值 |
|
Hadamard |
Hadamard積 |
|
Hamming |
漢明距離 |
|
Hard |
硬間隔 |
|
Hebbian |
赫布法則 |
|
Hidden |
隱藏層 |
|
Hidden |
隱馬爾可夫模型 |
|
Hidden |
隱變量 |
|
Hierarchical |
層次聚類 |
|
Hilbert |
希爾伯特空間 |
|
Hinge |
合頁損失函數/Hinge損失函數 |
|
Hold-Out |
留出法 |
|
Hyperparameter |
超參數 |
|
Hyperparameter |
超參數優化 |
|
Hypothesis |
假設 |
|
Hypothesis |
假設空間 |
|
Hypothesis |
假設檢驗 |
|
Identity |
單位矩陣 |
|
Imitation |
模仿學習 |
|
Importance |
重要性釆樣 |
|
Improved |
改進的迭代尺度法 |
|
Incremental |
增量學習 |
|
Independent |
獨立同分布 |
|
Indicator |
指示函數 |
|
Individual |
個體學習器 |
|
Induction |
歸納 |
|
Inductive |
歸納偏好 |
|
Inductive |
歸納學習 |
|
Inductive |
歸納邏輯程序設計 |
|
Inference |
推斷 |
|
Information |
信息熵 |
|
Information |
信息增益 |
|
Inner |
內積 |
|
Instance |
示例 |
|
Internal |
內部協變量偏移 |
|
Inverse |
逆矩陣 |
|
Inverse |
逆歸結 |
|
Isometric |
等度量映射 |
|
Jacobian |
雅可比矩陣 |
|
Jensen |
Jensen不等式 |
|
Joint |
聯合概率分布 |
|
K-Armed |
k-搖臂老虎機 |
|
K-Fold |
k 折交叉驗證 |
|
Karush-Kuhn-Tucker |
KKT條件 |
|
Karush–Kuhn–Tucker |
Karush–Kuhn–Tucker |
|
Kernel |
核函數 |
|
Kernel |
核方法 |
|
Kernel |
核技巧 |
|
Kernelized |
核線性判別分析 |
|
KL |
KL散度 |
|
L-BFGS |
L-BFGS |
|
Label |
標簽 |
|
Label |
標記空間 |
|
Lagrange |
拉格朗日對偶性 |
|
Lagrange |
拉格朗日乘子 |
|
Language |
語言模型 |
|
Laplace |
拉普拉斯平滑 |
|
Laplacian |
拉普拉斯修正 |
|
Latent |
潛在狄利克雷分配 |
|
Latent |
潛在語義分析 |
|
Latent |
潛變量/隱變量 |
|
Law |
大數定律 |
|
Layer |
層規范化 |
|
Lazy |
懶惰學習 |
|
Leaky |
泄漏修正線性單元/泄漏整流線性單元 |
|
Learner |
學習器 |
|
Learning |
學習 |
|
Learning |
類比學習 |
|
Learning |
學習率 |
|
Learning |
學習向量量化 |
|
Least |
最小二乘法 |
|
Least |
最小二乘回歸樹 |
|
Left |
左奇異向量 |
|
Likelihood |
似然 |
|
Linear |
線性鏈條件隨機場 |
|
Linear |
線性分類模型 |
|
Linear |
線性分類器 |
|
Linear |
線性相關 |
|
Linear |
線性判別分析 |
|
Linear |
線性模型 |
|
Linear |
線性回歸 |
|
Link |
聯系函數 |
|
Local |
局部馬爾可夫性 |
|
Local |
局部極小 |
|
Local |
局部極小 |
|
Local |
局部式表示/局部式表徵 |
|
Log |
對數似然函數 |
|
Log |
對數線性模型 |
|
Log-Likelihood |
對數似然 |
|
Log-Linear |
對數線性回歸 |
|
Logistic |
對數几率函數 |
|
Logistic |
對數几率回歸 |
|
Logit |
對數几率 |
|
Long |
長短期記憶 |
|
Long |
長短期記憶網絡 |
|
Loopy |
環狀信念傳播 |
|
Loss |
損失函數 |
|
Low |
低秩矩陣近似 |
|
Machine |
機器學習 |
|
Macron-R |
宏查全率 |
|
Manhattan |
曼哈頓距離 |
|
Manifold |
流形 |
|
Manifold |
流形假設 |
|
Manifold |
流形學習 |
|
Margin |
間隔 |
|
Marginal |
邊緣分布 |
|
Marginal |
邊緣獨立性 |
|
Marginalization |
邊緣化 |
|
Markov |
馬爾可夫鏈 |
|
Markov |
馬爾可夫鏈蒙特卡羅 |
|
Markov |
馬爾可夫決策過程 |
|
Markov |
馬爾可夫網絡 |
|
Markov |
馬爾可夫過程 |
|
Markov |
馬爾可夫隨機場 |
|
Mask |
掩碼 |
|
Matrix |
矩陣 |
|
Matrix |
逆矩陣 |
|
Max |
最大匯聚 |
|
Maximal |
最大團 |
|
Maximum |
最大熵模型 |
|
Maximum |
極大似然估計 |
|
Maximum |
最大間隔 |
|
Mean |
平均場 |
|
Mean |
平均匯聚 |
|
Mean |
均方誤差 |
|
Mean-Field |
平均場 |
|
Memory |
記憶網絡 |
|
Message |
消息傳遞 |
|
Metric |
度量學習 |
|
Micro-R |
微查全率 |
|
Minibatch |
小批量 |
|
Minimal |
最小描述長度 |
|
Minimax |
極小極大博弈 |
|
Minkowski |
閔可夫斯基距離 |
|
Mixture |
混合專家模型 |
|
Mixture-of-Gaussian |
高斯混合 |
|
Model |
模型 |
|
Model |
模型選擇 |
|
Momentum |
動量法 |
|
Monte |
蒙特卡羅方法 |
|
Moral |
端正圖/道德圖 |
|
Moralization |
道德化 |
|
Multi-Class |
多分類 |
|
Multi-Head |
多頭注意力 |
|
Multi-Head |
多頭自注意力 |
|
Multi-Kernel |
多核學習 |
|
Multi-Label |
多標記學習 |
|
Multi-Layer |
多層前饋神經網絡 |
|
Multi-Layer |
多層感知機 |
|
Multinomial |
多項分布 |
|
Multiple |
多維縮放 |
|
Multiple |
多元線性回歸 |
|
Multitask |
多任務學習 |
|
Multivariate |
多元正態分布 |
|
Mutual |
互信息 |
|
N-Gram |
N元模型 |
|
Naive |
朴素貝葉斯分類器 |
|
Naive |
朴素貝葉斯 |
|
Nearest |
最近鄰分類器 |
|
Negative |
負對數似然函數 |
|
Neighbourhood |
近鄰成分分析 |
|
Net |
淨輸入 |
|
Neural |
神經網絡 |
|
Neural |
神經圖靈機 |
|
Neuron |
神經元 |
|
Newton |
牛頓法 |
|
No |
沒有免費午餐定理 |
|
Noise-Contrastive |
噪聲對比估計 |
|
Nominal |
列名屬性 |
|
Non-Convex |
非凸優化 |
|
Non-Metric |
非度量距離 |
|
Non-Negative |
非負矩陣分解 |
|
Non-Ordinal |
無序屬性 |
|
Norm |
范數 |
|
Normal |
正態分布 |
|
Normalization |
規范化 |
|
Nuclear |
核范數 |
|
Number |
輪數 |
|
Numerical |
數值屬性 |
|
Object |
目標檢測 |
|
Oblique |
斜決策樹 |
|
Occam’s |
奧卡姆剃刀 |
|
Odds |
几率 |
|
Off-Policy |
異策略 |
|
On-Policy |
同策略 |
|
One-Dependent |
獨依賴估計 |
|
One-Hot |
獨熱 |
|
Online |
在線學習 |
|
Optimizer |
優化器 |
|
Ordinal |
有序屬性 |
|
Orthogonal |
正交 |
|
Orthogonal |
正交矩陣 |
|
Out-Of-Bag |
包外估計 |
|
Outlier |
異常點 |
|
Over-Parameterized |
過度參數化 |
|
Overfitting |
過擬合 |
|
Oversampling |
過釆樣 |
|
Pac-Learnable |
PAC可學習 |
|
Padding |
填充 |
|
Pairwise |
成對馬爾可夫性 |
|
Parallel |
分布式并行處理 |
|
Parameter |
參數 |
|
Parameter |
參數估計 |
|
Parameter |
參數空間 |
|
Parameter |
調參 |
|
Parametric |
參數化修正線性單元/參數化整流線性單元 |
|
Part-Of-Speech |
詞性標注 |
|
Partial |
偏導數 |
|
Partially |
部分可觀測馬爾可夫決策過程 |
|
Partition |
配分函數 |
|
Perceptron |
感知機 |
|
Performance |
性能度量 |
|
Perplexity |
困惑度 |
|
Pointer |
指針網絡 |
|
Policy |
策略 |
|
Policy |
策略梯度 |
|
Policy |
策略迭代 |
|
Polynomial |
多項式核函數 |
|
Pooling |
匯聚 |
|
Pooling |
匯聚層 |
|
Positive |
正定矩陣 |
|
Post-Pruning |
后剪枝 |
|
Potential |
勢函數 |
|
Power |
冪法 |
|
Pre-Training |
預訓練 |
|
Precision |
查准率/准確率 |
|
Prepruning |
預剪枝 |
|
Primal |
主問題 |
|
Primary |
初級視覺皮層 |
|
Principal |
主成分分析 |
|
Prior |
先驗 |
|
Probabilistic |
概率上下文無關文法 |
|
Probabilistic |
概率圖模型 |
|
Probabilistic |
概率模型 |
|
Probability |
概率密度函數 |
|
Probability |
概率分布 |
|
Probably |
概率近似正確 |
|
Proposal |
提議分布 |
|
Prototype-Based |
原型聚類 |
|
Proximal |
近端梯度下降 |
|
Pruning |
剪枝 |
|
Quadratic |
平方損失函數 |
|
Quadratic |
二次規划 |
|
Quasi |
擬牛頓法 |
|
Radial |
徑向基函數 |
|
Random |
隨機森林 |
|
Random |
隨機釆樣 |
|
Random |
隨機搜索 |
|
Random |
隨機變量 |
|
Random |
隨機游走 |
|
Recall |
查全率/召回率 |
|
Receptive |
感受野 |
|
Reconstruction |
重搆誤差 |
|
Rectified |
修正線性單元/整流線性單元 |
|
Recurrent |
循環神經網絡 |
|
Recursive |
遞歸神經網絡 |
|
Regression |
回歸 |
|
Regularization |
正則化 |
|
Regularizer |
正則化項 |
|
Reinforcement |
強化學習 |
|
Relative |
相對熵 |
|
Reparameterization |
再參數化/重參數化 |
|
Representation |
表示 |
|
Representation |
表示學習 |
|
Representer |
表示定理 |
|
Reproducing |
再生核希爾伯特空間 |
|
Rescaling |
再縮放 |
|
Reset |
重置門 |
|
Residual |
殘差連接 |
|
Residual |
殘差網絡 |
|
Restricted |
受限玻爾玆曼機 |
|
Reward |
獎勵 |
|
Ridge |
嶺回歸 |
|
Right |
右奇異向量 |
|
Risk |
風險 |
|
Robustness |
穩健性 |
|
Root |
根結點 |
|
Rule |
規則學習 |
|
Saddle |
鞍點 |
|
Sample |
樣本 |
|
Sample |
樣本復雜度 |
|
Sample |
樣本空間 |
|
Scalar |
標量 |
|
Selective |
選擇性集成 |
|
Self |
自信息 |
|
Self-Attention |
自注意力 |
|
Self-Organizing |
自組織映射網 |
|
Self-Training |
自訓練 |
|
Semi-Definite |
半正定規划 |
|
Semi-Naive |
半朴素貝葉斯分類器 |
|
Semi-Restricted |
半受限玻爾玆曼機 |
|
Semi-Supervised |
半監督聚類 |
|
Semi-Supervised |
半監督學習 |
|
Semi-Supervised |
半監督支持向量機 |
|
Sentiment |
情感分析 |
|
Separating |
分離超平面 |
|
Sequential |
序貫覆蓋 |
|
Sigmoid |
Sigmoid信念網絡 |
|
Sigmoid |
Sigmoid函數 |
|
Signed |
帶符號距離 |
|
Similarity |
相似度度量 |
|
Simulated |
模擬退火 |
|
Simultaneous |
即時定位與地圖搆建 |
|
Singular |
奇異值 |
|
Singular |
奇異值分解 |
|
Skip-Gram |
跳元模型 |
|
Smoothing |
平滑 |
|
Soft |
軟間隔 |
|
Soft |
軟間隔最大化 |
|
Softmax |
Softmax/軟最大化 |
|
Softmax |
Softmax函數/軟最大化函數 |
|
Softmax |
Softmax回歸/軟最大化回歸 |
|
Softplus |
Softplus函數 |
|
Span |
張成子空間 |
|
Sparse |
稀疏編碼 |
|
Sparse |
稀疏表示 |
|
Sparsity |
稀疏性 |
|
Specialization |
特化 |
|
Splitting |
切分變量 |
|
Squashing |
擠壓函數 |
|
Standard |
標准正態分布 |
|
State |
狀態 |
|
State |
狀態值函數 |
|
State-Action |
狀態–動作值函數 |
|
Stationary |
平穩分布 |
|
Stationary |
駐點 |
|
Statistical |
統計學習 |
|
Steepest |
最速下降法 |
|
Stochastic |
隨機梯度下降 |
|
Stochastic |
隨機矩陣 |
|
Stochastic |
隨機過程 |
|
Stratified |
分層釆樣 |
|
Stride |
步幅 |
|
Structural |
結搆風險 |
|
Structural |
結搆風險最小化 |
|
Subsample |
子釆樣 |
|
Subsampling |
下釆樣 |
|
Subset |
子集搜索 |
|
Subspace |
子空間 |
|
Supervised |
監督學習 |
|
Support |
支持向量 |
|
Support |
支持向量展式 |
|
Support |
支持向量機 |
|
Surrogat |
替代損失 |
|
Surrogate |
替代函數 |
|
Surrogate |
代理損失函數 |
|
Symbolism |
符號主義 |
|
Tangent |
正切傳播 |
|
Teacher |
強制教學 |
|
Temporal-Difference |
時序差分學習 |
|
Tensor |
張量 |
|
Test |
測試誤差 |
|
Test |
測試樣本 |
|
Test |
測試集 |
|
Threshold |
閾值 |
|
Threshold |
閾值邏輯單元 |
|
Threshold-Moving |
閾值移動 |
|
Tied |
捆綁權重 |
|
Tikhonov |
Tikhonov正則化 |
|
Time |
時延神經網絡 |
|
Time |
時間齊次馬爾可夫鏈 |
|
Time |
時間步 |
|
Token |
詞元 |
|
Token |
詞元 |
|
Tokenization |
詞元化 |
|
Tokenizer |
詞元分析器 |
|
Topic |
話題模型 |
|
Topic |
話題分析 |
|
Trace |
跡 |
|
Training |
訓練 |
|
Training |
訓練誤差 |
|
Training |
訓練樣本 |
|
Training |
訓練集 |
|
Transductive |
直推學習 |
|
Transductive |
直推遷移學習 |
|
Transfer |
遷移學習 |
|
Transformer |
Transformer |
|
Transformer |
Transformer模型 |
|
Transpose |
轉置 |
|
Transposed |
轉置卷積 |
|
Trial |
試錯 |
|
Trigram |
三元語法 |
|
Turing |
圖靈機 |
|
Underfitting |
欠擬合 |
|
Undersampling |
欠釆樣 |
|
Undirected |
無向圖模型 |
|
Uniform |
均勻分布 |
|
Unigram |
一元語法 |
|
Unit |
單元 |
|
Universal |
通用近似定理 |
|
Universal |
通用近似器 |
|
Universal |
通用函數近似器 |
|
Unknown |
未知詞元 |
|
Unsupervised |
無監督逐層訓練 |
|
Unsupervised |
無監督學習 |
|
Update |
更新門 |
|
Upsampling |
上釆樣 |
|
V-Structure |
V型結搆 |
|
Validation |
驗證集 |
|
Validity |
有效性指標 |
|
Value |
值函數近似 |
|
Value |
值迭代 |
|
Vanishing |
梯度消失問題 |
|
Vapnik-Chervonenkis |
VC維 |
|
Variable |
變量消去 |
|
Variance |
方差 |
|
Variational |
變分自編碼器 |
|
Variational |
變分推斷 |
|
Vector |
向量 |
|
Vector |
向量空間模型 |
|
Version |
版本空間 |
|
Viterbi |
維特比算法 |
|
Vocabulary |
詞表 |
|
Warp |
線程束 |
|
Weak |
弱學習器 |
|
Weakly |
弱監督學習 |
|
Weight |
權重 |
|
Weight |
權重衰減 |
|
Weight |
權共享 |
|
Weighted |
加權投票 |
|
Whitening |
白化 |
|
Winner-Take-All |
勝者通吃 |
|
Within-Class |
類內散度矩陣 |
|
Word |
詞嵌入 |
|
Word |
詞義消歧 |
|
Word |
詞向量 |
|
Zero |
零填充 |
|
Zero-Shot |
零試學習 |
|
Zipf’s |
齊普夫定律 |