Metric Learning 度量学习
1. 度量(Metric)
在数学中,一个度量(或距离函数)是一个定义集合中元素之间”距离”的函数.
一个具有度量的集合可以称之为度量空间.
2.度量学习的作用
Metric Learning可以通俗的理解为相似度学习.
以样本间的欧氏距离为例:K-means中进行聚类时用到了欧式距离来度量样本到中心点的距离;KNN算法也用到了欧氏距离等.这里计算的度量,就是在比较样本点和中心点的相似度.
3.度量学习类别
从广义上可以将度量学习分为:(1)通过线性变换的度量学习和非线性模型的度量学习.
1)线性变换的度量学习
线性度量学习问题也称为马氏度量学习问题,又可以分为监督学习和非监督学习两类.
3.1.1监督的全局度量学习
- Information-theoretic metric learning(ITML)
- Mahalanobis Metric Learning for Clustering(MMC)
- Maximally Collapsing Metric Learning (MCML)
3.1.2监督的局部度量学习
- Neighbourhood Components Analysis (NCA)
- Large-Margin Nearest Neighbors (LMNN)
- Relevant Component Analysis(RCA)
- Local Linear Discriminative Analysis(Local LDA)
3.1.3非监督的度量学习
- 主成分分析(Pricipal Components Analysis, PCA)
- 多维尺度变换(Multi-dimensional Scaling, MDS)
- 非负矩阵分解(Non-negative Matrix Factorization,NMF)
- 独立成分分析(Independent components analysis, ICA)
- 邻域保持嵌入(Neighborhood Preserving Embedding,NPE)
- 局部保留投影(Locality Preserving Projections. LPP)
2)非线性模型
非线性降维算法可以看作属于非线性度量学习:
- 等距映射(Isometric Mapping,ISOMAP)
- 局部线性嵌入(Locally Linear Embedding, LLE)
- 拉普拉斯特征映射(Laplacian Eigenmap,LE )
通过核方法来对线性映射进行扩展:
- Non-Mahalanobis Local Distance Functions
- Mahalanobis Local Distance Functions
- Metric Learning with Neural Networks
关于度量学习的一篇经典综述:Distance metric learning a comprehensive survey