word2vec和word embedding有什么区别?

我知道这两个都能将词向量化,但有什么区别?
这两个术语的中文是什么?

from: https://www.zhihu.com/question/53354714

 
个人理解是,word embedding 是一个将词向量化的概念,来源于Bengio的论文《Neural probabilistic language models》,中文译名有”词嵌入”。
word2vec是谷歌提出一种word embedding 的工具或者算法集合,采用了两种模型(CBOW与skip-gram模型)与两种方法(负采样与层次softmax方法)的组合,比较常见的组合为 skip-gram+负采样方法。
可以查看以下两个来源,
word embedding :Word embedding – Wikipedia
word2vec中的数学原理详解:word2vec 中的数学原理详解(一)目录和前言
对于起源与其他的word embedding方法可以查看 Deep Learning in NLP (一)词向量和语言模型

 

 

Word embedding是一个普适的概念,或者任务。为区别one-hot的词向量,可翻译成词嵌入。

Word2vec是Google实现word embedding的一种具体的approach。因为速度快效果好名字fancy而广为人知。任何场合直接使用,不用翻译。

版权声明:本文为bonelee原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/bonelee/p/8425944.html