word embedding 的意思是:给出一个文档,文档就是一个单词序列比如 “ A B A C B F G A B A C B F G ABACBFG”, 希望对文档中每个不同的单词都得到一个对应的向量(往往是低维向量)表示。比如,对于这样的“ A B A C B F G A B A C B F G ABACBFG”的一个序列,也许我们最后能得到:A对应的向量为[0.1 0.6 -0.5],B对应的向量为[-0.2 0.9 0.7] (此处的数值只用于示意)之所以希望把每个单词变成一个向量,目的还是为了方便计算,比如“求单词A的同义词”,就可以通过“求与单词A在cos距离下最相似的向量”来做到。
概念一: iteration: 数据进行一次前向-后向的训练(也就是更新一次参数) batchsize:每次迭代(iteration)训练图片的数量 epoch:1个epoch就是将所有的训练图像全部通过网络训练一次 例如:假如有1280000张图片,batchsize=256,则1个epoch需要1280000/256=5000次iteration 假如它的max-iteration=450000,则共有450000/5000=90个epoch
概念二: 深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别: (1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练; (2)iteration:1个iteration等于使用batchsize个样本训练一次; (3)epoch:1个epoch等于使用训练集中的全部样本训练一次; 举个例子,训练集有1000个样本,batchsize=10,那么: 训练完整个样本集需要: 100次iteration,1次epoch。 epoch和iteration都是指的深度学习中的。
这种方法是先将语料库中的所有词汇汇总得到N个词汇,并将语料库中的每个文档个体生成一个N维的向量, 如果存在某个词,就把这个词对应的维度置1,否则为0。