embedding和word2vec
有谁可以解释下wordembedding :将one-hot向量转换成低维词向量的这一层(虽然大家都不称之为一层,但在我看来就是一层),因为word2vec的输入是one-hot。 one-hot可看成是1*N(N是词总数)的矩阵,与...
用户登录
还没有账号?立即注册
用户注册
投稿取消
| 文章分类: |
|
还能输入300字
上传中....
亖呉㝋盀