首页 试题详情
单选题

关于CBOW与Skip-Gram算法,以下说法不正确是?

ACBOW和Skip-Gram都是可以训练向量的方法,但是skip-Gram要比CBOW更快一些

BCBOW是根据某个词前面的n个或者前后n个连续的词,来计算某个词出现概率

C无论是CBOW模型还是skip-gram模型,都是可以Huffman树作为基础的

DSkip-Gram就是根据某个词然后分别计算它前后几个词的各个概率

正确答案:A (备注:此答案有误)

相似试题

  • 单选题

    关于CBOWSkip-Gram算法,以下说法不正确是?

    答案解析

  • 单选题

    关于CBOWSkip-Gram算法,以下说法不正确的是()

    答案解析

  • 判断题

    Word2Vec中提出了两种词向量训练算法CBOWSkip-gram

    答案解析

  • 判断题

    Skip-Gram模型不支持可变文本长度,而CBOW支持。

    答案解析

  • 判断题

    在word2vec中,两种主要的实现方式分别是CBOWSkip-Gram

    答案解析

热门题库