如何解决Gensim的word2vec在第1个时期损失了0?
我正在使用Gensim库的Word2vec模块来训练单词嵌入,数据集是400k句子和100k唯一单词(不是英语)
我正在使用此代码来监视和计算损失:
class MonitorCallback(CallbackAny2Vec):
def __init__(self,test_words):
self._test_words = test_words
def on_epoch_end(self,model):
print("Model loss:",model.get_latest_training_loss()) # print loss
for word in self._test_words: # show wv logic changes
print(model.wv.most_similar(word))
monitor = MonitorCallback(["MyWord"]) # monitor with demo words
w2v_model = gensim.models.word2vec.Word2Vec(size=W2V_SIZE,window=W2V_WINDOW,min_count=W2V_MIN_COUNT,callbacks=[monitor])
w2v_model.build_vocab(tokenized_corpus)
words = w2v_model.wv.vocab.keys()
vocab_size = len(words)
print("Vocab size",vocab_size)
print("[*] Training...")
# Train Word Embeddings
w2v_model.train(tokenized_corpus,total_examples=len(tokenized_corpus),epochs=W2V_EPOCH)
问题是从时期1开始,损失为0,被监视单词的向量根本不变!
[*] Training...
Model loss: 0.0
Model loss: 0.0
Model loss: 0.0
Model loss: 0.0
那么这是什么问题?这正常吗?标记化语料库是列表的列表,类似于tokenized_corpus [0] = [“ word1”,“ word2”,...]
我用google搜索,似乎gensim的某些旧版本在计算损失函数时遇到了问题,但是它们是大约一年前的事,似乎应该立即修复?
我也尝试了此问题的答案中提供的代码,但仍然损失0:
Loss does not decrease during training (Word2Vec,Gensim)
EDIT1:添加了compute_loss = True之后,就会显示出损失,但损失会越来越高,最上面的相似词及其相似性完全不变:
Model loss: 2187903.5
Model loss: 3245492.0
Model loss: 4103624.5
Model loss: 4798541.0
Model loss: 5413940.0
Model loss: 5993822.5
Model loss: 6532631.0
Model loss: 7048384.5
Model loss: 7547147.0
解决方法
代码的主要问题是您没有使用Word2Vec
初始化参数来切换损耗跟踪:compute_loss=True
(请参见https://radimrehurek.com/gensim/models/word2vec.html#gensim.models.word2vec.Word2Vec的“参数”部分)
即使有此修复程序,损失报告仍然是相当多的错误(截至gensim-3.8.3
和2020年8月的撰写):
- 这不是人们可能期望的每个时期的总数或每个示例的平均值。 (因此,作为一种解决方法,如果您需要此方法,则回调应记住每个值的末尾的最后一个值并计算增量,或将内部计数器重置为
0.0
。) - 在大型培训中肯定会失去准确性,最终变得毫无用处。 (这可能对您来说不是问题。)
- 由于多线程值覆盖,它可能会丢失一些提示。 (这对您来说可能不是一个实际问题,具体取决于您咨询损失价值的原因。)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。