如何解决对话式AI-Keras LSTM和密集层-问答模型
请参见下面的图片。
我的问题是关于question_input
和text_input
的LSTM输出及其串联,以及我们如何告诉Dense
层它真正在寻找的是问题的答案(question_input
根据text_input
中提供的信息。
以下是我了解的步骤:
我们从10000个单词长的词汇量开始,然后将其通过Embedding层,以获取词汇表中10000个单词中每个单词的64维嵌入向量。然后从此向量数组或向量矩阵返回text_input
的嵌入向量,称为embedded_text
。
类似地,我们返回embedded_question
。
问题:
1)
当我们通过自己的LSTM编码器运行embedded_text
和embedded_question
来获得encoded_text
和encoded_question
时,分别得到长度为32和16的一维矢量,这个LSTM编码代表什么?我们通过两个独立的LSTM编写了大量文本-一个是问题,另一个是参考文本。但是到目前为止,我们还没有问LSTM的问题,我们希望在(32,)
和(16,)
编码中找到答案吗? (32,)
编码仅代表权重还是输入?我认为这些应该作为输入,因为此结果被连接起来,并在以后馈送到softmax
激活函数中。将在softmax
2)
通过创建(32,)
编码,然后将其编码到softmax中,我们如何仍然知道我们从(500,)
层获得的Dense
答案是关于这个问题的我们问了吗?
谢谢!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。