Q & A
Q
请问崔博士,在 EntityLink 部分可以推荐一些比较好的 link 工具吗?
崔万云
应该还没有特别好的,我们在自己实现。不过有大量的相关文献。英文也有现成的应该。中文的必须自己实现。可以搜一下 gerhard weikum 在 sigmod 的一个教程,里面有提到。
Q
请问一下,在基于多粒度的神经网络模型中,没一种特征采用了不同粒度的表示,请问在用不同粒度表示的向量在 merge 的时候是直接 concatenate 还是加权求和,或者其他?如果是加权的话,对于不同的粒度表示的权重是否需要学习,还是根据经验设定?
崔万云
先串行,上面再接一层,学习融合参数。
Q
QA 的两种解法:模板和深度学习,工业界有没将这两个混合的,模板用来保证可控,神经网络用来扩召回?
崔万云
这个我不是特别清楚。融合起来就很难保证可控了。
Q
请问下,如果想做知识图谱的 Demo,怎么着手呢?
崔万云
知识图谱 demo 是指图像还是还是数据存储?可以先参考 cndbpedia 设计。
Q
请教下,多粒度 dnn 的训练数据是如何生成的,比如从 cn db 生成?
崔万云
是的。先从问题中生成候选实体,然后将所有关联属性作为候选答案。
Q
请问在做问题相似的时候,标注数据是代表匹配程度的分数还是 01?
崔万云
这是一个整体的模型。最终的输出的标注数据是 0 和 1 。
Q
基于神经网络的问答在处理复杂问题的时候是不是也能够处理成一个端到端的分类问题?如果可以,在候选答案的抽取和校验上又会存在哪些挑战?
崔万云
可以按照我 talk 中给的思路,利用 language model 做一个无监督的出来。候选答案抽取和复杂问题分解是两个阶段的问题。候选答案抽取主要用在简单问题的理解上。
Q
知识图谱领域问答系统和图谱补全哪个更有学习的空间,LSTM 的处理对问答系统的准确性有多少影响呢?
崔万云
应该都是很难的问题。相比之下,知识图谱补全的相关研究更多,也更可行一些。lstm 对比其他模型的效果,我们暂时没有测试。
Q
你好,那个复杂问题分成小问题那块,能具体说说吗?
崔万云
就是每一个字句看是否合理,子句合理性用 language model 计算。
来源:paperweekly
原文链接
相关资源:七夕情人节表白HTML源码(两款)