A Neural Conversational Model

    xiaoxiao2021-04-18  184

    前面介绍过几篇seq2seq在机器翻译、文本蕴藏、自动文摘领域的应用,模型上每篇稍有不同,但基本的思想是接近的。本文继续分享一篇seq2seq在对话生成任务上的应用,是一篇工业界的论文,因此并没有什么理论创新。之所以选这一篇,是因为对话生成是一个非常热门的研究领域和应用领域,也可能是一个非常热门的创业领域,另外一个原因是为了充实seq2seq在各个领域中的应用这一主题。论文题目是A Neural Conversational Model,作者是来自Google Brain,毕业于UC Berkeley的Oriol Vinyals博士,论文最早于2015年7月放在arxiv上。

    模型部分不用多说,是最简单的seq2seq,架构图如下:

    本篇主要想分享的东西是结果以及一些思考。文中采用了两个数据集,IT Helpdesk Troubleshooting dataset和OpenSubtitles dataset,前者是一个关于IT类的FAQ数据集,后者是一个电影剧本的数据集。

    我们可以看一下训练后的模型生成的对话结果,这里只关注第二个数据集的结果:

    常识类问题:

    哲学类问题:

    道德类问题:

    为了对比,作者添加了一组cleverbot(cleverbot是一个在线聊天机器人)的对比结果,如下:

    从对比结果中可以看得出,本文模型生成的结果比网上流行的在线聊天机器人要看起来更加“智能”一些,之前在知乎上回答过一个问题 三代聊天机器人在技术上的区别在哪里?,我想cleverbot更接近于第二代,采用了对话检索,即对话是从一个很庞大的数据库中匹配检索来的,而本文的模型属于第三代,更加智能,给定输入生成输出,并不需要借助于人工特征。

    但bot这个领域确实还面临一些问题,就像文中作者所说,如何客观地评价生成的效果非常重要,尤其是对于一些没有标准答案的问题来说,根本无法衡量哪个结果更加好。其实不仅仅bot,在自动文摘、机器翻译等各种nlp任务中,评价都是一个很难的问题,自动评价只是从某种意义上解决了各个模型相互比较的一种需求,但在实际应用当中用户的评价更加重要,虽然有时并不是那么客观。

    来源:paperweekly

    原文链接

    相关资源:A Neural Conversational Model.pdf

    最新回复(0)