国产高清视频91_亚洲国产aⅴ精品一区二区_91视频大全_久艹精品_亚洲一区二区三区乱码aⅴ蜜桃女_国产成人毛片

您的位置:首页 >机器人 >

斯坦福李纪为博士毕业论文:让机器像人一样交流

自图灵测试被提出以来,一代代研究者提出了各种方法试图通过测试,但我们目前距离完成任务还有很长一段路要走。在本论文中,我们受限简要回顾一下过去几十年里人们提出的各种系统。具体来说,这其中包括三种对话系统:开放领域聊天系统、目标导向的框架系统以及问答交互(QA)对话系统。我们会讨论它们的成功应用、优缺点以及为什么它们仍然无法通过图灵测试。本论文将着重讨论如何改进聊天系统和交互式问答(QA)系统。

图1.1使用IBM模型消息与回复之间的字对齐。图片来自MichelGalley。

第二章背景

2.1序列到序列生成

SEQ2SEQ模型可以被视为一个用输入内容生成目标句的基础框架,适用于多种自然语言生成任务,例如利用给定的英文句子生成法语句子的机器翻译;通过生成响应功能在接收到源信息时生成响应;在问答任务中针对问题做出回答;或是对一段文档生成总结性短句等等。

本段将介绍语言模型基础,循环神经网络和长短期记忆网络(LSTM),它们被视为SEQ2SEQ模型的基础。随后,我们将详细解读SEQ2SEQ模型的基础。最后,我们将讨论不同SEQ2SEQ模型的算法,如注意力(attention)机制。

2.2记忆网络

记忆网络(Westonetal.,2015;Sukhbaataretal.,2015)是一类神经网络模型,可以通过操作内存中的内容(存储、取回、过滤和重用)来进行自然语言推理。记忆网络中的存储器部分可以嵌入长期记忆(例如,关于真实世界的常识)和短期上下文(例如,最近的几段对话)。记忆网络已被成功地应用于很多自然语言任务中了,例如问答系统(Bordesetal.,2014;Westonetal.,2016),语言建模(Sukhbaataretal.,2015;Hilletal.,2016)以及对话(Dogeetal.,2016;Bordes&Weston,2017)。

2.3策略梯度方法

策略梯度法(Aleksandrovetal.,1968;Williams,1992)是一类强化学习模型,通过使用梯度下降预测奖励的参数化策略来学习参数。与其他强化学习模型(如Q学习模型)比较而言,策略梯度方法不会受到如缺乏价值函数等方面的问题(因为它不需要明确估算价值函数),或由于高维空间连续状态或动作导致难以控制。

第三章用交互信息避免泛化回复

当我们将SEQ2SEQ模型应用与生成回复的时候,一个严重的问题脱颖而出:神经对话模型总是会倾向于生成无意义的回复,例如「Idon'tknow」、「Idon'tknowwhatyouaretalkingabout」(Serbanetal.,2015;Vinyals&Le,2015)。从表3.1中我们可以看出,很多排名靠前的回复是泛化的。那些看起来更加有意义、更有针对性的回复可以在非最佳列表中找到,但是排名非常靠后。这种现象是因为通用性回复如Idon'tknow在对话数据集中相对较高的频率。MLE(最大似然估计)目标函数对源到目标的单向依赖性进行了建模,由于无意义回复没有意义,有意义回复多种多样,系统总会倾向于生成这些无意义的回复。直观上,似乎不仅要考虑回复与信息的相关性,也需要考虑传递的信息是否具有意义:如果回答是「Idon'tknow」,我们就难以猜测对话者开始询问的是什么。

我们建议通过最大互信息(MaximumMutualInformation,MMI),作为测量输入和输出之间的相互依赖性的优化目标来捕获这种直觉,作为传统MLE目标函数中源到目标单向依赖性的反向。我们提出了使用MMI作为目标函数神经生成模型的实际训练和解码策略。我们证明了使用MMI可以显著减少泛化回复产生的几率,在BLEU和人类评测的结果中得出了显著提升性能的结果。

表3.1从OpenSubtitles数据集2000万对话配对中训练的4层SEQ2SEQ神经模型生成的回复。解码实现的Beamsize被设为200。最大概率的回复选项为N-best列表中平均可能性对数似然的最高概率。更低的概率回复是手动选择的。

表3.4:在Open-Subtitles数据集上SEQ2SEQ基线和MMI-antiLM模型的对比。

第四章解决说话者一致性问题

目前聊天系统的一个严重的问题是缺少说话者一致性。这是由于训练集中包含了不同的人的谈话,而且一个解码模型总是选择最大似然的应答,从而使输出变得非常的混乱且不一致。

在这一章中,我们讨论了应对不一致问题的方法以及如何为数据驱动的系统赋予合乎逻辑的「人格角色」(persona)以模仿类人的行为,无论是个人助理,个性化的「阿凡达」智能体,亦或是游戏角色。为了这个目的,我们将把persona定义为一个人工智能体在对话交流中所扮演或表现出来的一种特征。persona可以看成身份要素(背景事实或用户外形)、语言行为和交互方式的混合物。persona是有适应性的,由于智能体在面对不同的人类谈话者的时候需要按交互的需求表现不同的侧面。

表5.1:左列:使用SEQ2SEQ模型和OpenSubtitles数据集训练的两个智能体之间的对话模拟。第一轮(指标1)是由作者输入的,然后两个智能体轮流应答,一个智能体的输入将作为另一个的在前生成轮。右列:使用我们提出的强化学习模型的对话模拟。新的模型拥有更具前瞻性的言辞(诸如「你为什么要问这个问题」、「我和你一起去」),在掉入对话黑洞之前能进行更持久的对话。

为了应对这些挑战,我们需要一个拥有以下能力的对话框架:

(1)更好的奖励函数;

(2)对生成的某一句话的长期影响进行建模。

为了达到这些目的,我们利用了强化学习,其在MDP和POMDP对话系统中早已被广泛应用。我们提出了神经网络强化学习生成方法,可以优化长期的奖励。我们的模型使用了编码器-解码器架构作为主干,让两个机器人模拟对话。这样的话,通过优化奖励函数,探索可能行为的空间。我们认为针对对话好的奖励函数应该有如下特点:好的谈话是具备前瞻性或交互性(一轮带动下一轮对话)、提供有用以及合乎逻辑的信息。我们可以通过这些方面定义奖励函数,从而通过奖励函数来优化编码器-解码器模型。

在训练过程中,我们使用随机梯度下降的更新策略,借用了YoshuaBengio在09年提出的课程学习(Curriculumlearning)的策略,逐渐增加对话模拟的轮数。这样训练的复杂度逐渐增加。

实验结果(表5.1中右侧的样本结果)表明我们的方法产生了更持久的对话,并且相比使用MLE目标训练的标准SEQ2SEQ模型,能生成更具交互性的应答。

两个对话机器人之间的对话模拟

模拟两个机器人轮流对话的过程是这样的,在一开始,从训练集中随意找到一句话作为输入给第一个机器人,这个代理通过编码器网络把这个输入编码成一个隐层向量,然后解码器来生成回答。之后,第二个机器人把之前那个机器人输出的响应和对话历史结合起来,重新通过编码器网络编码得到一个隐层向量(相当于更新了对话的状态),然后通过解码器网络生成一个新的回复,并传给第一个机器人。这个过程不断被重复下去:

最新动态
相关文章
斯坦福李纪为博士毕业论文:让机器像人...
华硕联手腾讯发布首款智能机器人在京举...
电动汽车通过光伏路面成套技术可以边跑...
缺牙患者来看看种植牙手术机器人如何为...
爆料称微信订阅号正迎来重大改版?官方...
俄罗斯上空惊现神秘黑圈 是UFO吗?
? 主站蜘蛛池模板: 国产一区二区高清在线 | 丰满人妻熟妇乱又伦精品视频三 | 精品久久久久久久久免费影院 | 丰满少妇人妻hd高清大乳在线 | 亚洲精品一线二线三线无人区 | 亚洲精品无码aⅴ中文字幕蜜桃 | 性欧美牲交xxxxx视频欧美 | 国产日韩精品欧美一区灰灰 | 成人免费午间影院在线观看 | 日韩欧美在线观看成人 | 国产在线不卡 | 边喂奶边中出的人妻 | 久久中文字幕无码一区二区 | 欧美国产一区二区三区激情无套 | a亚洲va韩国va欧美va久久 | 日韩精品亚洲aⅴ在线影院 日韩精品亚洲精品485页 | 91看片淫黄大片一级在线观看 | 亚洲欧美综合在线观看 | 无码人妻一区二区三区兔费 | 欧美一区二区三区在线可观看 | 日本免费一区二区久久人人澡 | 开心色播五月 | 99九九成人免费视频精品 | 欧美中文在线 | 91小视频在线观看 | 99视频这里有精品 | 92精品国产自产在线观看48 | 美女内部福利视频在线观看 | 日本精品在线观看视频 | 最新亚洲人成网站在线观看 | 啪啪无码人妻丰满熟妇 | 成人在线小视频 | 日韩少妇激情一区二区 | 久久福利电影网 | 九九线精品视频在线观看 | 国内精品久久久久鸭 | 精品国产三级a∨在线 | 奇米影视亚洲四色8888 | 国产黄站 | 91免费播放人人爽人人快乐 | 日韩在线看片中文字幕不卡 |