“问答与对话” 栏目所有文章列表

(按年度、期号倒序)

  • 一年内发表的文章
  • 两年内
  • 三年内
  • 全部
Please wait a minute...
  • 全选
    |
  • 谈川源,贾永辉,陈文亮,陈跃鹤
    2024, 38(5): 117-126.
    摘要 (47) PDF (1544 KB) (38)
    该文提出一种新的查询图生成方法用于知识图谱问答系统的问句解析。现有查询图生成工作覆盖的复杂问句类型有限,不能较好地处理答案为关系或涉及关系约束的问句,且未充分考虑路径结果间的组合与运算。因此,该文在查询图生成中应用节点操作的同时引入基于关系的操作,并考虑不同主路径之间的组合情况,显著提升对复杂问句的分析能力。并在此基础上,构建了中文知识图谱问答系统。此外,该文构建一份包含多种复杂类型问句的中文知识图谱问答数据集。该数据集和CCKS2019-CKBQA数据集合并后构成一个新的数据集CCKS2019-Comp,并用来测试本文方法的有效性。实验结果表明,该文方法在CCKS2019-CKBQA和CCKS2019-Comp测试集上平均F1值分别达到73.8%和73.3%。该文的新构建数据和代码已开源
  • 李伟,黄贤英,冯雅茹
    2024, 38(5): 127-135.
    摘要 (39) PDF (3736 KB) (16)
    问题生成是无监督常识问答模型的一个核心子任务,目前的方法主要是根据给定知识生成问题和答案,并为每个问题随机生成多个干扰项,然而这些方法存在干扰项与问题相关性不强且随机性较大的问题。该文提出一种面向干扰项增强的无监督常识问答模型,首先根据知识三元组生成问题和正确答案,再为问题建立对应的问题子图,得到与问题相关的三元组集合,使用注意力机制增强特征并根据问题和正确答案确定干扰项,最后使用生成的数据对模型进行训练。该模型在四个不同类型的测试任务上的结果表明,该模型优于目前的最新方法,证明了该模型的有效性。
  • 倪钰婷,张德平
    2023, 37(11): 110-119.
    摘要 (133) PDF (1815 KB) (70)
    任务型对话系统是当前自然语言处理领域的研究热点,对话状态跟踪作为任务型对话系统的核心模块,其主要任务是维护对话的上下文信息并以特定的状态形式展现。目前基于多领域的任务型对话系统由于对话场景复杂,导致对话状态难以跟踪,预测精度不高。该文提出一种融合槽位关联和语义关联的状态跟踪模型DST-S2C(Dialogue State Tracking with Slot Connection and Semantic Connection)。该模型将槽位构建成多关系图,并利用层级图注意力网络对槽位关系进行建模,提取融合多种槽位关联信息的槽位向量。同时,在槽门机制中加入词级语义相似度向量作为增强特征,获得对话上下文与槽位的局部语义信息,提高槽门机制的预测精度。实验表明,相较于基线模型,DST-S2C在MultiWOZ 2.1数据集上,联合准确率和槽位准确率分别提升了1.12%和0.39%。
  • 崔朝阳,江爱文,陈思航,刘长红,王明文
    2023, 37(11): 120-130.
    摘要 (112) PDF (4646 KB) (122)
    视觉对话是近年来热门且具挑战性的跨模态视觉语言任务。它需要机器人能够充分理解被问问题,并从历史对话和视觉内容所提供的上下文信息中适当推理,以自然语言形式就所看到的视觉内容进行有意义的多轮连续回答。目前主流模型有基于注意力机制的信息交互模型、基于图神经网络的图结构模型及基于大规模预训练的语言模型三大类,但都存在一定的局限性。该文针对语义信息融合粒度、算法学习灵活性等方面,提出了基于BERT模型的多层语义粒度视觉对话算法。算法以轻量级模型LTMI为基础,引入BERT预训练模型,实现了“词-句”多层次语义粒度的信息融合。同时,模型借鉴BERT的多任务训练过程,以自监督方式组织模型训练的文本序列微调数据集,实现跨模态特征学习。模型的跨模态嵌入过程可以随模型训练动态变化,从而提升了模型学习的灵活性。该文模型在视觉对话公开数据集VisDial v0.9和VisDial v1.0上分别与主流先进算法进行了比较。实验结果表明,该模型在保证对话回复预测精准性的基础上,进一步提升了算法的泛化能力,取得了较为优越的性能。
  • 杨陟卓,李沫谦,张虎,李茹
    2023, 37(5): 101-111.
    摘要 (264) PDF (2927 KB) (194)
    机器阅读理解是自然语言处理领域的核心任务,高考阅读理解自动问答是近年来阅读理解任务中的重要挑战。由于高考题难度较大,同时高考阅读理解问答的数据集较少,导致传统的方法答题效果欠佳。基于此,该文提出一种基于异构图神经网络的答案句抽取模型,将丰富的节点(句子节点、词语节点)和节点之间的关系(框架关系、篇章主题关系)引入图神经网络模型中,问句不仅可以通过中继词语节点与候选句节点进行交互,还可以通过框架语义和篇章主题关系与候选节点进行相互更新。不同类型的语义节点和多维度的语义关系可以帮助模型更好地对信息进行筛选、理解和推理。模型在北京高考语文真题上进行测试,实验结果表明,基于图神经网络的问答模型答题效果优于基线模型,F1值达到了78.08%,验证了该方法的有效性。
  • 杨建喜,向芳悦,李韧,李东,蒋仕新,张露伊,肖桥
    2023, 37(5): 112-121.
    摘要 (272) PDF (3672 KB) (127)
    针对现有机器阅读理解模型存在长答案不完整、短答案冗余,即模型对答案的边界信息捕捉能力有待提升问题,该文基于“问题分类+答案预测联合学习”的流水线式策略,提出了一种通过答案长短特征分类指导机器阅读理解的神经网络模型。该方法采用预训练语言模型对问题和文章进行语义表示,并以待预测答案的长短类型对相应问题进行分类,然后将问题分类的结果用于指导阅读理解中的答案预测模块,最终以多任务学习的方式得到全部答案的开始位置和结束位置。实验结果表明,该模型在CMRC2018数据集上的EM平均值为67.4%,F1平均值为87.6%,相比基线模型,分别提升了0.9%和1.1%。在自建的中文桥梁检测问答数据集上的EM平均值为89.4%、F1平均值为94.7%,相比基线模型,分别提升了1.2%和0.5%。在更少训练集规模的CMRC2018和中文繁体数据集DRCD上,该文方法也优于基线模型。
  • 金志凌,朱鸿雨,苏玉兰,唐竑轩,洪宇,张民
    2023, 37(1): 104-111,120.
    摘要 (374) PDF (1592 KB) (168)
    预训练语言模型已经广泛应用于不同自然语言处理任务,其蕴含的自注意力机制能够在“文本对子”之上形成统一的语义编码表示,从而使BERT模型的输入结构和运算模式理论上适用于处理“目标问题和候选答案”样本。然而,直接应用BERT等语言模型将面临两种局限性: ①BERT并不侧重词块、短语和子句的独立语义信息表示,使得文本在匹配过程中往往错失不同颗粒度语义相关性的感知;②BERT中的多头注意力机制不能在不同粒度的语义结构之间计算交互强度(相关性)。针对上述问题,该文提出一种基于BERT的多粒度交互推理网络,该方法将问题与候选答案的语言信息进行多粒度语义编码,丰富了句子间的语义信息与交互性。此外,该文提出句子级的编码损失策略,借以提高编码过程对关键子句的加权能力。在WPQA数据集上的实验结果显示,该方法有效提高了非事实性问题的答案选择性能。
  • 孙斌,常开志,李树涛
    2023, 37(1): 112-120.
    摘要 (445) PDF (7172 KB) (286)
    在智慧医疗中基于知识图谱的问答系统能够根据结构化的医疗知识自动回答自然语言问句,具有重要的研究意义和实际应用价值。当前的问答系统不能有效地处理包含多种意图的复杂问句,导致意图识别不全面或不正确,难以生成高质量的答案。因此,该文提出了基于语义分析和深度学习的复杂问句意图智能理解方法,首先从问句中提取医疗实体并进行依存句法分析,通过句法成分规范化将多意图复杂问句分解成若干属性类或关系类简单问句的组合,然后构建文本分类深度网络模型对每个简单问句进行意图识别,从而实现复杂问句的意图理解。为了验证该文方法的有效性和实用性,该文构建了包含6类约14万个实体的医疗知识图谱,用所提出的意图理解方法为核心开发了基于知识图谱的医疗咨询智能问答系统,根据问句意图将相应的核心实体和关系谓词转化为知识图谱检索语句,并通过检索到的相关知识生成自然语言答案。对真实医疗咨询问句测试的结果表明,该文方法可以有效地理解复杂问句的多种意图,相应的问答系统能够更全面、准确地回答与疾病、症状、药品等相关的医疗咨询问句。
  • 张智林,陈文亮
    2023, 37(1): 121-131.
    摘要 (477) PDF (1950 KB) (352)
    近年来在线问诊的需求日益增大,亟需关于自动化医疗问诊方面的研究,而医患对话理解是智能医疗研究的基础。然而在真实场景中,医患对话理解面临着实体表述复杂、状态判断困难的问题。针对这些问题,该文提出一种信息增强的医患对话理解模型,该模型强调医患对话中的角色特征和症状特征用于增强文本信息,并将症状实体语义和阅读理解语义融合用于丰富语义信息。基于所提出模型的系统在第一届智能对话诊疗评测——医患对话理解测试集上取得了91.7%的命名实体识别F1值和73.7%的症状状态识别F1值。
  • 陈爽,李莉
    2022, 36(11): 110-120,130.
    摘要 (337) PDF (2672 KB) (483)
    自动简答题评分(Automated short answer grading,ASAG)是利用自然语言处理技术减少教育工作者人工评分负担。值得注意的是,目前大多数ASAG系统存在缺陷,学生通过复制或稍微改写标准答案取得高分的欺骗行为。该文探索一种基于规则的数据增强方法研究ASAG系统的鲁棒性。然而,由于自然语言存在离散性因素,导致基于规则的数据增强合成的样本的多样性受到限制。该文提出基于知识蒸馏的数据增强策略,以并行的方式堆叠不同的单个数据增强方法。此外,该文提出基于监督对比学习的ASAG系统,使得模型能学习到有效的句子表示。该文在University of North Texas和SemEval-2013两个公开数据集上进行了评估,与基线模型相比,该文提出的系统在性能上有实质性提高。
  • 杜家驹,叶德铭,孙茂松
    2022, 36(11): 121-130.
    摘要 (377) PDF (5167 KB) (641)
    开放域问答是自然语言处理中的重要任务之一。目前的开放域问答模型总是倾向于在问题和文章之间做浅层的文本匹配,经常在一些简单问题上出错。这些错误的原因部分是由于阅读理解数据集缺少一些真实场景下常见的模式。该文提出了几种能够提高开放域问答鲁棒性的数据增广方法,能有效减少这些常见模式的影响。此外,我们还构造并公开发布了一个新的开放域问答数据集,能够评估模型在真实场景下的实际效果。实验结果表明,该文提出的方法在实际场景下带来了性能提升。
  • 林健成,蔺晓川
    2022, 36(5): 76-84,93.
    摘要 (448) PDF (3573 KB) (621)
    知识对话系统旨在使用外部知识和对话上下文生成符合客观事实的回复。已有知识对话的研究较少关注知识对话系统的在线更新的问题。在知识对话系统在线更新中,面临因与知识配对的对话语料标注成本过高而导致零对话语料可用的问题。该文针对知识对话系统零资源更新问题,提出使用Pseudo Data进行模型的在线更新。首先,针对不同的场景,分析成因并提出了不同的Pseudo Data生成策略。 此外,该文在数据集KdConv上验证了当对话语料零资源时该文提出的方法的有效性。实验结果表明,使用Pseudo Data进行更新的模型在知识利用率、主题相关性上接近使用人类标注数据的在线更新模型,能有效使得知识对话系统在对话语料零资源的情况下完成在线更新。
  • 司博文,孔芳
    2022, 36(5): 85-93.
    摘要 (429) PDF (1512 KB) (684)
    对话是一个交互的过程,回应选择旨在根据已有对话上文选择合适的回应,是自然语言处理领域的研究热点。已有研究取得了一定的成功,但仍存在两个突出的问题: 一是历史信息与备选回应间的关联关系未得到充分利用;二是对话历史的潜在语义信息挖掘不够。针对问题一,该文同时考虑对话的历史信息与备选回应信息,借助交叉注意力机制实现两者的软对齐,从而对它们之间的关联关系进行有效捕捉;针对问题二,一方面借助多头自注意力机制从多个不同视角捕获对话历史的潜在语义信息,另一方面借助高速路神经网络实现多种信息的有效桥接,在深度挖掘语义信息的同时保证信息的完整。在Ubuntu Corpus V1数据集上的对比实验表明了该方法的有效性,模型取得了88.66%的R10@1值,90.06%的R10@2值和95.15%的R10@5值。
  • 庞泽雄,张奇
    2022, 36(5): 94-101.
    摘要 (539) PDF (5046 KB) (920)
    多跳问题生成任务旨在聚合多段离散信息进行复杂推理并生成自然语言的问句。对于给定的问答对,文本中多数句子都是冗余或含有不相关信息的句子,而之前大多数方法在模型的训练和应用推断中都需要提前标注好的句级标签。然而,大规模的句子标注数据在现实场景中是难以获取的。为了解决这一问题,该文提出一种基于佐证句选择的图神经网络(Graph-based Evidence Selection network,GES)。该模型通过图神经网络从离散文档中提取出若干个关键句,然后根据对应结果引入归纳偏置来辅助问题生成。同时采用直通估计量(straight-through estimator)来端到端地训练模型。在公开数据集HotpotQA的对比实验中,该方法在问题生成的多个指标上均取得了显著的性能提升。
  • 冯广敬,刘箴,刘婷婷,许根,庄寅,王媛怡,柴艳杰
    2022, 36(5): 102-111.
    摘要 (607) PDF (1920 KB) (933)
    情感对话生成是近年来自然语言处理任务中的热门方向之一,生成带有情感色彩的响应能提高人机间的互动性。现有的情感对话生成模型情感变量单一,容易生成枯燥的响应。为确保响应语句不仅语义逻辑正确且具有多样性,该文提出了二阶段对话生成模型。第一阶段,利用DialoGPT强大的语言理解能力来确保生成语义正确的响应;为解决响应枯燥单调的缺点,该文提出融合主情感变量和混合情感变量作为全局情感变量用于后续操作;第二阶段,在第一阶段生成的响应基础上,利用全局情感变量对语句进行重写操作,从而生成高质量的响应。实验结果表明,该文提出的模型在Empathetic Dialogues数据集上的响应质量要优于基线模型。
  • 苏玉兰,洪宇,朱鸿雨,武恺莉,张民
    2022, 36(3): 91-100.
    摘要 (530) PDF (1053 KB) (784)
    问题生成的核心任务是“在给定上下文语境的前提下,对目标答案自动生成相应的疑问句”。问题生成是自然语言处理领域中富有挑战性的任务之一,其对可靠的语义编码和解码技术有着极高的要求。目前,预训练语言模型已在不同自然语言处理任务中得到广泛应用,并取得了较好的应用效果。该文继承这一趋势,尝试将预训练语言模型UNILM应用于现有“基于编码和解码架构”的问题生成系统中,并集中在其适应性问题上开展研究。该文针对预训练模型在解码阶段频繁出现的“暴露偏差”和“掩码异构”问题,分别研究了基于随机抗噪和迁移学习的训练方法,借以提升UNILM在问题生成过程中的适应能力。同时,该文在SQuAD数据集上开展问题生成实验,实验结果证明,随机抗噪和迁移学习都能优化UNILM的解码性能,使之在答案可知场景的数据划分split1和split2上,分别将BLEU4指标提升到20.31%和 21.95%;并在答案不可知场景的split1数据集上将BLEU4指标提升到17.90%。
  • 杨瑞,马志强,王春喻,斯琴
    2022, 36(3): 101-108.
    摘要 (506) PDF (1640 KB) (687)
    基于序列到序列的对话生成在实现情感状态转移时大多采用外部情感词嵌入的方式,编码器很难捕获解码器的情感状态,解码器被强制嵌入的外部情感词干扰,造成生成回复情感词堆叠及缺乏情感信息上下文。为解决上述问题,该文提出基于位置感知的情感可控对话生成模型。在编码的过程中,当前输入词向量和位置向量共同参与编码,在不影响当前输入的情况下,上文信息利用分层的编码方式增加额外编码信息。在解码的过程中,利用遮蔽语言的性能,强制模型进行内容理解和学习,编码器和解码器的联合训练能够生成符合语法的情感回复。实验结果表明,位置感知的加入进一步刻画了数据的潜在结构信息,提高了情感可控对话生成的语言质量。
  • 张禹尧,蒋玉茹,张仰森
    2021, 35(5): 101-109.
    摘要 (577) PDF (1953 KB) (1232)
    角色识别任务是近年来提出的一项自然语言处理任务,面向多方参与的对话场景,目标是将对话中的人物提及映射到具体的人物实体。目前在该任务的最优系统中,只使用了较为简单的编码器,并未针对对话文本特点进行改造创新。该文在最优系统的基础上,提出了一种基于多尺度自注意力增强的方法,借助不同尺度的自注意力,来获得更好的信息表示。首先,通过尺度较大的全局注意力,对场景内的全部对话信息进行处理,保留了全局的对话信息;然后,通过尺度较小的局部注意力,对局部范围内的对话进行计算,捕获近距离的信息之间的关联关系;最后,将不同尺度得到的信息进行融合,达到对编码信息增强的效果。在SemEval2018 Task4任务上的实验结果表明了该方法的有效性,相较于目前最优系统,在全部实体的F1值上提高了18.94%。
  • 张骏,杨燕,霍沛,孙宇翔,李程烽,李勇
    2021, 35(5): 110-117.
    摘要 (585) PDF (18277 KB) (1238)
    智能推荐型对话系统通过丰富的交互方式与用户进行交流,首先收集用户兴趣和偏好,然后主动地向用户推荐其感兴趣的内容。因此,该类系统通常涵盖多种对话类型,如问答、闲聊、推荐等。目前的研究采用流水线模型,存在误差累积的问题。该文提出基于Transformer的具有知识感知能力的对话生成模型完成面向推荐的多类型对话任务。该模型使用Transformer解码器隐式地学习对话目标路径并生成回复。此外,该文通过引入知识编码器和基于知识词表的Copy机制,提升模型对知识的感知能力。在DuRecDial数据集上的实验表明,提出的模型和基线模型相比在自动评估中取得了显著的性能提升,其中F1、BLEU与Distinct分别提升了59.08%、110%、66.14%。该模型在2020语言与智能技术竞赛: 面向推荐的对话任务中获得第三名。
  • 付煜文,马志柔,刘杰,白琳,薄满辉,叶丹
    2021, 35(4): 92-99,109.
    摘要 (662) PDF (1854 KB) (813)
    深度学习已经在许多自然语言处理任务中达到了最高水平的性能,但是这种方法通常需要大量的标注数据。该文围绕问题意图识别语料标注问题,结合深度学习和主动学习技术,实现了语料标注成本的降低。主动学习需要不断迭代地再训练,计算成本非常高,为加速这个进程,该文提出了一种适合问题意图识别任务的轻量级架构,使用双层CNN结构组成的深度学习模型。同时为更好地评估样本的价值,设计了一种结合样本的信息性、代表性与多样性的多准则主动学习方法。最终在民航客服语料下进行实验,实验结果表明该方法可减少约50%的标注工作量,同时在公开数据集TREC问题分类语料上验证了该方法的通用性。
  • 孙源,王健,张益嘉,钱凌飞,林鸿飞
    2021, 35(4): 100-109.
    摘要 (542) PDF (1756 KB) (937)
    答案选择是问答系统中的关键技术之一,而长答案选择在社区问答系统、开放域问答系统等非实体问答系统中有着重要地位。该文提出了一个结合粗粒度(句子级别)和细粒度(单词或n元单词级)信息的模型,缓解了传统句子建模方式应用于长答案选择时不能把握住句子的全部重要信息的不足和使用比较-聚合框架处理该类问题时不能利用好序列全局信息的缺点。该融合粗细粒度信息的长答案选择模型在不引入多余训练参数的情况下使用了细粒度信息,有效提升了长答案选择的准确率。在InsuranceQA答案选择数据集上的实验显示,该模型比基于句子建模的当前最高水平模型准确率提高3.30%。同时该文的研究方法可为其他长文本匹配相关研究提供参考。
  • 武恺莉,朱朦朦,朱鸿雨,张熠天,洪宇
    2021, 35(4): 110-119.
    摘要 (484) PDF (1799 KB) (849)
    问题生成旨在理解输入端的语义,从而自动生成疑问句。该文主要解决目标答案可知的问题生成任务,输入为陈述句和目标答案,输出为疑问句,该疑问句的答案为给定的目标答案。为了提高问题类型的准确率,使问句的表述更确切,该文提出一种融合问题类型及惩罚机制的问题生成模型,首先使用预训练BERT模型对问题类型进行分类,得到对应问题类型的表示。在编码端,通过门控机制将源端陈述句与问题类型进行融合,得到具有问题类型信息的源端表示。此外,在现有工作中观测到生成的问句和目标答案存在重复词的现象。为了缓解上述问题,该文提出一种惩罚机制,即在损失函数中加入对重复词的惩罚。实验证明,该文所提方法有效提高了问题类型的准确率,并在一定程度上降低了生成重复词的情况。在SQuAD数据集上BLEU-4值达到18.52%,问题类型的准确率达到93.46%。
  • 陈峥,任建坤,袁浩瑞
    2021, 35(4): 120-128.
    摘要 (670) PDF (2538 KB) (902)
    机器阅读理解是自然语言处理中的一项重要而富有挑战性的任务。近年来,以BERT为代表的大规模预训练语言模型在此领域取得了显著的成功。但是,受限于序列模型的结构和规模,基于BERT的阅读理解模型在长距离和全局语义构建的能力有着显著缺陷,影响了其在阅读理解任务上的表现。针对这一问题,该文提出一种融合了序列和图结构的机器阅读理解的新模型。首先,提取文本中的命名实体,使用句子共现和滑动窗口共现两种方案构建命名实体共现图;基于空间的图卷积神经网络学习命名实体的嵌入表示;将通过图结构得到的实体嵌入表示融合到基于序列结构得到的文本嵌入表示中;最终采用片段抽取的方式实现机器阅读理解问答。实验结果表明,与采用BERT所实现的基于序列结构的阅读理解模型相比,融合序列和图结构的机器阅读理解模型EM值提高了7.8%,F1值提高了6.6%。
  • 孙付,李林阳,邱锡鹏,刘扬,黄萱菁
    2021, 35(2): 99-106.
    摘要 (677) PDF (2954 KB) (1562)
    处理机器阅读理解任务时,识别其中没有答案的问题是自然语言处理领域的一个新的挑战。该文提出U-Net模型来处理这个问题,该模型包括3个主要成分: 答案预测模块、无答案判别模块和答案验证模块。该模型用一个U节点将问题和文章拼接为一个连续的文本序列,该U节点同时编码问题和文章的信息,在判断问题是否有答案时起到重要作用,同时对于精简U-Net的结构也有重要作用。与基于预训练的BERT不同,U-Net的U节点的信息获取方式更多样,并且不需要巨大的计算资源就能有效地完成机器阅读理解任务。在SQuAD 2.0中,U-Net的单模型F1得分72.6、EM得分69.3,U-Net的集成模型F1得分74.9、EM得分71.4,均为公开的非基于大规模预训练语言模型的模型结果的第一名。
  • 李少博,孙承杰,徐振,刘秉权,季振洲,王明江
    2021, 35(2): 107-115.
    摘要 (722) PDF (1384 KB) (1493)
    基于“编码—解码”结构的端到端生成式对话模型所生成的回复多样性差、信息量少,这在很大程度上阻碍了对话的进一步扩展和深入。而知识图谱作为一种高度结构化的知识,能够为对话提供相关知识以及话题转移关系,可以用来提升对话质量。因此,该文提出了一种基于知识拷贝机制的生成式对话模型,首先使用基于知识图谱的映射机制对对话内容进行处理,随后使用知识拷贝机制直接将知识图谱中的知识引入到生成的回复中,并使用注意力机制选择知识图谱中的信息来指导回复的生成。在“2019语言与智能技术竞赛”中的“知识驱动对话”数据集上,相较竞赛举办方提供的生成式基线模型,该文所提出模型生成的回复在字符级别的F1和多样性指标DISTINCT-1上分别有10.47%和4.6%的提升。
  • 杨陟卓,李春转,张虎,钱揖丽,李茹
    2020, 34(12): 73-81.
    摘要 (516) PDF (2292 KB) (930)
    相对于普通阅读理解,高考语文阅读理解难度更大,问句更加抽象,答案候选句的抽取除了注重与问句的相似性分析,还注重对材料内容以及作者的观点的概括归纳。因此该文提出了利用汉语框架网(Chinese FrameNet)抽取与问句语义相似的候选句的方法,通过识别篇章主题(段落主题句和作者观点句),生成与问句相关的内容要点以及作者的观点态度,最终选取top 6作为答案句。在近12年北京市高考真题上进行测试,召回率达到了68.69%,验证了该方法的有效性。
  • 王思宇,邱江涛,洪川洋,江岭
    2020, 34(11): 104-112.
    摘要 (833) PDF (2803 KB) (2273)
    现阶段,针对商品的自动问答主要由意图识别和答案配置来实现,但问题答案的配置依赖人工且工作量巨大,容易造成答案质量不高。随着知识图谱技术的出现和发展,基于知识图谱的自动问答逐渐成为研究热点。目前,基于知识图谱的商品自动问答主要是通过规则解析的方法将文本形式问题解析为知识图谱查询语句来实现。虽然减少了人工配置工作,但其问答效果受限于规则的质量和数量,很难达到理想的效果。针对上述问题,该文提出一种基于知识图谱和规则推理的在线商品自动问答系统。主要贡献包括: ①构建一个基于LSTM的属性注意力网络SiameseATT(Siamese attention network)用于属性选择; ②引入了本体推理规则,通过规则推理使得知识图谱能动态生成大量三元组,使得同样数据下可以回答更多问题。在NIPCC-ICCPOL 2016 KBQA数据集上的实验显示,该系统具有很好的性能。相比一些更复杂的模型,该问答系统更适合电商的应用场景。
  • 王孟宇,俞鼎耀,严睿,胡文鹏,赵东岩
    2020, 34(8): 78-85.
    摘要 (2565) PDF (1201 KB) (4559)
    多轮对话任务是自然语言处理中最具有实用价值的技术之一,该任务要求系统在产生通顺回答语句的同时能够照顾到上下文信息。近年来,出现了一大批以HRED(hierarchical recurrent encoder-decoder)模型为基础的多轮对话模型,其运用多层级的循环神经网络来编码上下文信息,并在Movie-DiC等英文对话数据集上取得了不错的结果。在2018年京东举办的中文多轮对话大赛中,京东向参赛选手公布了一批高质量的真实客服对话语料。该文在此数据上进行实验,针对HRED模型的缺点以及在中文语料下的表现进行改进,提出基于注意力和跨步融合机制与HRED模型结合的方案,实验结果表明,该方案取得了较大的性能提升。
  • 陈鑫,李伟康,洪宇,周夏冰,张民
    2019, 33(10): 99-108,118.
    摘要 (652) PDF (2967 KB) (627)
    问句复述识别旨在识别两个自然问句是否语义一致。目前,基于表示学习和深度神经网络架构的复述识别技术已取得较好效果。但是,这类方法往往面临复杂度较高且训练难度较大的瓶颈。针对这一问题,该文提出一种快速的多卷积自交互匹配方法。该方法融合了多种句子特征和词义特征,并由此形成分布式表示。在此基础上,这一方法利用卷积神经网络获取短语级的句子向量表示,并利用自交互融合技术将词级与短语级的向量表示进行充分融合,借以获得多粒度句子向量表示。该文将这一方法应用于判定自然语句是否互为复述的二元分类任务中,利用Quora标准问句复述识别语料进行测试。实验结果证明,在不引入外部数据的情况下,该文所提方法与基于双向多视角匹配的基准模型具有可比的性能,但在空间复杂度上具有较高的优越性,并且获得更快训练速度。具体地,该方法训练所需的物理显存比基准模型方法下降80%,训练迭代速度快19倍。
  • 马志强,王春喻,贾文超,杜宝祥
    2023, 37(8): 104-114.
    摘要 (220) PDF (2737 KB) (489)
    情感对话生成模型在生成回复中并未考虑对话双方的情感变化,导致生成回复的情感存在不确定性,降低了用户的对话意愿。该文基于情感诱发相关研究提出了一种情感导向回复生成模型EGRGM,模型添加了情感导向门,控制机器情感状态合理生成,逐步引导用户情感向目标情感自然转化。实验以NLPCC 2018的开放领域多轮对话语料为基础,基于GPT-2构建情感导向对话回复生成实验系统,开展了情感引导、逻辑关联以及对话持续等实验。实验结果表明,模型在情感引导方面与最优模型相比提高了13%,能够根据对话历史和指定的引导目标情感极性,控制用户回复生成的情感,实现对用户情感的引导。