python nlp自动理解自然语言基本流程是什么?

我们一直在各种文本和 Python 编程语言的帮助自下而上的探索语言。然而,我们也对
通过构建有用的语言技术,开拓我们的语言和计算知识感兴趣。现在,我们将借此机会从代
码的细节中退出来,描绘一下自然语言处理的全景图。
纯粹应用层面,我们大家都需要帮助才能在网络上的文本中找到有用的信息。搜索引擎
在网络的发展和普及中发挥了关键作用,但也有一些缺点。它需要技能、知识和一点运气才
能找到这样一些问题的答案:“我用有限的预算能参观费城和匹兹堡的哪些景点?”,“专家们
怎么评论数码单反相机?”,“过去的一周里可信的评论员都对钢材市场做了哪些预测?”。让
计算机来自动回答这些问题,涉及包括信息提取、推理与总结在内的广泛的语言处理任务,
将需要在一个更大规模更稳健的层面实施,这超出了我们当前的能力。
哲学层面,构建智能机器是人工智能长久以来的挑战,语言理解是智能行为的重要组成
部分。这一目标多年来一直被看作是太困难了。然而,随着 NLP 技术日趋成熟,分析非结
构化文本的方法越来越健壮,应用越来越广泛,对自然语言理解的期望变成一个合理的目标
再次浮现。
在本节中,我们将描述一些语言理解技术,给你一种有趣的挑战正在等着你的感觉。

词意消歧
在词意消歧中,我们要算出特定上下文中的词被赋予的是哪个意思。思考存在歧义的词
serve 和 dish:
(2) a. serve: help with food or drink; hold an office; put ball into play
b. dish: plate; course of a meal; communications device
在包含短语 he served the dish 的句子中,你可以知道 serve 和 dish 都用的是它们与食
物相关的含义。在短短的 3 个词的地方,讨论的话题不太可能从体育转向陶器。这也许会迫
使你眼前产生一幅怪异的画面:一个职业网球手正把他的郁闷发泄到放在网球场边上的陶瓷
茶具上。换句话说,自动消除歧义需要使用上下文,利用相邻词汇有相近含义这样一个简单
的事实。在另一个有关上下文影响的例子是词 by,它有几种含义,例如:the book by Che
sterton(施事——Chesterton 是书的作者);the cup by the stove(位置格——炉子在杯子旁
边);submit by Friday(时间——星期五前提交)。观察(3)中斜体字的含义有助于我们解释
by 的含义。
(3) a. The lost children were found by the searchers (施事)
b. The lost children were found by the mountain (位置格)

指代消解
一种更深刻的语言理解是解决“谁对谁做了什么”,即检测主语和动词的宾语。虽然你在
小学已经学会了这些,但它比你想象的更难。在句子 the thieves stole the paintings 中,很
容易分辨出谁做了偷窃的行为。考虑(4)中句子的三种可能,尝试确定是什么被出售、被抓
和被发现(其中一种情况是有歧义的)。
(4) a. The thieves stole the paintings. They were subsequently sold.
b. The thieves stole the paintings. They were subsequently caught.
c. The thieves stole the paintings. They were subsequently found.
要回答这个问题涉及到寻找代词 they 的先行词 thieves 或者 paintings。处理这个问题的
计算技术包括指代消解(anaphora resolution)——确定代词或名词短语指的是什么——和
语义角色标注(semantic role labeling)——确定名词短语如何与动词相关联(如施事,受
事,工具等)。

自动生成语言
如果我们能够解决自动语言理解等问题,我们将能够继续那些包含自动生成语言的任
务,如自动问答和机器翻译。在自动问答中,一台机器要能够回答用户关于特定文本集的问
题:
(5) a. Text: … The thieves stole the paintings. They were subsequently sold. …
b. Human: Who or what was sold?
c. Machine: The paintings.
机器的回答表明,它已经正确的计算出 they 是指 paintings,而不是 thieves。在机器翻
译中,机器要能够把文本翻译成另一种语言文字,并准确传达原文的意思。在把例子文本译

成法文过程中,我们不得不在第二句选择代词的性别:ils(男性)如果 thieves 被出售,ell
es(女性)如果 paintings 被出售。正确的翻译实际上取决于对代词的正确理解。
(6) a. The thieves stole the paintings. They were subsequently found.
b. Les voleurs ont volé les peintures. Ils ont été trouvés plus tard. (the thieves)
c. Les voleurs ont volé les peintures. Elles ont été trouvées plus tard. (the
paintings)
所有这些例子中,弄清楚词的含义、动作的主语以及代词的先行词是理解句子含义的步
骤,也是我们希望语言理解系统能够做到的事情。

机器翻译
长久以来,机器翻译(MT)都是语言理解的圣杯,人们希望能找到从根本上提供高品
质的符合语言习惯的任意两种语言之间的翻译。其历史可以追溯到冷战初期,当时自动翻译
的许诺带来大量的政府赞助,它也是 NLP 本身的起源。
今天,特定语言之间实用的翻译系统已经存在,有些已经集成到搜索引擎中了。但是,
这些系统有一些严重的缺点。我们可以在 NLTK 的“babelizer”的帮助下探索它们(当你使用
from nltk.book import * 导入本章的材料时,已经自动装载了)。这个程序把提交的英
文句子翻译成指定语言,然后把结果重新翻译回英文。这样重复 12 次结束或者得到曾经产
生过的翻译时(表示一个循环)结束。
>>> babelize_shell()
NLTK Babelizer: type ‘help’ for a list of commands.
Babel> how long before the next flight to Alice Springs?
Babel> german
Babel> run
0> how long before the next flight to Alice Springs?
1> wie lang vor dem folgenden Flug zu Alice Springs?
2> how long before the following flight to Alice jump?
3> wie lang vor dem folgenden Flug zu Alice springen Sie?
4> how long before the following flight to Alice do you jump?
5> wie lang, bevor der folgende Flug zu Alice tun, Sie springen?
6> how long, before the following flight to Alice does, do you jump?
7> wie lang bevor der folgende Flug zu Alice tut, tun Sie springen?
8> how long before the following flight to Alice does, do you jump?
9> wie lang, bevor der folgende Flug zu Alice tut, tun Sie springen?
10> how long, before the following flight does to Alice, do do you jump?
11> wie lang bevor der folgende Flug zu Alice tut, Sie tun Sprung?
12> how long before the following flight does leap to Alice, does you?
请看,该系统正确地把 Alice Springs 从英文翻译成了德文(第 1 行),但在翻译回英文
时却以 Alice jump 结束(第 2 行)。介词 before 一开始被翻译成对应的德文介词 vor,但后
来变成了连词 bevor(第 5 行)。第 5 行以后的句子变的没有意义(但请注意以逗号指示的各
种分句,以及从 jump 到 leap 的变化)。翻译系统不能识别一个词是某个名字的一部分,并
且弄错了语法结构。语法问题在下面的例子中更加明显。是约翰发现了猪,还是猪找到约翰?
>>> babelize_shell()
Babel> The pig that John found looked happy

Babel> german
Babel> run
0> The pig that John found looked happy
1> Das Schwein, das John fand, schaute gl?cklich
2> The pig, which found John, looked happy
机器翻译是困难的,因为一个给定的词可能有几种不同的解释(取决于它的意思),也
因为必须改变词序才能与目标语言的语法结构保持一致。今天,这些困难遇到新情况,从新
闻和政府网站发布的两种或两种以上的语言文档中可以收集到大量的相似文本。给出一个德
文和英文双语的文档或者一个双语词典,我们就可以自动配对组成句子,这个过程叫做文本
对齐。一旦我们有一百万或更多的句子对,就可以检测出相应的词和短语,并建立一个能用
来翻译新文本的模型。

人机对话系统
在人工智能的历史,主要的智能测试是一个语言学测试,叫做图灵测试:一个响应用户
文本输入的对话系统能否表现的自然到我们无法区分它是人工生成的响应?相比之下,今天
的商业对话系统能力是非常有限的,但在较小的给定领域仍然有些作用,就像我们在这里看
到的:
S: How may I help you?
U: When is Saving Private Ryan playing?
S: For what theater?
U: The Paramount theater.
S: Saving Private Ryan is not playing at the Paramount theater, but
it’s playing at the Madison theater at 3:00, 5:30, 8:00, and 10:30.
你不能要求这个系统提供驾驶指示或附近餐馆的细节,除非所需的信息已经被保存并且
合适的问题答案对已经被纳入语言处理系统。
请看,这个系统似乎了解用户的目标:用户询问电影上映的时间,系统正确的判断出用
户是想要看电影。这一推断看起来如此明显,你可能都没有注意到它,一个自然语言系统需
要被赋予这种自然的交互能力。没有它,当问到:“你知道拯救大兵瑞恩什么时候上映?”时,
系统可能只会回答一个冷冷的毫无用处的“是的”。然而,商业对话系统的开发者使用上下文
语境假设和业务逻辑确保在用户以不同方式表达需求或提供信息时对特定应用都能有效处
理。因此,如果你输入 When is …或者 I want to know when …或者 Can you tell me whe
n …时,这些简单的规则总是对应着放映时间,这就足够系统提供有益的服务了。
对话系统给我们一个机会来说说一般认为的 NLP 流程。图 1-5 显示了一个简单的对话
系统架构。沿图的顶部从左向右是一些语言理解组件的“管道”。这些组件从语音输入经过文
法分析到某种意义的重现。图的中间,从右向左是这些组件的逆向流程,将概念转换为语音。
这些组件构成了系统的动态方面。在图的底部是一些有代表性的静态信息:语言相关的数据
仓库,这些用于处理的组件在其上运作。

文本的含义
近年来,一个叫做文本含义识别(Recognizing Textual Entailment 简称 RTE)的公开的“共
享任务”使语言理解所面临的挑战成为关注焦点。基本情形很简单:假设你想找到证据来支
持一个假设:Sandra Goudie 被 Max Purnell 击败了。而你有一段简短的文字似乎是有关的,
例如:Sandra Goudie 在 2002 年国会选举首次当选,通过击败工党候选人 Max Purnell 将现
任绿党下院议员 Jeanette Fitzsimons 推到第三位,以微弱优势赢得了 Coromandel 席位。文本
是否为你接受假说提供了足够的证据呢?在这种特殊情况下,答案是“否”。你可以很容易得
出这样的结论,但使用自动方法做出正确决策是困难的。RTE 挑战为竞赛者开发他们的系
统提供数据,但这些数据对“蛮力”机器学习技术(我们将在第 6 章讲述这一主题)来说是不
够的。因此,一些语言学分析是至关重要的。在前面的例子中,很重要的一点是让系统知道
Sandra Goudie 是假设中被击败的人,而不是文本中击败别人的人。思考下面的文本-假设对,
这是任务困难性的另一个例证:
(7) a. Text: David Golinkin is the editor or author of 18 books, and over 150
responsa, articles, sermons and books
b. Hypothesis: Golinkin has written 18 books
为了确定假说是否得到文本的支持,该系统需要以下背景知识:
(一)如果有人是一本书的作者,那么他/她写了这本书;
(二)如果有人是一本书的编辑,那么他/她(完全)没有写这本书;
(三)如果有人是 18 本书的编辑或作者,则无法断定他/她是 18 本书的作者。

NLP 的局限性
尽管在很多如 RTE 这样的任务中研究取得了进展,但在现实世界的应用中已经部署的

语言理解系统仍不能进行常识推理或以一种一般的可靠的方式描绘这个世界的知识。我们在
等待这些困难的人工智能问题得到解决的同时,接受一些在推理和知识能力上存在严重限制
的自然语言系统是有必要的。因此,从一开始,自然语言处理研究的一个重要目标一直是使
用浅显但强大的技术代替无边无际的知识和推理能力,促进构建“语言理解”技术的艰巨任务
的不断取得进展。事实上,这是本书的目标之一,我们希望你能掌握这些知识和技能,构建
有效的自然语言处理系统,并为构建智能机器这一长期的理想做出贡献。

发表评论

电子邮件地址不会被公开。 必填项已用*标注