title | description | prev | next | type | id |
---|---|---|---|---|---|
第三章:处理流程 |
本章会介绍spaCy的处理流程。我们会学到当spaCy在处理文本的时候背后的机制是什么, 如何编写定制化的组件并加入流程中,以及如何在documents、spans和tokens中通过 编写定制化属性来添加我们自己的元数据。 |
/chapter2 |
/chapter4 |
chapter |
3 |
当我们在一个文本的字符串上面调用nlp
时spaCy会做什么?
doc = nlp("这是一个句子。")
分词器永远是在其它所有流程组件 之前 运行的,因为分词器会将文本的字符串转化为一个
Doc
实例。流程也不一定需要包括词性标注器、依存关系解析器和实体识别器。
分词器会将文本的字符串转化为一个Doc
实例。然后spaCy会按照顺序在文档上运行
流程中的每一个组件。
spaCy的所有运算都在本机,并不需要连接任何远端服务器。
当我们调用spacy.load()
来读取模型时,spaCy会初始化相应语言,加入流程并读取
模型的二进制权重。当我们在文本上调取nlp
之前模型就已经被读取了。
让我们一起检查一下中文小模型的流程。
- 读取
zh_core_web_sm
模型并创建nlp
实例。 - 用
nlp.pipe_names
来打印流程组件的名字。 - 用
nlp.pipeline
来打印(name, component)
元组的完整流程。
组件的名字列表存储在nlp.pipe_names
属性中。由(name, component)
元组组成的
完整流程存储在nlp.pipeline
中。
下面这些问题中那些可以用定制化组件来解决?请选择所有正确的答案。
- 更新预训练模型来改进其性能
- 基于词符及其属性来计算我们自己定义的变量
- 基于比如一个词典来增加新的命名实体
- 编写对某种新语种的支持
定制化组件只能修改Doc
,并不能用来直接更新其它组件的模型权重。
定制化组件只能修改Doc
,并不能用来直接更新其它组件的模型权重。
定制化组件只能修改Doc
,并不能用来直接更新其它组件的模型权重。
定制化组件只有在语言类被初始化和流程中的分词步骤结束后才能被加入到流程中,
所以定制化组件不适用于增加新的语种。
定制化组件可以很方便地用来对documents、tokens和spans增加定制化变量,
以及定制化doc.ents
。
定制化组件只有在语言类被初始化和流程中的分词步骤结束后才能被加入到流程中, 所以定制化组件不适用于增加新的语种。
定制化组件只有在语言类被初始化和流程中的分词步骤结束后才能被加入到流程中, 所以定制化组件不适用于增加新的语种。
这个例子中我们想要用一个定制化组件来打印文档的词符长度。 你能完成这段代码吗?
- 用
doc
长度来完成组件函数。 - 加入
length_component
到现有的流程中,作为其第一个组件。 - 试用这个新的流程,用
nlp
实例来处理一段任意的文本,比如"这是一个句子。"。
- 我们可以调用Python原生的
len()
方法来获取Doc
实例的长度。 - 使用
nlp.add_pipe
方法把组件加入到流程中。记住要把first
关键词参数设置为True
来保证这个组件是被添加到其它所有组件之前的。 - 调用
nlp
实例来处理一段本文。
这个练习中我们要编写一个定制化组件,使用PhraseMatcher
在文本中寻找动物名字,
然后把匹配到的名字加入到doc.ents
中。我们已经在变量matcher
中创建了含有匹配
动物名模板的PhraseMatcher
。
- 定义这个定制化组件,在
doc
上面应用matcher
。 - 给每一个匹配结果创建一个
Span
,添加"ANIMAL"
的标签ID,然后 用这些新的span覆盖doc.ents
。 - 处理文本,打印
doc.ents
中所有实体的实体文本和实体标签。
- 注意所有的匹配结果是在一个
(match_id, start, end)
元组的列表中。 Span
类有四个参数:产生它的原始doc
、起始索引、终止索引和标签。- 在
nlp.add_pipe
上使用after
关键词参数来把组件添加到另一个组件后面。
我们来练习设置一些扩展属性。
- 用
Token.set_extension
来注册"is_country"
(默认是False
)。 - 对
"Spain"
更新该扩展属性,然后对所有词符打印这个属性。
注意扩展属性是在挂靠在._
特性中,比如doc._.has_color
。
- 用
Token.set_extension
来注册"reversed"
(取值函数是get_reversed
)。 - 对所有词符打印这个属性的值。
注意扩展属性是在挂靠在._
特性中,比如doc._.has_color
。
我们来练习使用取值函数和方法扩展设置一些更复杂的属性。
- 完成
get_has_number
函数。 - 用
Doc.set_extension
来注册"has_number"
(取值函数是get_has_number
) 并打印这个属性的值。
- 注意扩展属性是在挂靠在
._
特性中,比如doc._.has_color
。 - 如果
token.like_num
(词符是否组成一个数字)对doc
中的任意一个词符返回True
, 那么get_has_number
对该doc
就应该返回True
。
- 用
Span.set_extension
来注册"to_html"
(to_html
方法)。 - 在
doc[0:2]
上用标签"strong"
来调用它。
- 扩展方法可以有一个或者多个输入参数。比如
doc._.some_method("argument")
。 - 传入方法的第一个参数一定是该方法要作用于的
Doc
、Token
或者Span
实例。
在这个练习中,我们要结合定制化属性扩展和模型的预测结果,创建一个属性取值函数,当 span为一个人、组织或者位置时返回其维基百科的查询URL。
- 完成
get_wikipedia_url
这个取值函数,使其只有在span的标签在标签列表中时 才返回URL。 - 用取值函数
get_wikipedia_url
设置Span
的扩展"wikipedia_url"
。 - 遍历
doc
中的实体,输出它们的维基百科URL。
- 使用
span.label_
属性来获得span的字符串标签。如果span是一个实体的话这个标签 就是实体识别器预测的结果。 - 记住扩展属性是在挂靠在
._
特性中,比如doc._.has_color
。
把扩展参数和定制化流程组件结合在一起会发挥很大的作用。在这个练习中,我们要写一个 流程组件,寻找国家名和一个返回国家首都(如果存在的话)的定制化属性。
matcher
变量中已经有一个匹配所有国家的短语匹配器。CAPITALS
变量中则有一个把国家名
映射到其首都城市的字典。
- 完成
countries_component
,为所有匹配结果创建一个含有标签"GPE"
(地理政治实体) 的Span
。 - 把组件加入到流程中。
- 使用取值函数
get_capital
注册Span的扩展属性"capital"
。 - 处理文本,对每一个
doc.ents
中的实体打印其实体文本、实体标签和实体的首都城市。
Span
类有四个参数:doc
文档,span中词符的start
和end
索引以及标签label
。- 在
doc
上调用PhraseMatcher
会返回一个(match_id, start, end)
的元组表。 - 要注册一个新的扩展属性,在全局类如
Doc
、Token
或者Span
上面使用set_extension
方法。要定义一个取值函数,使用getter
这个关键字参数。 - 记住扩展属性是在挂靠在
._
特性中,比如doc._.has_color
。
在这个练习中,我们要使用nlp.pipe
来做一些更高效的文本处理。
nlp
实例已经为我们创建好了。在变量TEXTS
中有一个关于流行美国快餐连锁的推特列表。
- 用
nlp.pipe
重写这个例子。不要直接遍历文本来处理它们,而是遍历nlp.pipe
产生的doc
实例。
nlp.pipe
使我们可以把前两行代码合并为一行。nlp.pipe
读入TEXTS
然后产生一系列我们可以遍历的doc
实例。
- 用
nlp.pipe
重写这个例子。记着对结果调用list()
来把它变为一个列表。
- 用
nlp.pipe
重写这个例子。记着对结果调用list()
来把它变为一个列表。
在这个练习中,我们要用定制化属性将作者和书的一些信息加入到引用中。
变量DATA
里有一个[text, context]
的示例列表。文本text是一些有名书籍的引用,
而语境context是一些键值为"author"
和"book"
的字典。
- 使用
set_extension
方法在Doc
上注册定制化属性"author"
和"book"
,其默认值 为None
。 - 使用
nlp.pipe
,设置as_tuples=True
,处理DATA
中的[text, context]
对。 - 使用传入的对应信息作为语境覆盖
doc._.book
和doc._.author
。
Doc.set_extension
方法有两个参数:一个是属性的字符串名字,另一个是一个 关键字参数用来表示默认default、取值函数getter、赋值函数setter或者方法,比如 我们可以设置default=True
。- 如果
as_tuples
被设置为True
,那么nlp.pipe
方法会读取一个(text, context)
的元组列表然后产生一系列(doc, context)
元组。
在这个练习中,我们使用nlp.make_doc
和nlp.disable_pipes
方法只运行我们选择的
组件来处理文本。
- 用
nlp.make_doc
重写代码使其只对文本做分词。
nlp.make_doc
方法作用在一短文本上返回一个Doc
,和nlp
实例一样。
- 用
nlp.disable_pipes
方法关闭词性标注和依存关系分析的组件。 - 处理文本,将所有
doc
中的结果实体打印出来。
nlp.disable_pipes
方法有一些可变数目的参数:那些想要关闭的流程组件的字符串名。
比如nlp.disable_pipes("ner")
就会把命名实体识别器关掉。