LTP 是哈工大社会计算与信息检索研究中心历时十年开发的一整套中文语言处理系统。LTP 制定了基于 XML 的语言处理结果表示,并在此基础上提供了一整套自底向上的丰富而且高效的中文语言处理模块 (包括词法、句法、语义等6项中文处理核心技术),以及基于动态链接库(Dynamic Link Library, DLL)的应用程序接口,可视化工具,并且能够以网络服务(Web Service)的形式进行使用。
LTP 系统框架图如下所示:
LTP提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。从应用角度来看,LTP为用户提供了下列组件:
针对单一自然语言处理任务,生成统计机器学习模型的工具针对单一自然语言处理任务,调用模型进行分析的编程接口系统可调用的,用于中文语言处理的模型文件针对单一自然语言处理任务,基于云端的编程接口
1 pyltp安装
pyltp 是 LTP 的 Python 封装,提供了分词,词性标注,命名实体识别,依存句法分析,语义角色标注的功能。
pip install pyltp
接下来,需要下载 LTP 模型文件。下载地址为:下载地址 选择模型版本为ltp_data_v3.4.0.zip 请确保下载的模型版本与当前版本的 pyltp 对应,否则会导致程序无法正确加载模型。 将压缩包解压,里面提供了多个模型文件,主要包括:
cws.model 分句模型 pos.model 词性标注模型 ner.model 命名实体识别模型 parser.model 依存句法分析模型 pisrl.model 语义角色标注模型
2 pyltp 使用
分句
from pyltp
import SentenceSplitter
sentence
= SentenceSplitter
.split
("他叫汤姆拿外衣。汤姆生病了。他去了医院。")
print("\n".join
(sentence
))
segmentor
.release
()
他叫汤姆拿外衣。
汤姆生病了。
他去了医院。
分词
from pyltp
import Segmentor
math_path
= "/home/lxn/goal/ltp/ltp_data_v3.4.0/cws.model"
segmentor
= Segmentor
()
segmentor
.load
(math_path
)
words
= segmentor
.segment
("他叫汤姆拿外衣。")
print(' '.join
(words
).split
())
segmentor
.release
()
['他', '叫', '汤姆', '拿', '外衣', '。']
type(words
)
pyltp.VectorOfString
这里words = segmentor.segment(“他叫汤姆去拿外衣。”) 的返回值类型是native的VectorOfString类型,可以使用list转换成Python的列表类型
外接词典
pyltp 分词支持用户使用自定义词典。分词外部词典本身是一个文本文件(lexicon text),每行指定一个词,编码同样须为 UTF-8,样例如下所示
词典内容lexicon.txt:
光明66kv变电站
1号主变压器
主变压器
分接开关
有载开关
呼吸器
硅胶变色
from pyltp
import Segmentor
math_path
= "/home/lxn/goal/ltp/ltp_data_v3.4.0/cws.model"
segmentor
= Segmentor
()
segmentor
.load_with_lexicon
(math_path
, '/home/lxn/goal/ltp/lexicon/lexicon.txt')
words
= segmentor
.segment
("光明66kv变电站1号主变压器分接开关呼吸器硅胶变色")
print(' '.join
(words
).split
())
segmentor
.release
()
['光明', '66kv', '变电站', '1号', '主变压器', '分接开关', '呼吸器', '硅胶变色']
词性标注
from pyltp
import Postagger
math_path
= "/home/lxn/goal/ltp/ltp_data_v3.4.0/pos.model"
postagger
= Postagger
()
postagger
.load
(math_path
)
words
= ['他', '叫', '汤姆', '拿', '外衣', '。']
postags
= postagger
.postag
(words
)
print(words
)
print(' '.join
(postags
).split
())
postagger
.release
()
['他', '叫', '汤姆', '拿', '外衣', '。']
['r', 'v', 'nh', 'v', 'n', 'wp']
命名实体识别
from pyltp
import NamedEntityRecognizer
math_path
= "/home/lxn/goal/ltp/ltp_data_v3.4.0/ner.model"
recognizer
= NamedEntityRecognizer
()
recognizer
.load
(math_path
)
words
= ['他', '叫', '汤姆', '拿', '外衣', '。']
postags
= ['r', 'v', 'nh', 'v', 'n', 'wp']
netags
= recognizer
.recognize
(words
, postags
)
print(' '.join
(netags
).split
())
recognizer
.release
()
['O', 'O', 'S-Nh', 'O', 'O', 'O']
LTP 采用 BIESO 标注体系。B 表示实体开始词,I表示实体中间词,E表示实体结束词,S表示单独成实体,O表示不构成命名实体。
LTP 提供的命名实体类型为:人名(Nh)、地名(Ns)、机构名(Ni)。
B、I、E、S位置标签和实体类型标签之间用一个横线 - 相连;O标签后没有类型标签。
依存句法分析
from pyltp
import Parser
math_path
= "/home/lxn/goal/ltp/ltp_data_v3.4.0/parser.model"
parser
= Parser
()
parser
.load
(math_path
)
words
= ['他', '叫', '汤姆', '拿', '外衣', '。']
postags
= ['r', 'v', 'nh', 'v', 'n', 'wp']
arcs
= parser
.parse
(words
, postags
)
print ("\t".join
("%d:%s" % (arc
.head
, arc
.relation
) for arc
in arcs
) )
parser
.release
()
2:SBV 0:HED 2:DBL 2:VOB 4:VOB 2:WP
arc.head 表示依存弧的父节点词的索引。ROOT节点的索引是0,第一个词开始的索引依次为1、2、3…
arc.relation 表示依存弧的关系。
arc.head 表示依存弧的父节点词的索引,arc.relation 表示依存弧的关系。`
https://ltp.readthedocs.io/zh_CN/latest/appendix.html#id3https://ltp.readthedocs.io/zh_CN/latest/appendix.html#id3
语义角色标注
import pyltp
from pyltp
import SementicRoleLabeller
math_path
= "/home/lxn/goal/ltp/ltp_data_v3.4.0/pisrl.model"
labeller
= SementicRoleLabeller
()
labeller
.load
(math_path
)
words
= ['他', '叫', '汤姆', '拿', '外衣', '。']
postags
= ['r', 'v', 'nh', 'v', 'n', 'wp']
roles
= labeller
.label
(words
, postags
, arcs
)
for role
in roles
:
print (role
.index
, "".join
(
["%s:(%d,%d)" % (arg
.name
, arg
.range.start
, arg
.range.end
) for arg
in role
.arguments
]))
labeller
.release
()
1 A0:(0,0)A1:(2,2)A2:(3,4)
3 A1:(4,4)
参考文献
https://pyltp.readthedocs.io/zh_CN/latest/api.html
https://ltp.readthedocs.io/zh_CN/latest/appendix.html#id3
在线演示环境:http://ltp.ai/demo.html