Python jieba库分词模式怎么用?

答案:jieba库提供三种分词模式——精确模式(默认,准确切分)、全模式(输出所有可能词语)和搜索引擎模式(长词再切分),推荐用于文本分析或检索,支持自定义词典与便捷列表输出。

jieba库是Python中常用的中文分词工具,使用简单且效果不错。它主要有三种分词模式:精确模式、全模式和搜索引擎模式。下面分别介绍它们的用法。

1. 精确模式(默认推荐)

将句子最精确地切开,适合文本分析。

代码示例:

import jieba
text = "我爱自然语言处理"
seg_list = jieba.cut(text, cut_all=False)
print("/ ".join(seg_list)) # 输出:我/ 爱/ 自然语言/ 处理

这是默认模式,会尽量保证分词的准确性,不会产生多余的切分。

2. 全模式

把所有可能的词语都扫描出来,速度很快,但会有歧义。

代码示例:

seg_list = jieba.cut(text, cut_all=True)
print("/ ".join(seg_list)) # 输出:我/ 爱/ 自然/ 然语/ 语言/ 语言处/ 处理/ 自然语言/ 语言处理/ 自然语言处理

可以看到,会产生很多无意义的词,一般不用于正式分析,可用于关键词提取辅助。

3. 搜索引擎模式

在精确模式基础上对长词再次切分,适合用于搜索引擎场景。

代码示例:

seg_list = jieba.cut_for_search(text)
print("/ ".join(seg_list)) # 输出:我/ 爱/ 自然/ 语言/ 处理/ 自然语言处理

这个模式会把“自然语言处理”既保留整体,又拆成“自然/语言/处理”,更利于检索。

其他实用功能

你可以添加自定义词典或调整分词:

  • jieba.add_word("新词"):手动添加一个词
  • jieba.load_userdict("dict.txt"):加载自定义词典文件
  • jieba.lcut(text):直接返回列表,比cut更方便

基本上就这些。日常使用推荐精确模式或搜索引擎模式,根据场景选择就行。