搜索
jiebaPython中文分词组件
认领
关注
0
粉丝
jieba"结巴"中文分词:做最好的Python中文分词组件 "Jieba" Feature支持三种分词模式:精确模式,试图将句子最精确地切开,适合文
知识
简介
jieba"结巴"中文分词:做最好的Python中文分词组件 "Jieba" Feature支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,...
更多
其它信息
地区
国产
开发语言
Python
开源组织
无
所属分类
程序开发、 中文分词库
授权协议
MIT
操作系统
跨平台
收录时间
2023-09-29
软件类型
开源软件
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
2023-09
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
jiebaPython中文分词组件
jieba"结巴"中文分词:做最好的Python中文分词组件 "Jieba" Feature支持三种
jiebaPython中文分词组件
0
CWSharp.NET 中文分词组件
CWSharp 是 .Net 的中文分词组件,支持中英文或者混合词组,提供自定义词典功能,支持Luc
CWSharp.NET 中文分词组件
0
CWSharp.NET 中文分词组件
CWSharp是.Net的中文分词组件,支持中英文或者混合词组,提供自定义词典功能,支持Lucene.Net。特性支持多种分词器StandardTokenizerBigramTokenizerStop
CWSharp.NET 中文分词组件
0
word分词Java分布式中文分词组件
word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram
word分词Java分布式中文分词组件
0
word分词Java分布式中文分词组件
word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词
word分词Java分布式中文分词组件
0
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词
scsegPython中文分词
0
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用CRF(ConditionalRandomField)条件随机场算法。Feature支持python2.x、python3.x以及py
genius中文分词
0
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开
Ansj中文分词
0
ansj_segAnsj中文分词
Ansj中文分词使用帮助开发文档:3.x版本及之前,5.x版本及之后摘要这是一个基于n-Gram+CRF+HMM的中文分词的java实现。分词速度达到每秒钟大约200万字左右(macair下测试),准
ansj_segAnsj中文分词
0
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化内存中中文分词每秒钟大约100万字(速度上已经
Ansj中文分词
0