NLPIR中文分词库
NLPIR (自然语言处理与信息检索共享平台)是一个强大的中文分词库,
评论
图片
表情
视频
全部评论
Paoding中文分词库
庖丁中文分词库是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件。Paoding填补了国内中文分词方面开源组件的空白,致力于此并希翼成为互联网网站首
Paoding中文分词库
0
snailsegPython 中文分词库
snailseg:ChineseWordsSegmentLibraryinPython简单的中文分词库在线分词效果展示 https://snailsegdemo.appspot.com/Usage将s
snailsegPython 中文分词库
0
YahaPython 中文分词库
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。"Yaha"YoucancustomyourChineseWordSegmentationefficientlyb
YahaPython 中文分词库
0
ICTCLAS4JLucene中文分词库
ictclas4j中文分词系统是sinboy在中科院张华平和刘群老师的研制的FreeICTCLAS的基础上完成的一个java开源分词项目,简化了原分词程序的复杂度,旨在为广大的中文分词爱好者一个更好的
ICTCLAS4JLucene中文分词库
0
IKAnalyzer中文分词库
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体
IKAnalyzer中文分词库
0