文章目录
Springboot项目整合jieba分词,实现语句最精确的切分
1.引入相关依赖
查看远程Maven仓库

本人使用版本:jieba-analysis-1.0.3-SNAPSHOT.jar(可百度自行下载)

将Jar包打到自己的Maven仓库:
mvn install:install-file -DgroupId=com.kd.database -DartifactId=DM6 -Dversion=1.0 -Dfile=D:\桌面\DmJdbcDriver.jar -Dpackaging=jar -DgeneratePom=true -DgroupId=设置maven的groupId(中央仓库文件存放的地址,E:\mavenrepository\com\kd\database) -DartifactId=设置maven的artifactId(Jar包所在的文件夹名称) -Dversion=版本号(1.0) -Dfile=你需要打入仓库的jar包地址.jar(D:\桌面\DmJdbcDriver.jar)


开始引入依赖:
<dependency> <groupId>com.kd.huaban</groupId> <artifactId>jieba-analysis</artifactId> <version>1.0.3-SNAPSHOT</version> </dependency>
2.核心代码
相关工具类(JieBaUtil.java)
package com.kd.opt.util; import com.huaban.analysis.jieba.JiebaSegmenter; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import java.util.List; / * Springboot项目整合jieba分词,实现语句最精确的切分 * * @author 小辰哥哥 */ public class JieBaUtil {
// 日志打印 private static final Logger LOGGER = LoggerFactory.getLogger(JieBaUtil.class); // 初始化操作 private static JiebaSegmenter segmenter = new JiebaSegmenter(); / * 获取分词内容 * * @param words * @return * @author 小辰哥哥 */ public static List<String> getSignaleWord(String words) {
// 匹配分词模板 String[] sentences = new String[]{
"/energe.dict.utf8"}; segmenter.initUserDict(sentences); List<String> resultList = segmenter.sentenceProcess(words); return resultList; } public static void main(String[] args) {
LOGGER.debug("分词集合:" + getSignaleWord("我爱你小辰哥哥")); } }
分词模板(energe.dict.utf8,resources目录下面)

开始测试
总结
每天一个提升小技巧!!!
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/210169.html原文链接:https://javaforall.net
