TFIDF算法Java实现

TFIDF算法Java实现一 算法简介 TF IDF termfrequenc inversedocum 是一种用于信息检索与数据挖掘中常用的加权技术 TF IDF 的概念被公认为信息检索中最重要的发明 在搜索 文献分类和其他相关领域有着广泛的应用 其具体应用包括关键词提取 文本相似度 自动摘要 TF IDF 的主要思想是如果某个词在一篇文章中出现的频率 TF 很高 而且在语料库中的其他文章中

一、算法简介

       TF-IDF(term frequency–inverse document frequency)是一种用于信息检索与数据挖掘中常用的加权技术。TF-IDF的概念被公认为信息检索中最重要的发明。在搜索、文献分类和其他相关领域有着广泛的应用。其具体应用包括关键词提取、文本相似度、自动摘要。

       TF-IDF的主要思想是如果某个词在一篇文章中出现的频率TF很高,而且在语料库中的其他文章中出现的频率很低,那么认为这个词对于这篇文章而言,携带的信息很多,也就越重要。因此词的重要性与词在文章中出现的频率成正比,与其在整个语料库中出现的频率成反比

       词频(term frequency,TF)指的是某一个给定的词语在给定文件中出现的频率。这个数字是对词数(term count)的归一化,以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词数,而不管该词语重要与否。)对于在某一特定文件里的词语  t_{i}  来说,它的重要性可表示为:

 \mathrm{tf_{i,j}} = \frac{n_{i,j}}{\sum_k n_{k,j}}

      以上式子中 n_{i,j} 是该词 t_{i}  在文件d_{j}中的出现次数,而分母则是在文件d_{j}中所有字词的出现次数之和。

      逆向文档频率(inverse document frequency,IDF)是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到:

 \mathrm{idf_{i}} =  \log \frac{|D|}{|\{j: t_{i} \in d_{j}\}|}

其中

  • |D|:语料库中的文件总数
  •  |\{ j: t_{i} \in d_{j}\}| :包含词语 t_{i} 的文件数目(即 n_{i,j} \neq 0的文件数目)如果该词语不在语料库中,就会导致被除数为零,因此一般情况下使用1 + |\{j : t_{i} \in d_{j}\}|

然后

 \mathrm{tf{}idf_{i,j}} = \mathrm{tf_{i,j}} \times  \mathrm{idf_{i}}

      某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的TF-IDF。因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语。

二、Java实现

package com.zqs.tfidf; import java.io.FileInputStream; import java.io.FileOutputStream; import java.io.IOException; import java.io.ObjectInputStream; import java.io.ObjectOutputStream; import java.io.Serializable; import java.util.ArrayList; import java.util.Arrays; import java.util.Collections; import java.util.HashMap; import java.util.HashSet; import java.util.LinkedHashSet; import java.util.List; import java.util.Map; import java.util.Map.Entry; import java.util.Set; / * TFIDF算法Java实现 * @author tianyunzqs * */ public class TFIDF implements Serializable { private static final long serialVersionUID = -L; // 存放所有词汇 public static Set<String> vocab = new LinkedHashSet<String>(); // 单词 -idf public Map<String, Double> word_idf = new HashMap<String, Double>(); / * 训练样本的tfidf值,也即训练tfidf模型 * @param raw_data 训练数据,如:[[我们 是 中国 的公民], [我们 是 炎黄之孙]](token为空格) * @param token 单词之间分隔符 * @return 训练数据对应的tfidf数据列表 */ public List<List<Double>> get_tfidf(List<String> raw_data, String token) { List<List<Double>> res = new ArrayList<List<Double>>(); Map<String, Set<Integer>> word_docs = new HashMap<String, Set<Integer>>(); Map<Integer, List<String>> doc_words = new HashMap<Integer, List<String>>(); int doc_num = 0; for(String text : raw_data) { doc_num++; String[] words = text.split(token); doc_words.put(doc_num, Arrays.asList(words)); for(String word : words) { vocab.add(word); if(word_docs.containsKey(word)) { word_docs.get(word).add(doc_num); } else { Set<Integer> docs = new HashSet<Integer>(); docs.add(doc_num); word_docs.put(word, docs); } } } // 计算并存储每个word的idf值 for(String word : vocab) { int doc_n = 0; if(word_docs.containsKey(word)) { doc_n = word_docs.get(word).size(); } double idf = doc_words.size()*1.0 / (doc_n + 1); word_idf.put(word, idf); } // 计算每篇doc中,vocab中每个word的tfidf值 for(Entry<Integer, List<String>> e : doc_words.entrySet()) { List<Double> tmp = new ArrayList<Double>(); for(String word : vocab) { int word_n = Collections.frequency(e.getValue(), word); double tf = word_n*1.0 / e.getValue().size(); double idf = word_idf.get(word); double tfidf = tf * idf; tmp.add(tfidf); } res.add(tmp); } return res; } / * 计算测试样本的tfidf值 * @param raw_data 测试数据 * @param token 单词之间的分隔符 * @return 测试数据的tfidf值 */ public List<List<Double>> get_tfidf4test(List<String> raw_data, String token) { List<List<Double>> text_tfidf = new ArrayList<List<Double>>(); for(String text : raw_data) { String[] words = text.split(token); List<String> words_list = Arrays.asList(words); List<Double> tmp = new ArrayList<Double>(); for(String word : vocab) { int word_n = Collections.frequency(words_list, word); double tf = word_n*1.0 / words.length; double tfidf = tf * word_idf.get(word); tmp.add(tfidf); } text_tfidf.add(tmp); } return text_tfidf; } / * 序列化保存tfidf模型 * @param path 模型路径 */ public void save_model(String path) { try { ObjectOutputStream oos = new ObjectOutputStream(new FileOutputStream(path)); oos.writeObject(this); oos.flush(); oos.close(); } catch (IOException e) { e.printStackTrace(); } } / * 导出tfidf模型 * @param path 模型路径 * @return 训练好的TFIDF模型 */ public TFIDF load_model(String path) { try { ObjectInputStream in = new ObjectInputStream(new FileInputStream(path)); TFIDF tfidf = (TFIDF) in.readObject(); in.close(); return tfidf; } catch (IOException ee){ ee.printStackTrace(); } catch (ClassNotFoundException e){ e.printStackTrace(); } return null; } public static void main(String[] args) { TFIDF tfidf = new TFIDF(); List<String> res = new ArrayList<String>(); res.add("我们 是 中国人"); res.add("他们 是 美国人"); res.add("你们 来自 哪里 呢 最 无论 不管 the 中国人"); List<List<Double>> a = tfidf.get_tfidf(res, " "); System.out.println(vocab); for(List<Double> e : a) { System.out.println(e); } List<String> res2 = new ArrayList<String>(); res2.add("我们 是 中国 公民"); res2.add("我们 是 中国 的 公民"); List<List<Double>> b = tfidf.get_tfidf4test(res2, " "); System.out.println(vocab); for(List<Double> e : b) { System.out.println(e); } } } 

参考资料:

1、https://baike.baidu.com/item/tf-idf/?fr=aladdin

2、吴军. 数学之美[M]. 北京:人民邮电出版社, 2014

3、http://www.cnblogs.com/chenny7/p/4002368.html

4、http://blog.csdn.net/sangyongjia/article/details/





版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/232056.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • MyBatis+SpringBoot整合 注入SqlSessionTemplate

    MyBatis+SpringBoot整合 注入SqlSessionTemplate实际开发中我们操作数据库持久化,总是需要写重复的mapper,service,xml浪费了我们大量的时间,在这里推荐大家使用SqlSessionTemplate废话不多说直接上代码工具类接口层:packagecom.miaosuan.dao;importjava.util.List;importcom.miaosuan.dao.dbenums.NameSpaceEnum;…

    2022年5月6日
    57
  • Python安装教程-史上最全

    Python安装教程-史上最全Python安装教程-史上最全

    2022年7月22日
    16
  • EasyUI Dialog 窗体 布局记要「建议收藏」

    EasyUI Dialog 窗体 布局记要

    2022年3月7日
    45
  • 音频功放的种类和基本原理

    音频功放的种类和基本原理音频功放的种类和基本原理作者:AirCity2019.12.2Aircity007@sina.com本文所有权归作者Aircity所有1 简介功率放大器简称功放,它是将小信号放大,这个放大包括电压和电流,用更大的功率推动音响放声。在技术发展过程中,产生了不同类型的功放种类,按照功率管的导电方式,可以分为甲类功放(又称A类)、乙类功放(又称B类)、甲乙类功放(又称AB类)和丁类功放功…

    2022年6月4日
    33
  • bytebuf池_Netty ByteBuf[通俗易懂]

    bytebuf池_Netty ByteBuf[通俗易懂]ByteBufByteBuf需要提供JDKByteBuffer的功能(包含且不限于),主要有以下几类基本功能:7种Java基础类型、byte[]、ByteBuffer(ByteBuf)的等的读写缓冲区自身的copy和slice设置网络字节序构造缓冲区实例操作位置指针扩容原理首先确认ByteBuf是否已经被释放,如果被释放,则抛出IllegalReferenceCountException异常判断…

    2022年9月19日
    3
  • Linux中,常常会用到 vim ,其中 q ,wq wq!的区别,以及 vim -r 的作用[通俗易懂]

    w->表示保存退出wq!->表示强制保存退出,可以保存”readonly”只读文件q->在vim中表示退出q!->表示强制不保存退出,不对文件进行保存wq和wq!的区别如下:有些文件设置了只读,一般不是修改文件的,但是如果你是文件的owner或者root的话,通过wq!还是能保存文件退出如果文件设置为只读了的话,用:wq命令是不能保存并退出的,但是最高权限者可通过wq!来进行文件的保存并退出文件。已设定选项‘readonly’(请加!强制执行)!.

    2022年4月13日
    100

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号