全文内容推荐引擎之中文分词

数据库
基于内容的推荐引擎有两种实现途径,一种是根据条目的元数据(可以将元数据理解为属性),另一种是根据条目的文本描述信息。本系列中将先描述基于条目描述信息的全文检索实现方式,然后描述基于元数据的内容推荐引擎实现方式。

基于内容的推荐引擎有两种实现途径,一种是根据条目的元数据(可以将元数据理解为属性),另一种是根据条目的文本描述信息。本系列中将先描述基于条目描述信息的全文检索实现方式,然后描述基于元数据的内容推荐引擎实现方式。

对于基于条目文本描述信息的内容推荐引擎,目前有很多资料可以参考,基本步聚是先对文本内容进行分词,包括提取出单词、去掉常用词如的地得、加入同意词、对英语还有去掉复数形式和过去分词形式等;第二步是计算各个词在每篇文章中的出现频率,以及在所有文章中的出现频率,即TF/IDF;第三步计算文章向量;***是利用自动聚类算法,对条目进行聚类,这样就可以实现向用户推荐同类产品的需求了。

但是在这里有一个非常重要的问题没有解决,就是中文分词的问题,这些文章中绝大部分都是以英文为背景的,而英文分词方面,分出单词很简单,只需要空格作为分隔符就可以了,而中文中词与词之间没有空格,其次是英文中单复数、过去分词等比较多,需要还原成单数现在式,但是中文中这个问题基本不存在,再有就是英文需要在分词后识别长的词组,而中文这一步也不需进行。

针对以上这些难题,在我的项目中,采用了MMSeg4j中文分词模块,这个项目集成了据说是搜狗输入法的10万多词库(大家知道中文分词的关键是中文词库)。

另外,我还希望中文分词可以在全文检索引擎和全文内容推荐引擎共用,由于全文检索引擎采用了Apache Lucene 3.x版本,需要中文分词模块符合Lucene的体系架构,幸运的是MMSeg4j提供了Lucene所需的Tokenizer实现类,同时还需要重点解决如下问题:

  • 由于打开索引文件比较慢,所以整个程序共享一个indexer和searcher
  • 考虑到准实时性需求,采用了Lucene新版本中reopen机制,每次查询前读入索引增量
  • 采用Lucene默锁机制

在项目中我定义了全文检索引擎类:

  1. public class FteEngine { 
  2.  
  3.   public static void initFteEngine(String _indexPathname) { 
  4.     indexPathname = _indexPathname; 
  5.   } 
  6.  
  7.   public static FteEngine getInstance() { // Singleton模式 
  8.     if (null == engine) { 
  9.       engine = new FteEngine(); 
  10.     } 
  11.     return engine; 
  12.   } 
  13.  
  14.   public IndexWriter getIndexWriter() { 
  15.     return writer; 
  16.   } 
  17.  
  18.   public IndexSearcher getIndexSearcher() { 
  19.     try { 
  20.       IndexReader newReader = reader.reopen(); // 读入新增加的增量索引内容,满足实时索引需求 
  21.       if (!reader.equals(newReader)) { 
  22.         reader.close(); 
  23.         reader = newReader; 
  24.       } 
  25.       searcher = new IndexSearcher(reader); 
  26.     } catch (CorruptIndexException e) { .... 
  27.  
  28.     } catch (IOException e) {.... 
  29.     } 
  30.     return searcher; 
  31.   } 
  32.  
  33.   public Analyzer getAnalyzer() { 
  34.     return analyzer; 
  35.   } 
  36.  
  37.   public void stop() { 
  38.     try { 
  39.       if (searcher != null) { 
  40.         searcher.close(); 
  41.       } 
  42.       reader.close(); 
  43.     writer.close(); 
  44.     indexDir.close(); 
  45.     } catch (IOException e) {.... 
  46.     } 
  47.   } 
  48.  
  49.   private FteEngine() { 
  50.     analyzer = new MMSegAnalyzer(); // 初始化中文分词模块,会读入中文字典 
  51.     IndexWriterConfig iwc = new IndexWriterConfig(Version.LUCENE_31, analyzer); 
  52.     iwc.setOpenMode(OpenMode.CREATE_OR_APPEND); 
  53.     try { 
  54.       indexDir = FSDirectory.open(new File(indexPathname)); 
  55.       writer = new IndexWriter(indexDir, iwc); // writer和reader整个程序共用 
  56.       reader = IndexReader.open(writer, true); 
  57.     } catch (CorruptIndexException e) {...... 
  58.     } catch (LockObtainFailedException e) {...... 
  59.     } catch (IOException e) {..... 
  60.  
  61.     } 
  62.   } 
  63.   private static FteEngine engine = null; 
  64.   private static String indexPathname = null; 
  65.   private Directory indexDir = null; 
  66.   private IndexWriter writer = null; 
  67.   private IndexSearcher searcher = null; 
  68.   private Analyzer analyzer = null; 
  69.   private IndexReader reader = null; 
  70.  
  71. 具体中文分词可以使用如下代码: 
  72.  
  73. FteEngine fteEngine = FteEngine.getInstance(); 
  74. Analyzer analyzer = fteEngine.getAnalyzer(); 
  75. String text = "测试2011年如java有意见 分岐其中华人民共合国,oracle咬死猎人的狗!"
  76. TokenStream tokenStrm = analyzer.tokenStream("contents"new StringReader(text)); 
  77. OffsetAttribute offsetAttr = tokenStrm.getAttribute(OffsetAttribute.class); 
  78. CharTermAttribute charTermAttr = tokenStrm.getAttribute(CharTermAttribute.class); 
  79. String term = null; 
  80. int i = 0; 
  81. int len = 0; 
  82. char[] charBuf = null; 
  83. try { 
  84.   while (tokenStrm.incrementToken()) { 
  85.   charBuf = charTermAttr.buffer(); 
  86.   for (i = (charBuf.length - 1); i >= 0; i--) { 
  87.     if (charBuf[i] > 0) { 
  88.       len = i + 1; 
  89.       break
  90.     } 
  91.   } 
  92.   //term = new String(charBuf, offsetAttr.startOffset(), offsetAttr.endOffset()); 
  93.   term = new String(charBuf, 0, offsetAttr.endOffset() - offsetAttr.startOffset()); 
  94.   System.out.println(term); 
  95. catch (IOException e) { 
  96.   // TODO Auto-generated catch block 
  97.   e.printStackTrace(); 

打印的内容如下:

测试 2011 年 如 java 有 意见 分 岐 其中 华 人民 共 合 国 oracle 咬 死 猎人 的 狗

当我们在缺省词库中加入单词:分岐 中华人民共合国后,那么分词结果可以变为:

测试 2011 年 如 java 有 意见 分岐 其 中华人民共合国 oracle 咬 死 猎人 的 狗

由此可见,可以通过完善中文词库,得到越来越好的中文分词效果。

原文链接:http://www.cnblogs.com/yantao7589/archive/2011/08/16/2140399.html

【编辑推荐】

  1. 代号:Denali,SQL Server再出击
  2. 说说SQL Server编年史
  3. 简单说说SQL Server上的加密术
  4. 擦亮自己的眼睛去看SQL Server
责任编辑:艾婧 来源: 闫涛的博客
相关推荐

2023-08-21 19:37:21

得物DGraph引擎

2022-09-07 08:16:09

MySQL索引

2012-12-28 13:16:35

大数据架构

2024-03-07 10:46:13

人工智能​

2012-12-31 12:02:56

百度推荐引擎数据架构

2011-06-03 16:04:05

SEO分词

2015-07-13 11:39:25

SphinxSQL

2021-04-12 08:17:12

ElasticSear分词中文

2024-02-20 09:00:00

2017-08-17 16:42:38

Elastic 全文搜索服务器

2018-12-28 09:48:11

SolrElasticSear搜索

2021-04-12 10:38:17

ElasticSearSolrJava

2009-04-22 14:19:32

Oracle中文索引基础

2012-03-16 10:07:30

IK AnalyzerJava

2011-06-30 18:33:09

分词

2023-12-14 15:27:12

中文分词Python

2019-01-10 14:49:14

开源技术 工具包

2016-09-18 23:56:51

Java开源中文分词器

2012-04-13 09:05:41

LuceneJava

2011-02-25 14:32:54

LBS
点赞
收藏

51CTO技术栈公众号