专栏首页hanlp学习笔记HanLP自然语言处理包初步安装与使用

HanLP自然语言处理包初步安装与使用

        HanLP是由一系列模型与算法组成的Java工具包,目标是促进自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。

        HanLP能提供以下功能:关键词提取、短语提取、繁体转简体、简体转繁体、分词、词性标注、拼音转换、自动摘要、命名实体识别(地名、机构名等)、文本推荐等功能,详细请参见以下链接:http://www.hankcs.com/nlp/hanlp.html  

        HanLP下载地址:https://github.com/hankcs/HanLP/releases,HanLP项目主页:https://github.com/hankcs/HanLP

        1、HanLP安装

         hanlp是由jar包、properties文件和data数据模型组成,因此,在安装时,这三种文件都应该有。可以通过建立java工程即可运行。

         hanlp.properties文件中描述了不同词典的相对路径以及root根目录,因此,可以在此文件中修改其路径。

         hanlp-1.3.4.jar包中包含了各种算法及提取方法的api,大部分方法都是静态的,可以通过HanLP直接进行调用,因此,使用非常方便。

         data文件夹中包含了dictionary和model文件夹,dictionary中主要是各种类型的词典,model主要是分析模型,hanlp api中的算法需要使用model中的数据模型。

         2、HanLP的使用

         普通java工程目录如下所示:

  

           3、HanLP的具体使用

           例如:对excel中的聊天记录字段进行热点词的提取,计算并排序,功能如下所示

           package com.run.hanlp.demo;

import java.util.ArrayList;

import java.util.Collections;

import java.util.Comparator;

import java.util.HashMap;

import java.util.List;

import java.util.Map;

import java.util.Map.Entry;

import org.apache.log4j.Logger;

import com.hankcs.hanlp.HanLP;

import com.hankcs.hanlp.seg.common.Term;

import com.hankcs.hanlp.suggest.Suggester;

import com.hankcs.hanlp.summary.TextRankKeyword;

import com.hankcs.hanlp.tokenizer.NLPTokenizer;

import com.hankcs.hanlp.tokenizer.StandardTokenizer;

import com.run.util.ExcelUtil;

public class HanlpTest {

    public static final Logger log = Logger.getLogger(HanlpTest.class);

    public static void main(String[] args) {

        log.info("关键词提取:");

        HanlpTest.getWordAndFrequency();

    }

    

    /**

     * 获取所有关键词和频率

     */

    public static void getWordAndFrequency() {

        // String content =

        // "程序员(英文Programmer)是从事程序开发、维护的专业人员。一般将程序员分为程序设计人员和程序编码人员,但两者的界限并不非常清楚,特别是在中国。软件从业人员分为初级程序员、高级程序员、系统分析员和项目经理四大类。";

        List<Map<String, Integer>> content = ExcelUtil.readExcelByField("i:/rundata/excelinput",5000,5);

        Map<String, Integer> allKeyWords=new HashMap<>();

        for(int i=0;i<content.size();i++){

            Map<String, Integer> oneMap=content.get(i);

            for(String str:oneMap.keySet()){

                int count = oneMap.get(str);

                CombinerKeyNum(str,count,allKeyWords);

            }

        }

        List<Map.Entry<String,Integer>> sortedMap=sortMapByValue(allKeyWords);

        log.info(sortedMap);

    }

    /**

     *

     * @param allKeyWords 需要进行排序的map

     * @return 返回排序后的list

     */

    public static List<Map.Entry<String,Integer>> sortMapByValue(Map<String,Integer> allKeyWords){

        List<Map.Entry<String,Integer>> sortList=new ArrayList<>(allKeyWords.entrySet());

        

        Collections.sort(sortList, new Comparator<Map.Entry<String, Integer>>() {   

            public int compare(Map.Entry<String, Integer> o1, Map.Entry<String, Integer> o2) {      

                return (o2.getValue() - o1.getValue());

            }

        });

        return sortList;

    }

    /**

     *

     * @param key 关键词变量

     * @param value 关键词词频变量

     * @param allKeyWords  存放关键词和词频的map

     */

    public static void CombinerKeyNum(String key,int value,Map<String,Integer> allKeyWords){

        if(allKeyWords.containsKey(key)){

            int count=allKeyWords.get(key);

            count+=value;

            allKeyWords.put(key, count);

        }else{

            allKeyWords.put(key, value);

        }

    }

    /**

     *

     * @param content 需要提取关键词的字符串变量

     * @return 返回关键词以及关键词词频数的map

     *

     */

    public static HashMap<String, Integer> getKeyWordMap(String content) {

        List<Term> list = StandardTokenizer.SEGMENT.seg(content);

        TextRankKeyword textmap = new TextRankKeyword();

        Map<String, Float> map = textmap.getTermAndRank(content);

        Map<String, Integer> mapCount = new HashMap<>();

        for (String str : map.keySet()) {

            String keyStr = str;

            int count = 0;

            for (int i = 0; i < list.size(); i++) {

                if (keyStr.equals(list.get(i).word)) {

                    count++;

                }

            }

            mapCount.put(keyStr, Integer.valueOf(count));

        }

//        log.info(mapCount);

        return (HashMap<String, Integer>) mapCount;

    }

}

运行之后,结果如下:

 由此可见,可以看见从excel中提取出来的热点词汇及其频率。

文章来源于计算机之wind的博客

原文链接:http://blog.51cto.com/13993767/2295803

我来说两句

0 条评论
登录 后参与评论

相关文章

  • hanlp中的N最短路径分词

    N-最短路径 是中科院分词工具NLPIR进行分词用到的一个重要算法,张华平、刘群老师在论文《基于N-最短路径方法的中文词语粗分模型》中做了比较详细的介绍。该算法...

    用户3492023
  • 汉语言处理包Hanlp的使用

    本来想通过python调用Java实现Hanlp的使用,参考文章:http://t.cn/RUrIF7z

    用户3492023
  • NLP学习------HanLP使用实验

    在之前的实验中得到了不在词向量里的词与分词结果,结果有500多个词不在词向量里,解决方案就是重新分词,或再追加训练这些词到词向量里。但后者相对麻烦且目前样本量不...

    用户3492023
  • 工作中递归返回多层级josn数据

    集合转数组的toArray()和toArray(T[] a)方法 下面代码是jdk ArrayList中的源码

    技术从心
  • Andromeda:适用于多进程架构的组件通信框架(上)

    用户1907613
  • js object 中删除某个元素并且重置obj[obj.splice(1,1)]

     for (var i = 0; i < old.length; i++) {         if(old[i].id==$(spanthis).data(...

    双面人
  • [工具]7个应知的Python库

    在我多年的Python编程生涯中,以及在GitHub上探索漫游,我碰到了一些库,用起来特别愉快,这篇文章,就是来扩散这方面的知识。我决定排除很优秀的几个库,像...

    小莹莹
  • Linux 命令(125)—— vmstat 命令

    vmstat(Virtual Memory Statistics)命令用于报告虚拟内存状态的统计信息。

    Dabelv
  • 你想要快速学习和开发J1939吗?

    SAE J1939是CAN的一种高层协议,像CANOpen,Devicenet都属于CAN的高层协议,因为J1939算是比较简单的一种,广泛应用于重卡,农林,船...

    用户1605515
  • leetcode-479-Largest Palindrome Product(找到两个乘数相乘得到的最大的回文数)

    chenjx85

扫码关注云+社区

领取腾讯云代金券