1. XenForo 1.5.14 中文版——支持中文搜索!现已发布!查看详情
  2. Xenforo 爱好者讨论群:215909318 XenForo专区

新闻 FoolNLTK 发布 Java 版,基于深度学习的中文文本处理工具 下载

Discussion in '软件资讯' started by 漂亮的石头, 2018-03-13.

  1. 漂亮的石头

    漂亮的石头 版主 Staff Member

    Joined:
    2012-02-10
    Messages:
    488,399
    Likes Received:
    48
    FoolNLTK 是一款基于深度学习的中文文本处理工具,暂时包含分词,词性标注,实体识别。现发布 Java 版。

    <dependency>
    <groupId>me.midday</groupId>
    <artifactId>JFoolNLTK</artifactId>
    <version>1.0</version>
    </dependency>


    Example

    // 单文本 String text = "北京欢迎你"; LexicalAnalyzer lexicalAnalyzer = FoolNLTK.getLSTMLexicalAnalyzer(); // 分词 List<List<Word>> words = lexicalAnalyzer.cut(text); for(List<Word> ws: words){
    ws.forEach(System.out::println); } // 词性标注 List<List<Word>> posWords = lexicalAnalyzer.pos(text); for(List<Word> ws: posWords){
    ws.forEach(System.out::println); } // 实体识别 List<List<Entity>> entities = lexicalAnalyzer.ner(text); for(List<Entity> ents :entities){
    ents.forEach(System.out::println); } // 分词,词性,实体识别 List<AnalysisResult> results = lexicalAnalyzer.analysis(text); results.forEach(System.out::println); // 多文本 System.out.println(); System.out.println("多文本:"); List<String> docs = new ArrayList<>(); docs.add(text); docs.add(text); // 分词 List<List<Word>> dWords = lexicalAnalyzer.cut(docs); for(List<Word> ws: dWords){
    ws.forEach(System.out::println); } // 词性标注 List<List<Word>> dPosWords = lexicalAnalyzer.pos(docs); for(List<Word> ws: dPosWords){
    ws.forEach(System.out::println); }
    List<List<Entity>> dEntities = lexicalAnalyzer.ner(docs); for(List<Entity> ents :dEntities){
    ents.forEach(System.out::println); } // 分词, 词性标注,实体识别 List<AnalysisResult> dResults = lexicalAnalyzer.analysis(docs); dResults.forEach(System.out::println);


    GitHub
    码云
    FoolNLTK 发布 Java 版,基于深度学习的中文文本处理工具下载地址
     
Loading...