当前位置:首页 > 芯闻号 > 充电吧
[导读]1.环境搭建     import nltk    nltk.download("averaged_perceptron_tagger")2、下载以下几个文件stanford-parser-full-

1.环境搭建     import nltk    nltk.download("averaged_perceptron_tagger")

2、下载以下几个文件

stanford-parser-full-2015-12-09  stanford-ner-2015-12-09

stanford-segmenter-2015-12-09 stanford-postagger-full-2015-12-09 

  修改过的nltk nltk-develop     stanford-chinese-corenlp-2018-02-27-models  

前四个包是斯坦福提供的分析资源包,该工具的使用依赖于JAVA环境需要装JDK 1.8 在此不赘述,nltk_develop,需要运行其中的setup.py文件,忘了说了,我的环境是python 36,运行完成后在PYTHON36安装目录下的Lib文件夹里面的site-packages里面生成和nltk相关的3个文件夹,将  修改过的nltk下载下来之后覆盖即可,最后一个chinese-corenlp则是资源文件

3、 斯坦福词性标注器安装部署

    3.2、 斯坦福分词操作

# -*- coding: utf-8 -*-
from nltk.tokenize.stanford_segmenter import StanfordSegmenter
data_dir = "D:\NLTK\stanford-segmenter-2015-12-09"
segmenter = StanfordSegmenter(
    java_class='edu.stanford.nlp.ie.crf.CRFClassifier',
    path_to_jar=data_dir + "\stanford-segmenter-3.6.0.jar",
    path_to_slf4j=data_dir+"\slf4j-api.jar",
    path_to_sihan_corpora_dict=data_dir+"\data",
    path_to_model=data_dir+"\data\pku.gz",
    path_to_dict=data_dir+"\data\dict-chris6.ser.gz"
    )
sentence = u"这是斯坦福中文分词器测试"
result = segmenter.segment(sentence)
print(result)

总结一定要注意path_to_slf4j路径,否则会出现java.lang.NoClassDefFoundError: org/slf4j/LoggerFactory,错误

3.3 StanfordNERTagger  英文命名实体识别

# -*- coding: utf-8 -*-
from nltk.tag import StanfordNERTagger
eng_tagger = StanfordNERTagger(
    model_filename=r'D:NLTKstanford-ner-2015-12-09classifiersenglish.all.3class.distsim.crf.ser.gz',
    path_to_jar=r'D:NLTKstanford-ner-2015-12-09stanford-ner.jar',
)
print(eng_tagger.tag('Rami Eid is studying at Stony Brook University in NY'.split()))
总结:StanfordNERTagger没有参数接收path_to_slf4j参数,还是出现了java.lang.NoClassDefFoundError: org/slf4j/LoggerFactory错误
修正方式:修改文件 C:Python36Libsite-packagesnltktagstanford.py文件的函数tag_sents在      stanpos_output, stderr 赋值处之前添加
_CLASS_PATH = "."
        if os.environ.get('CLASSPATH') is not None:
            _CLASS_PATH = os.environ.get('CLASSPATH')
        stanpos_output, stderr = java(cmd, classpath=(self._stanford_jar, _CLASS_PATH), stdout=PIPE, stderr=PIPE)
如果之前已经覆盖过Lib里面的site-packages即可跳过

当前,这个方式的前提是在你电脑的环境变量上CLASSPATH添加slf4j-api.jar的绝对路径即可

3.4中文命名实体

#对于chinese.misc.distsim.crf.ser.gz与chinese.misc.distsim.prop文件,将stanford-chinese-corenlp-2016-10-31-models.jar解压可以找到。

# -*- coding: utf-8 -*-
from nltk.tag import StanfordNERTagger
result='四川省 成都 信息 工程 大学 我 在 博客 园 开 了 一个 博客 , 我 的 博客 名叫 伏 草 惟 存 , 写 了 一些 自然语言 处理 的 文章 。rn'
chi_tagger = StanfordNERTagger(model_filename=r'D:NLTKstanford-chinese-corenlp-2018-02-27-modelsedustanfordnlpmodelsnerchinese.misc.distsim.crf.ser.gz',
                               path_to_jar=r'D:NLTKstanford-ner-2015-12-09stanford-ner.jar')
for word, tag in chi_tagger.tag(result.split()):
    print(word,tag)
3.5词性标注

StanfordPOSTagger 中文词性标注

# -*- coding: utf-8 -*-
from nltk.tag import StanfordPOSTagger
chi_tagger = StanfordPOSTagger(model_filename=r'D:NLTKstanford-postagger-full-2015-12-09modelschinese-distsim.tagger',
                             path_to_jar=r'D:NLTKstanford-postagger-full-2015-12-09stanford-postagger.jar')
result= '四川省 成都 信息 工程 大学 我 在 博客 园 开 了 一个 博客 , 我 的 博客 名叫 伏 草 惟 存 , 写 了 一些 自然语言 处理 的 文章 。rn'
print(chi_tagger.tag(result.split()))

3.6中文语法分析

# -*- coding: utf-8 -*-
from nltk.parse.stanford import StanfordParser
chi_parser = StanfordParser(r"D:NLTKstanford-parser-full-2015-12-09stanford-parser.jar",
                            r"D:NLTKstanford-parser-full-2015-12-09stanford-parser-3.6.0-models.jar",
                            r"D:NLTKstanford-chinese-corenlp-2018-02-27-modelsedustanfordnlpmodelslexparserchinesePCFG.ser.gz")
sent = u'北海 已 成为 中国 对外开放 中 升起 的 一 颗 明星'
print(list(chi_parser.parse(sent.split())))

3.7 中文依存句法分析

# -*- coding: utf-8 -*-
from nltk.parse.stanford import StanfordDependencyParser
chi_parser = StanfordDependencyParser(r"D:NLTKstanford-parser-full-2015-12-09stanford-parser.jar",
                                      r"D:NLTKstanford-parser-full-2015-12-09stanford-parser-3.6.0-models.jar",
                                      r"D:NLTKstanford-chinese-corenlp-2018-02-27-modelsedustanfordnlpmodelslexparserchinesePCFG.ser.gz")
res = list(chi_parser.parse(u'四川 已 成为 中国 西部 对外开放 中 升起 的 一 颗 明星'.split()))
for row in res[0].triples():
    print(row)

说明所有资料整理自 

【NLP】干货!Python NLTK结合stanford NLP工具包进行文本处理根据自己的环境进行的修改,上述代码可以正常运行
本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭