Tag: python 3.x

在openjdk:7-jre-alpine docker如何安装python 3.6

直到大约一周前,我成功地在java图像上使用python 3.6脚本,如下所示: FROM openjdk:7-jre-alpine RUN apk update \ && apk upgrade \ && apk add –no-cache bash \ && apk add –no-cache –virtual=build-dependencies unzip \ && apk add –no-cache curl \ && apk add –no-cache go RUN apk add –no-cache python3 && \ python3 -m ensurepip && \ rm -r /usr/lib/python*/ensurepip && \ pip3 install […]

加载自定义NER模型Stanford CoreNLP

我用Stanford的“Stanford-NER”软件创建了我自己的NER模型,并遵循这些指示。 我知道CoreNLP按以下顺序加载了三个NER模型: edu/stanford/nlp/models/ner/english.all.3class.distsim.crf.ser.gz edu/stanford/nlp/models/ner/english.muc.7class.distsim.crf.ser.gz edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz 我现在想在上面的列表中包含我的NER模型,并首先使用我的NER模型标记文本。 我之前发现了两个关于这个主题的StackOverflow问题,它们是“Stanford OpenIE使用定制的NER模型”和“为什么Stanford CoreNLP NER-annotator默认加载3个模型?” 这两篇文章都有很好的答案。 答案的一般信息是您必须编辑文件中的代码。 斯坦福OpenIE使用定制的NER模型 从这篇文章中它说要编辑corenlpserver.sh但我在Stanford CoreNLP下载的软件中找不到这个文件。 有人能指出我这个文件的位置吗? Stanford CoreNLP NER-annotator默认加载3个型号吗? 这篇文章说我可以使用-ner.model的参数来专门调用要加载的NER模型。 我将此参数添加到初始服务器命令( java -mx4g -cp “*” edu.stanford.nlp.pipeline.StanfordCoreNLPServer -port 9000 -timeout 15000 -ner.model *modlefilepathhere* )。 这不起作用,因为服务器仍然加载所有三个模型。 它还声明您必须更改一些Java代码,尽管它没有特别指出要进行更改的位置。 我是否需要修改或添加此代码props.put(“ner.model”, “model_path1,model_path2”); 到CoreNLP软件中的特定类文件? 问题:从我的研究中看来,我需要添加/修改一些代码来调用我独特的NER模型。 上面概述了这些“编辑”,这些信息已从其他StackOverflow问题中提取出来。 我需要编辑哪些文件? 这些文件到底在哪里(即edu / Stanford / nlp / …等)? 编辑:我的系统在本地服务器上运行,我正在使用API​​ pycorenlp打开到我的本地服务器的管道并发出请求。 python / pycorenlp代码的两个关键行是: nlp = […]