Rozwiąż rdzeń przy użyciu Stanford CoreNLP - nie można załadować modelu analizatora składni
Chcę wykonać bardzo proste zadanie: biorąc pod uwagę ciąg zawierający zaimki, chcę je rozwiązać.
na przykład chcę zamienić zdanie „Mary ma małą owieczkę. Jest słodka”. w „Mary ma małą owieczkę. Maryja jest urocza”.
Próbowałem użyć Stanford CoreNLP. Wydaje mi się jednak, że nie mogę uruchomić parsera. Zaimportowałem wszystkie dołączone słoiki w moim projekcie za pomocą Eclipse i przydzieliłem 3GB do JVM (-Xmx3g).
Błąd jest bardzo niezręczny:
Wyjątek w wątku „main” java.lang.NoSuchMethodError: edu.stanford.nlp.parser.lexparser.LexicalizedParser.loadModel (Ljava / lang / String; [Ljava / lang / String;) Ledu / stanford / nlp / parser / lexparser / LexicalizedParser;
Nie rozumiem, skąd pochodzi L, myślę, że to jest źródło mojego problemu ... To dość dziwne. Próbowałem dostać się do plików źródłowych, ale nie ma tam niewłaściwych odniesień.
Kod:
import edu.stanford.nlp.semgraph.SemanticGraphCoreAnnotations.CollapsedCCProcessedDependenciesAnnotation;
import edu.stanford.nlp.dcoref.CorefCoreAnnotations.CorefChainAnnotation;
import edu.stanford.nlp.dcoref.CorefCoreAnnotations.CorefGraphAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.NamedEntityTagAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.PartOfSpeechAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.SentencesAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.TextAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.TokensAnnotation;
import edu.stanford.nlp.trees.TreeCoreAnnotations.TreeAnnotation;
import edu.stanford.nlp.ling.CoreLabel;
import edu.stanford.nlp.dcoref.CorefChain;
import edu.stanford.nlp.pipeline.*;
import edu.stanford.nlp.trees.Tree;
import edu.stanford.nlp.semgraph.SemanticGraph;
import edu.stanford.nlp.util.CoreMap;
import edu.stanford.nlp.util.IntTuple;
import edu.stanford.nlp.util.Pair;
import edu.stanford.nlp.util.Timing;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.Map;
import java.util.Properties;
public class Coref {
/**
* @param args the command line arguments
*/
public static void main(String[] args) throws IOException, ClassNotFoundException {
// creates a StanfordCoreNLP object, with POS tagging, lemmatization, NER, parsing, and coreference resolution
Properties props = new Properties();
props.put("annotators", "tokenize, ssplit, pos, lemma, ner, parse, dcoref");
StanfordCoreNLP pipeline = new StanfordCoreNLP(props);
// read some text in the text variable
String text = "Mary has a little lamb. She is very cute."; // Add your text here!
// create an empty Annotation just with the given text
Annotation document = new Annotation(text);
// run all Annotators on this text
pipeline.annotate(document);
// these are all the sentences in this document
// a CoreMap is essentially a Map that uses class objects as keys and has values with custom types
List<CoreMap> sentences = document.get(SentencesAnnotation.class);
for(CoreMap sentence: sentences) {
// traversing the words in the current sentence
// a CoreLabel is a CoreMap with additional token-specific methods
for (CoreLabel token: sentence.get(TokensAnnotation.class)) {
// this is the text of the token
String word = token.get(TextAnnotation.class);
// this is the POS tag of the token
String pos = token.get(PartOfSpeechAnnotation.class);
// this is the NER label of the token
String ne = token.get(NamedEntityTagAnnotation.class);
}
// this is the parse tree of the current sentence
Tree tree = sentence.get(TreeAnnotation.class);
System.out.println(tree);
// this is the Stanford dependency graph of the current sentence
SemanticGraph dependencies = sentence.get(CollapsedCCProcessedDependenciesAnnotation.class);
}
// This is the coreference link graph
// Each chain stores a set of mentions that link to each other,
// along with a method for getting the most representative mention
// Both sentence and token offsets start at 1!
Map<Integer, CorefChain> graph =
document.get(CorefChainAnnotation.class);
System.out.println(graph);
}
}
Ślad pełnego stosu:
Dodawanie tokenize adnotatora Dodawanie adnotatora ssplit Dodawanie adnotatora pos Ładowanie modelu POS [edu / stanford / nlp / models / pos-tagger / english-left3words / english-left3words-distsim.tagger] ... Ładowanie domyślnych właściwości od wyszkolonego tagger edu / stanford / nlp / models / pos-tagger / english-left3words / english-left3words-distsim.tagger Czytanie modelu tagger POS z edu / stanford / nlp / models / pos-tagger / english-left3words / english-left3words-distsim.tagger ... zrobione [2.1 s]. zrobione [2,2 s]. Dodawanie lematu adnotatora Dodawanie annotator ner Ładowanie klasyfikatora z edu / stanford / nlp / models / ner / english.all.3class.distsim.crf.ser.gz ... done [4.0 sec]. Ładowanie klasyfikatora z edu / stanford / nlp / models / ner / english.muc.distsim.crf.ser.gz ... done [3.0 sec]. Ładowanie klasyfikatora z edu / stanford / nlp / models / ner / english.conll.distsim.crf.ser.gz ... done [3.3 sec]. Dodawanie parsera adnotatora Wyjątek w wątku „main” java.lang.NoSuchMethodError: edu.stanford.nlp.parser.lexparser.LexicalizedParser.loadModel (Ljava / lang / String; [Ljava / lang / String;) Ledu / stanford / nlp / parser / lexparser / LexicalizedParser; at edu.stanford.nlp.pipeline.ParserAnnotator.loadModel (ParserAnnotator.java:115) pod adresem edu.stanford.nlp.pipeline.ParserAnnotator. (ParserAnnotator.java:64) na stronie edu.stanford.nlp.pipeline.StanfordCoreNLP $ 12. utwórz (StanfordCoreNLP.java:603) w edu.stanford.nlp.pipeline.StanfordCoreNLP $ 12.create (StanfordCoreNLP.java:585) w edu.stanford.nlp.pipeline.AnnotatorPool.get (AnnotatorPool.java:62) w edu.stanford .nlp.pipeline.StanfordCoreNLP.construct (StanfordCoreNLP.java:329) na edu.stanford.nlp.pipeline.StanfordCoreNLP. (StanfordCoreNLP.java:196) na edu.stanford.nlp.pipeline.StanfordCoreNLP. ) w edu.stanford.nlp.pipeline.StanfordCoreNLP. (StanfordCoreNLP.java:178) w Coref.main (Coref.java:41)