Stanford Dependency Parser Setup и NLTK
Так что я получил «стандартный» Stanford Parser для работы благодаря ответам danger89 на этот предыдущий пост,Стэнфордский парсер и NLTK.
Однако теперь я пытаюсь заставить работать анализатор зависимостей, и кажется, что метод, выделенный в предыдущей ссылке, больше не работает. Вот мой код:
import nltk
import os
java_path = "C:\\Program Files\\Java\\jre1.8.0_51\\bin\\java.exe"
os.environ['JAVAHOME'] = java_path
from nltk.parse import stanford
os.environ['STANFORD_PARSER'] = 'path/jar'
os.environ['STANFORD_MODELS'] = 'path/jar'
parser = stanford.StanfordDependencyParser(model_path="path/jar/englishPCFG.ser.gz")
sentences = parser.raw_parse_sents(nltk.sent_tokenize("The iPod is expensive but pretty."))
Я получаю следующую ошибку:У объекта 'module' нет атрибута 'StanfordDependencyParser'
Единственное, что я изменил, это "StanfordDependencyParser" из "StanfordParser". Любые идеи, как я могу заставить это работать?
Я также попробовал парсер Stanford Neural Dependency, импортировав его, как показано в документации здесь:http://www.nltk.org/_modules/nltk/parse/stanford.html
Этот тоже не сработал.
Довольно новый для НЛТК. Заранее спасибо за любой полезный вклад.