Stanford Dependency Parser Setup и NLTK

Так что я получил «стандартный» Stanford Parser для работы благодаря ответам danger89 на этот предыдущий пост,Стэнфордский парсер и NLTK.

Однако теперь я пытаюсь заставить работать анализатор зависимостей, и кажется, что метод, выделенный в предыдущей ссылке, больше не работает. Вот мой код:

import nltk
import os
java_path = "C:\\Program Files\\Java\\jre1.8.0_51\\bin\\java.exe" 
os.environ['JAVAHOME'] = java_path


from nltk.parse import stanford
os.environ['STANFORD_PARSER'] = 'path/jar'
os.environ['STANFORD_MODELS'] = 'path/jar'
parser = stanford.StanfordDependencyParser(model_path="path/jar/englishPCFG.ser.gz")

sentences = parser.raw_parse_sents(nltk.sent_tokenize("The iPod is expensive but pretty."))

Я получаю следующую ошибку:У объекта 'module' нет атрибута 'StanfordDependencyParser'

Единственное, что я изменил, это "StanfordDependencyParser" из "StanfordParser". Любые идеи, как я могу заставить это работать?

Я также попробовал парсер Stanford Neural Dependency, импортировав его, как показано в документации здесь:http://www.nltk.org/_modules/nltk/parse/stanford.html

Этот тоже не сработал.

Довольно новый для НЛТК. Заранее спасибо за любой полезный вклад.

Ответы на вопрос(2)

Ваш ответ на вопрос