Configuración del analizador de dependencia de Stanford y NLTK
Así que conseguí que el Stanford Parser "estándar" funcionara gracias a las respuestas de danger89 a esta publicación anterior,Stanford Parser y NLTK.
Sin embargo, ahora estoy tratando de que el analizador de dependencias funcione y parece que el método resaltado en el enlace anterior ya no funciona. Aquí está mi código:
import nltk
import os
java_path = "C:\\Program Files\\Java\\jre1.8.0_51\\bin\\java.exe"
os.environ['JAVAHOME'] = java_path
from nltk.parse import stanford
os.environ['STANFORD_PARSER'] = 'path/jar'
os.environ['STANFORD_MODELS'] = 'path/jar'
parser = stanford.StanfordDependencyParser(model_path="path/jar/englishPCFG.ser.gz")
sentences = parser.raw_parse_sents(nltk.sent_tokenize("The iPod is expensive but pretty."))
Obtuve el siguiente error:El objeto 'módulo' no tiene atributo 'StanfordDependencyParser'
Lo único que cambié fue "StanfordDependencyParser" de "StanfordParser". ¿Alguna idea de cómo puedo hacer que esto funcione?
También probé el analizador de dependencia neuronal de Stanford importándolo como se muestra en la documentación aquí:http://www.nltk.org/_modules/nltk/parse/stanford.html
Este tampoco funcionó.
Bastante nuevo en NLTK. Gracias de antemano por cualquier aportación útil.