Doctest falla debido a que unicode te lleva
Estoy escribiendo un doctest para una función que genera una lista de palabras simbólicas.
r'''
>>> s = "This is a tokenized sentence s\u00f3"
>>> tokenizer.tokenize(s0)
['This', 'is', 'a', 'tokenized', 'sentence', 'só']
'''
UtilizandoPython3.4 mi prueba pasa sin problemas.
UtilizandoPython2.7 Yo obtengo:
Expected:
['This', 'is', 'a', 'tokenized', 'sentence', 'só']
Got:
[u'This', u'is', u'a', u'tokenized', u'sentence', u's\xf3']
Mi código tiene que funcionar tanto en Python3.4 como en Python2.7. ¿Como puedó resolver esté problema?