Doctest falla debido a que unicode te lleva

Estoy escribiendo un doctest para una función que genera una lista de palabras simbólicas.

r'''

>>> s = "This is a tokenized sentence s\u00f3"
>>> tokenizer.tokenize(s0)
['This', 'is', 'a', 'tokenized', 'sentence', 'só']

'''

UtilizandoPython3.4 mi prueba pasa sin problemas.

UtilizandoPython2.7 Yo obtengo:

Expected:
  ['This', 'is', 'a', 'tokenized', 'sentence', 'só']
Got:
  [u'This', u'is', u'a', u'tokenized', u'sentence', u's\xf3']

Mi código tiene que funcionar tanto en Python3.4 como en Python2.7. ¿Como puedó resolver esté problema?

Respuestas a la pregunta(1)

Su respuesta a la pregunta