Kodowanie HTML i parsowanie lxml

Próbuję w końcu rozwiązać niektóre problemy z kodowaniem, które pojawiają się podczas próby zeskrobania kodu HTML za pomocą lxml. Oto trzy przykładowe dokumenty HTML, które napotkałam:

1

<!DOCTYPE html>
<html lang='en'>
<head>
   <title>Unicode Chars: 은 —’</title>
   <meta charset='utf-8'>
</head>
<body></body>
</html>

2.

<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml" xml:lang="ko-KR" lang="ko-KR">
<head>
    <title>Unicode Chars: 은 —’</title>
    <meta http-equiv="content-type" content="text/html; charset=utf-8" />
</head>
<body></body>
</html>

3.

<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE html
PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN"
"http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd">
<html xmlns="http://www.w3.org/1999/xhtml" xml:lang="en" lang="en">
<head>
    <meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
    <title>Unicode Chars: 은 —’</title>
</head>
<body></body>
</html>

Mój podstawowy skrypt:

from lxml.html import fromstring
...

doc = fromstring(raw_html)
title = doc.xpath('//title/text()')[0]
print title

Wyniki są następujące:

Unicode Chars: ì ââ
Unicode Chars: 은 —’
Unicode Chars: 은 —’

Więc oczywiście problem z próbką 1 i brakującym<meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> etykietka. Rozwiązanie ztutaj poprawnie rozpozna próbkę 1 jako utf-8, a więc jest funkcjonalnie równoważny z moim oryginalnym kodem.

Dokumenty lxml wyglądają na skonfliktowane:

Ztutaj przykład wydaje się sugerować, że powinniśmy użyć UnicodeDammit do kodowania znaczników jako unicode.

from BeautifulSoup import UnicodeDammit

def decode_html(html_string):
    converted = UnicodeDammit(html_string, isHTML=True)
    if not converted.unicode:
        raise UnicodeDecodeError(
            "Failed to detect encoding, tried [%s]",
            ', '.join(converted.triedEncodings))
    # print converted.originalEncoding
    return converted.unicode

root = lxml.html.fromstring(decode_html(tag_soup))

jednaktutaj to mówi:

[Y] Otrzymasz błędy podczas próby [przeanalizowania] danych HTML w ciągu Unicode, który określa zestaw znaków w metatagu nagłówka. Powinieneś na ogół unikać konwertowania danych XML / HTML na Unicode przed przekazaniem ich do analizatorów składni. Jest zarówno wolniejszy, jak i podatny na błędy.

Jeśli spróbuję postępować zgodnie z pierwszą sugestią w dokumentach lxml, mój kod jest teraz:

from lxml.html import fromstring
from bs4 import UnicodeDammit
...
dammit = UnicodeDammit(raw_html)
doc = fromstring(dammit.unicode_markup)
title = doc.xpath('//title/text()')[0]
print title

Otrzymuję teraz następujące wyniki:

Unicode Chars: 은 —’
Unicode Chars: 은 —’
ValueError: Unicode strings with encoding declaration are not supported.

Próbka 1 działa teraz poprawnie, ale próbka 3 powoduje błąd z powodu<?xml version="1.0" encoding="utf-8"?> etykietka.

Czy istnieje właściwy sposób postępowania w przypadku wszystkich tych przypadków? Czy istnieje lepsze rozwiązanie niż poniższe?

dammit = UnicodeDammit(raw_html)
try:
    doc = fromstring(dammit.unicode_markup)
except ValueError:
    doc = fromstring(raw_html)

questionAnswers(2)

yourAnswerToTheQuestion