Raspagem de Python - Não é possível obter os dados necessários do Flipkart

Eu estava tentando raspar os comentários dos clientes no site Flipkart. O seguinte é oligação. O código a seguir foi raspado, mas ele sempre retorna uma lista vazia.

>>> from bs4 import BeautifulSoup
>>> import requests

>>> r = requests.get('https://www.flipkart.com/samsung-galaxy-j5-6-new-2016-edition-white-16-gb/product-reviews/itmegmrnzqjcpfg9?pid=MOBEG4XWJG7F9A6Z')
>>> soup = BeautifulSoup(r.content, 'lxml') # Tried with 'html.parser' also
>>> soup.find_all('div', '_3DCdKt')
[]
>>> soup.find_all('div', {'class': '_3DCdKt'})
[]
>>> soup.find_all('div', {'class': 'row _3wYu6I _3BRC7L'})
[]
>>> soup.find_all('div', {'class': '_1GRhLX hFPo14'})
[]

Então, tentei obter a seção inteira, mas estava obtendo apenas o seguinte:

>>> soup.find_all('div', {'class': 'col-9-12'})
[<div class="col-9-12" data-reactid="96"><div class="row _2_xtR5" data-reactid="97"></div><div class="row _3wYu6I _1KVtzT" data-reactid="98"></div></div>]

Eu não estava recebendo o outro conteúdo. Então, depois tentei com selênio, mesmo assim ele estava retornandoNone. A seguir está o meu código de selênio:

>>> driver = webdriver.Firefox()
>>> driver.get('https://www.flipkart.com/samsung-galaxy-j5-6-new-2016-edition-white-16-gb/product-reviews/itmegmrnzqjcpfg9?pid=MOBEG4XWJG7F9A6Z')
>>> a = driver.find_elements_by_class_name("_3DCdKt")
>>> len(a)
10
>>> for i in a:
...    print i.get_attribute('value')
...
None
None
None
None
None
None
None
None
None
None

Qual pode ser o problema? Estou cometendo algum erro no código. Por favor, ajude. Eu sou novo no Python.

questionAnswers(2)

yourAnswerToTheQuestion