R Web Scraping über mehrere Seiten

Ich arbeite an einem Web-Scraping-Programm, um nach bestimmten Weinen zu suchen und eine Liste lokaler Weine dieser Sorte zurückzugeben. Das Problem, das ich habe, ist mehrseitige Resultate. Der folgende Code ist ein grundlegendes Beispiel für die Arbeit mit

url2 <- "http://www.winemag.com/?s=washington+merlot&search_type=reviews"
htmlpage2 <- read_html(url2)
names2 <- html_nodes(htmlpage2, ".review-listing .title")
Wines2 <- html_text(names2)

Für diese spezielle Suche gibt es 39 Ergebnisseiten. Ich weiß, dass sich die URL zu @ änderhttp: //www.winemag.com/? s = washington% 20merlot & drink_type = wine & page = 2, aber gibt es eine einfache Möglichkeit, die Codeschleife durch alle zurückgegebenen Seiten zu führen und die Ergebnisse aller 39 Seiten in einer einzigen Liste zusammenzufassen? Ich weiß, dass ich alle URLs manuell ausführen kann, aber das scheint übertrieben.

Antworten auf die Frage(4)

Ihre Antwort auf die Frage