Wie werden gesicherte Seiten in R (https-Links) mit readHTMLTable aus dem XML-Paket durchsucht?

Es gibt gute Antworten auf SO zur Verwendung von readHTMLTable aus dem XML-Paket, und ich habe dies mit normalen http-Seiten getan, kann jedoch mein Problem mit https-Seiten nicht lösen.

Ich versuche, die Tabelle auf dieser Website zu lesen (URL-Zeichenfolge):

library(RTidyHTML)
library(XML)
url <- "https://ned.nih.gov/search/ViewDetails.aspx?NIHID=0010121048"
h = htmlParse(url)
tables <- readHTMLTable(url)

Aber ich bekomme diesen Fehler: Dateihttps://ned.nih.gov/search/Vi...does nicht existieren.

Ich habe versucht, das https-Problem damit zu überwinden (die ersten beiden Zeilen unten) (von der Verwendung von Google zur Lösungsfindung (wie hier:http://tonybreyal.wordpress.com/2012/01/13/r-a-quick-scrape-of-top-grossing-films-from-boxofficemojo-com/).

Dieser Trick hilft, mehr von der Seite zu sehen, aber alle Versuche, die Tabelle zu extrahieren, funktionieren nicht. Jeder Rat ist willkommen. Ich benötige die Tabellenfelder Organisation, Organisationstitel, Manager.

 #attempt to get past the https problem 
 raw <- getURL(url, followlocation = TRUE, cainfo = system.file("CurlSSL", "cacert.pem", package = "RCurl"))
 head(raw)
[1] "\r\n<!DOCTYPE html PUBLIC \"-//W3C//DTD XHTML 1.0 Transitional//EN\" \"http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd\">\n<html xmlns=\"http://www.w3.org/1999/xhtml\" xml:lang=\"en\" lang=\"en\">\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; 
...
 h = htmlParse(raw)
Error in htmlParse(raw) : File ...
tables <- readHTMLTable(raw)
Error in htmlParse(doc) : File ...

Antworten auf die Frage(3)

Ihre Antwort auf die Frage