SparklyR удаляет таблицу из контекста Spark

Хотел бы удалить одну таблицу данных из контекста Spark ('sc'). Я знаю, что одна кэшированная таблица может быть некэшированной, но это не то же самое, что удаление объекта из sc - насколько я могу собрать.

library(sparklyr)
library(dplyr)
library(titanic)
library(Lahman)

spark_install(version = "2.0.0")
sc <- spark_connect(master = "local")

batting_tbl <- copy_to(sc, Lahman::Batting, "batting")
titanic_tbl <- copy_to(sc, titanic_train, "titanic", overwrite = TRUE)
src_tbls(sc) 
# [1] "batting" "titanic"

tbl_cache(sc, "batting") # Speeds up computations -- loaded into memory
src_tbls(sc) 
# [1] "batting" "titanic"

tbl_uncache(sc, "batting")
src_tbls(sc) 
# [1] "batting" "titanic"

Чтобы отключить полный ск, я бы использовалspark_disconnect(sc), но в этом примере это уничтожило бы как «титанические», так и «ватиновые» таблицы, хранящиеся внутри sc.

Скорее, я хотел бы удалить, например, "ватин" с чем-то вродеspark_disconnect(sc, tableToRemove = "batting"), но это не представляется возможным.

Ответы на вопрос(2)

Ваш ответ на вопрос