Результаты поиска по запросу "scala"
Спасибо за concat_ws !!
я есть входные данные, как показано ниже, с идентификатором, приложением и клиентом Входной фрейм данных +--------------------+-----+---------+ | id|app |customer | +--------------------+-----+---------+ |id1 | fw| WM | |id1 | fw| CS | |id2 ...
При установке scala с использованием Brew может потребоваться изменить / lib / на / libexec / lib /
не установить antlib.xml для scala, чтобы муравей работал? Прямо сейчас я сталкиваюсь со следующей ошибкой при запускеant в файле build.xml, который содержит задачи scala. [taskdef] Could not load definitions from resource ...
stackoverflow.com/questions/48670551/...
раняю свой вывод данных в формате spark в виде csv-файла в scala с разделами. Вот как я это делаю вдирижабль. val sqlContext = new org.apache.spark.sql.SQLContext(sc) import sqlContext.implicits._ import org.apache.spark.{ SparkConf, ...
в моем случае может оказаться достаточной идея разделения фрейма данных на маленькие / большие записи.
я есть датафрейм следующей формы: import scala.util.Random val localData = (1 to 100).map(i => (i,Seq.fill(Math.abs(Random.nextGaussian()*100).toInt)(Random.nextDouble))) val df = sc.parallelize(localData).toDF("id","data") |-- id: integer ...
Последний случай является частично примененной функцией. Я чувствую, что я сейчас слишком широк, поэтому я остановлюсь здесь. Я надеюсь, что это помогло.
кто-нибудь дать однозначный ответ о том, как по названию параметров=> T а такжеFunction0 параметры() => T превращаются друг в друга компилятором Scala? Я знаю, что они не одинаковы, но разница очень тонкая, поскольку они могут взаимозаменяемо ...
Я просто удаляю Java 9, пока кто-нибудь не даст мне немного света, и компиляция будет работать как обычно.
о запустите пример проекта Scala SBT после установки Java 9 на моем компьютере, и я воспользовался этим исключением. Я уже попробовал некоторые решения, которые я нашел, но ничего. Есть ли несовместимость между Java 9 и Scala? Версия Scala: ...
Вот как я это сделал, чтобы выполнить аналогичное требование.
аюсь определить литерал Map с ключом:String, стоимость:(Any)=>String, Я пробовал следующее, но получаю синтаксическую ошибку: def foo(x: Int): String = /... def bar(x: Boolean): String = /... val m = Map[String, (Any) => String]("hello" -> foo, ...
используется для загрузки десериализованного класса на исполнителя?
ел этоmock объект вMockito бросил быClassNotFoundException при использовании в Spark. Вот минимальный пример: import org.apache.spark.{SparkConf, SparkContext} import org.mockito.{Matchers, Mockito} import org.scalatest.FlatSpec import ...
Вы можете сделать что-то вроде того, что вы можете сделать в Java, например:
могут быть допустимые случаи, когда такие перегрузки методов могут стать неоднозначными, почему компилятор запрещает код, который не является неоднозначным ни во время компиляции, ни во время выполнения? Пример: // This fails: def foo(a: ...
Вы можете «отключить» неявное с помощью следующего трюка и попробовать вышеприведенное выражение (что приведет к ошибке).
ользую Spark 2.2 и сталкиваюсь с проблемами при попытке позвонитьspark.createDataset наSeq изMap. Код и вывод из моего сеанса Spark Shell следующие: // createDataSet on Seq[T] where T = Int works scala> spark.createDataset(Seq(1, 2, 3)).collect ...