Результаты поиска по запросу "scala"

1 ответ

Может быть, вы хотите использовать один UDF для каждого столбца? В этом случае я редактировал пост

ный фрейм данных 0,2 0,3 +------+------------- -+ | name| country | +------+---------------+ |Raju |UAS | |Ram |Pak. | |null |China | |null |null | +------+--------------+ I Need this +------+--------------+ |Nwet|wet Con | ...

1 ответ

Хотя я не заблокирован из-за заданного вопроса и выяснил альтернативный способ достижения того же самого, вопрос все еще открыт, поскольку первопричина для исключения все еще открыта, чтобы выяснить и решить

ользую интерпретатор Scala для оценки операторов Scala, исходя из конфигурации. Пример кода: import org.apache.spark.SparkConf import org.apache.spark.sql.{DataFrame, SparkSession} import scala.tools.nsc.Settings ...

2 ответа

Вы можете вызвать UDF:

аюсь внедрить накопительный продукт в Spark Scala, но я действительно не знаю, как это сделать. У меня есть следующий фрейм данных: Input data: +--+--+--------+----+ |A |B | date | val| +--+--+--------+----+ |rr|gg|20171103| 2 | |hh|jj|20171103| ...

ТОП публикаций

1 ответ

Попробуйте что-то вроде:

ема:Я должен вызвать методы Objects, которые хранятся в карте, для данного ключа, как это сделать?Код: trait Processor00 { def process(x:String): Unit } case class Processor20() extends Processor0 { override def process(x:String): Unit = ...

1 ответ

docs.spring.io/spring-framework/docs/2.5.x/api/org/...

я есть файлdata.xml вsrc/test/resources/. Как я могу прочитать этот файл в новыйFileReader в моем тестеdata.scala вsrc/test/scala/?

1 ответ

, Я там ответил

справить эту ошибку в этом коде trait Processor00 { def process(oraOptionDfConfig: DataFrameReader, sparkSession: SparkSession ): Unit } class BMValsProcessor extends Processor { def process(oraOptionDfConfig: DataFrameReader, sparkSession: ...

7 ответов

Спасибо за это. Последовательность не имеет значения (в моем случае), так как они все равно будут переданы актерам для выбора.

ичок в Scala и пытаюсь получить список случайных двойных значений: Дело в том, что когда я пытаюсь запустить это, это занимает слишком много времени по сравнению с его Java-аналогом. Любые идеи о том, почему это или предложение о более ...

2 ответа

Смешивание параметров типов и абстрактных типов в Scala

Я пытаюсь использовать ответпредыдущий вопрос [https://stackoverflow.com/questions/2059601/circular-type-parameters-definition-in-scala] реализовать небольшую библиотеку графов. Идея состоит в том, чтобы рассматривать графы как совокупности, где ...

2 ответа

Все "Double" .......... df_avg_calc.printSchema root | - col1: double (nullable = true) | - col2: double (nullable = true) | - col3: double (nullable = true) | - col4: double (nullable = true) | - col5: double (nullable = true) | - col6: double (nullable = true)

я есть датафрейм с большим объемом данных и числом столбцов "n". df_avg_calc: org.apache.spark.sql.DataFrame = [col1: double, col2: double ... 4 more ...

1 ответ

@aij Разоблачение приватной функции - вот что может сломать вещи.

ли способ проверить вложенную функцию (в идеале с ScalaTest)? Например, есть ли способ проверитьg() в приведенном ниже коде: def f() = { def g() = "a string!" g() + "– says g" }