Результаты поиска по запросу "scala"

1 ответ

На сегодняшний день это лучшее и наиболее полное объяснение этой темы, которое я нашел до сих пор. Спасибо Вам большое!

говоря, каковы границы контекста и представления и в чем разница между ними?Некоторые простые в следовании примеры тоже были бы хороши!

0 ответов

github.com/chaostheory/jibenakka

шал много бреда оAkka [http://akka.io/]фреймворк (сервисная платформа Java / Scala), но до сих пор не было много реальных примеров использования, для которых это было бы хорошо. Поэтому мне было бы интересно услышать о вещах, которые разработчики ...

1 ответ

Поэтому я бы сказал, что это максимальное количество элементов, которые можно обрабатывать без регулирования. Обработанный "в то же время" никогда не будет точным определением в потоке :)

def throttle(elements: Int, per: FiniteDuration, maximumBurst: Int, mode: ThrottleMode): Repr[Out]лиmaximumBurst означает количество элементов, которые могут быть обработаны одновременно?

ТОП публикаций

1 ответ

как вышеупомянутая логика будет работать в спарк 1.6.0, то же самое работает на hiveContext

я есть сценарий для сравнения двух разных таблиц источника и назначения с двух отдельных серверов Hive, можем ли мы использовать дваSparkSessions что-то подобное я попробовал ниже: val spark = SparkSession.builder().master("local") ...

0 ответов

И теперь вы сделали. Это общее правило применяется ко всем указанным зависимостям.

я есть класс обслуживания, и у сервиса есть один методgetSomethingFromApi Теперь я хочу иметь экземпляр конфигурации воспроизведения, чтобы я мог извлечь данные из application.conf и WSClient воспроизведения, чтобы я мог ...

1 ответ

, Мне даже удалось отфильтровать RDD, присвоить их набору Status и затем выполнить итерацию по этому набору для окончательной обработки.

аюсь получить доступ к коллекции отфильтрованных DStreams, полученных как в решении этого вопроса:Spark Streaming - лучший способ разделения входного потока на основе фильтра ...

0 ответов

 во внутренних скобках меняется его значение.

я есть следующая карта: var result = collection.mutable.Map[LocalDate,String]Мне нужно отсортировать его по LocalDate, это не работает, так как я получаю следующую ошибку компиляции:missing parameter type for expanded function ((x$1) ...

1 ответ

Как вы определяете тип для функции в Scala?

Я надеюсь, что есть способ определить тип для функции в Scala. Например, скажем, я хочу функцию, которая принимает два Ints и возвращает логическое значение, я мог бы определить функцию, которая использует это следующим образом: def ...

2 ответа

, Благодарю.

н левого блока» Монад: unit(x) flatMap f == f(x)Но: (List(1) flatMap ((x: Int) => Some[Int](x))) == List(1) // true ((x: Int) => Some[Int](x))(1) == Some(1) // also trueТаким образом, закон о левой единице не распространяется на списки в scala. ...

0 ответов

 ссылка в правом верхнем углу. Нажмите, чтобы перезагрузить вашу ИДЕЮ. Вы можете перезагрузить IDEA, чтобы убедиться, что вы загрузили все (так как я не вижу, что вы делаете, что на самом деле рекомендуется).

аюсь создать и запустить проект Scala / Spark в IntelliJ IDEA. я добавилorg.apache.spark:spark-sql_2.11:2.0.0 в глобальных библиотеках и мойbuild.sbt выглядит как ниже. name := "test" version := "1.0" scalaVersion := "2.11.8" ...