Результаты поиска по запросу "scala"
На сегодняшний день это лучшее и наиболее полное объяснение этой темы, которое я нашел до сих пор. Спасибо Вам большое!
говоря, каковы границы контекста и представления и в чем разница между ними?Некоторые простые в следовании примеры тоже были бы хороши!
github.com/chaostheory/jibenakka
шал много бреда оAkka [http://akka.io/]фреймворк (сервисная платформа Java / Scala), но до сих пор не было много реальных примеров использования, для которых это было бы хорошо. Поэтому мне было бы интересно услышать о вещах, которые разработчики ...
Поэтому я бы сказал, что это максимальное количество элементов, которые можно обрабатывать без регулирования. Обработанный "в то же время" никогда не будет точным определением в потоке :)
def throttle(elements: Int, per: FiniteDuration, maximumBurst: Int, mode: ThrottleMode): Repr[Out]лиmaximumBurst означает количество элементов, которые могут быть обработаны одновременно?
как вышеупомянутая логика будет работать в спарк 1.6.0, то же самое работает на hiveContext
я есть сценарий для сравнения двух разных таблиц источника и назначения с двух отдельных серверов Hive, можем ли мы использовать дваSparkSessions что-то подобное я попробовал ниже: val spark = SparkSession.builder().master("local") ...
И теперь вы сделали. Это общее правило применяется ко всем указанным зависимостям.
я есть класс обслуживания, и у сервиса есть один методgetSomethingFromApi Теперь я хочу иметь экземпляр конфигурации воспроизведения, чтобы я мог извлечь данные из application.conf и WSClient воспроизведения, чтобы я мог ...
, Мне даже удалось отфильтровать RDD, присвоить их набору Status и затем выполнить итерацию по этому набору для окончательной обработки.
аюсь получить доступ к коллекции отфильтрованных DStreams, полученных как в решении этого вопроса:Spark Streaming - лучший способ разделения входного потока на основе фильтра ...
во внутренних скобках меняется его значение.
я есть следующая карта: var result = collection.mutable.Map[LocalDate,String]Мне нужно отсортировать его по LocalDate, это не работает, так как я получаю следующую ошибку компиляции:missing parameter type for expanded function ((x$1) ...
Как вы определяете тип для функции в Scala?
Я надеюсь, что есть способ определить тип для функции в Scala. Например, скажем, я хочу функцию, которая принимает два Ints и возвращает логическое значение, я мог бы определить функцию, которая использует это следующим образом: def ...
, Благодарю.
н левого блока» Монад: unit(x) flatMap f == f(x)Но: (List(1) flatMap ((x: Int) => Some[Int](x))) == List(1) // true ((x: Int) => Some[Int](x))(1) == Some(1) // also trueТаким образом, закон о левой единице не распространяется на списки в scala. ...
ссылка в правом верхнем углу. Нажмите, чтобы перезагрузить вашу ИДЕЮ. Вы можете перезагрузить IDEA, чтобы убедиться, что вы загрузили все (так как я не вижу, что вы делаете, что на самом деле рекомендуется).
аюсь создать и запустить проект Scala / Spark в IntelliJ IDEA. я добавилorg.apache.spark:spark-sql_2.11:2.0.0 в глобальных библиотеках и мойbuild.sbt выглядит как ниже. name := "test" version := "1.0" scalaVersion := "2.11.8" ...