Результаты поиска по запросу "scala"
Я попробовал этот подход, и он по-прежнему дает мне ошибку хоста не допускается.
аюсь развернуть простое веб-приложение, написанное с использованием Play Framework в Scala, на веб-сервис Amazon. Веб-приложение работает нормально в режиме разработки и производственном режиме на моем локальном компьютере, и я изменил порт по ...
Хотя я не думаю, что это имеет большое значение в этом конкретном случае.
оложим, у меня есть список функцийList[A => B] и нужна функция, которая возвращаетList[B] для данного значения типаA: def foo[A, B](fs: List[A => B]): A => List[B] = a => fs.map(_.apply(a))Есть ли что-нибудь попроще (может быть, сcats) способ ...
как вы создаете sqlContext?
ускаю модуль логистической регрессии в Scala, и у меня есть кадр данных, как показано ниже: Д.Ф. +-----------+------------+ |x |y | +-----------+------------+ | 0| 0| | 0| 33| | 0| 58| | 0| 96| | 0| 1| | 1| 21| | 0| 10| | 0| 65| | 1| 7| | 1| ...
@KGCybeX, который действительно работает - но это обходной путь и устраняет безопасность, которую обеспечивает CSRF. Если вы когда-либо развернетесь, убедитесь, что там есть токен CSRF с проверкой, выполняете ли вы чувствительный POST.
чание: я новичок в Play Framework Используя этовидеоурок и плейлист [https://www.youtube.com/watch?v=hBTocaReFow&list=PLYPFxrXyK0Bx9SBkNhJr1e2-NlIq4E7ED&index=15] Мне удается создать простое веб-приложение. Проблема: POST методы в файле ...
Извините, я думал, что вы ошиблись данными
аюсь преобразовать простой DataFrame в DataSet из примера в Spark: https://spark.apache.org/docs/latest/sql-programming-guide.html [https://spark.apache.org/docs/latest/sql-programming-guide.html] case class Person(name: String, age: Int) import ...
Привет еще один вопрос. Если у меня есть несколько столбцов, как это, как я могу взорвать их вместе?
роблема в том, что у меня есть такая таблица: ------------------------ A B C ------------------------ a1 b2 c1|c2|c3|c4c1 | c2 | c3 | c4 - это одно значение, разделенное |. Мой конечный результат должен выглядеть так: --------- A B C --------- ...
Читать многострочный JSON в Apache Spark
от вопрос уже есть ответ здесь: Как получить доступ к дочерним объектам в файле JSON? [/questions/44814926/how-to-access-sub-entities-in-json-file] 1 ответУ меня есть файл JSON, который выглядит так { "group" : {}, "lang" : [ [ 1, "scala", ...
Отлично! Это даже работает для вложенных структур.
адр данных, в котором один столбец является последовательностью структур, сгенерированных следующей последовательностью val df = spark .range(10) .map((i) => (i % 2, util.Random.nextInt(10), util.Random.nextInt(10))) .toDF("a","b","c") ...
Попробуйте ... поймать ... наконец вернуть значение
Я обнаружил, что это позор, что я не могу вернуть возвращаемое значение из такой простой конструкции, какtry ... catch ... finally def foo: String = { val in = new BufferedReader(.....) try { // val in = new BufferedReader(.....) -- doesn't ...
этот ответ
аюсь прочитать файлы, присутствующие наSequence троп в скале. Ниже приведен пример (псевдо) кода: val paths = Seq[String] //Seq of paths val dataframe = spark.read.parquet(paths: _*)Теперь в приведенной выше последовательности некоторые пути ...