Resultados da pesquisa a pedido "scala"
Algumas perguntas sobre a diferença entre as funções chamar-por-nome e 0-arity
Existem algumas discussões aqui sobre isso, mas tenho algumas perguntas específicas para as quais não consegui encontrar uma resposta. Então, por chamada por nome, quero dizer=>T tipo, e por função 0-arity quero dizer() => T Entendo (acho) a ...
como agendar um trabalho de quartzo com scala
Estou tentando obter o exemplo mais simples de um trabalho de quartzo em execução no Scala. configure () é executado uma vez quando meu módulo é carregado. lazy val quartz = StdSchedulerFactory.getDefaultScheduler override def configure() = { ...
Como compactar dois (ou mais) DataFrame no Spark
Eu tenho doisDataFrame a eb. a é como Column 1 | Column 2 abc | 123 cde | 23b é como Column 1 1 2Eu quero fechara eb (ou mais) DataFrames que se torna algo como: Column 1 | Column 2 | Column 3 abc | 123 | 1 cde | 23 | 2Como eu posso fazer isso?
O que Scala está tentando me dizer e como faço para corrigir isso? [obrigatório: java.util.List [? 0] em que tipo? 0]
Estou aprendendo o Scala e hoje me senti confiante em apresentá-lo a um de nossos projetos. O aplicativo faz muitas coisas com JPA / Hibernate e comecei a implementar uma das interfaces Java no Scala. Tudo correu bem, até eu tentar traduzir ...
O que o cifrão faz em scala
Quando eu estava lendo o código fonte do sparkaqui [https://github.com/apache/spark/blob/098be27ad53c485ee2fc7f5871c47f899020e87b/mllib/src/main/scala/org/apache/spark/ml/classification/MultilayerPerceptronClassifier.scala#L66] Vi código ...
Partição SparkPor muito mais lento que sem ela
Eu testei a escrita com: df.write.partitionBy("id", "name") .mode(SaveMode.Append) .parquet(filePath)No entanto, se eu deixar de fora o particionamento: df.write .mode(SaveMode.Append) .parquet(filePath)Ele executa 100x (!) Mais rápido. É ...
O mapa não pode ser serializado no scala?
Eu sou novo no Scala. Como é que a função "map" não é serializável? Como torná-lo serializável? Por exemplo, se meu código for como abaixo: val data = sc.parallelize(List(1,4,3,5,2,3,5)) def myfunc(iter: Iterator[Int]) : Iterator[Int] = { val ...
O Play Framework 2.4 usa a variável injetada no modelo Scala
Gostaria de mostrar alguns dados do banco de dados na barra de menus da minha página da web. Para obter os dados, eu tenho um objeto de acesso a dados (DAO), que geralmente é criado com a injeção do Guice. Como posso usar esse objeto (injetado) ...
Scala: deslizante (N, N) vs agrupado (N)
Ultimamente, encontrei-me usando deslizamento (n, n) quando preciso iterar coleções em grupos de n elementos sem reprocessar nenhum deles. Eu queria saber se seria mais correto iterar essas coleções usando o agrupado (n). Minha pergunta é se ...
Achatamento de linhas no Spark
Estou fazendo alguns testes para faísca usando scala. Geralmente lemos arquivos json que precisam ser manipulados como no exemplo a seguir: test.json: {"a":1,"b":[2,3]} val test = sqlContext.read.json("test.json")Como posso convertê-lo para o ...