Resultados da pesquisa a pedido "scala"

6 a resposta

Funções de escrita de tuplas convenientemente no Scala

Algumas funções emMap tome uma função em uma tupla de valor-chave como argumento. Por exemplo.def foreach(f: ((A, B)) ⇒ Unit): Unit. Então, procurei uma maneira curta de escrever um argumento paraforeach: > val map = Map(1 -> 2, 3 -> 4) map: ...

2 a resposta

Como evitar o estouro de pilha ao usar a mônada livre do scalaz?

Eu já havia pensado que parte do objetivo da implementação era evitar esse mesmo problema, então talvez eu esteja fazendo algo obviamente idiota? Aqui está um código: // Stack overflow import scalaz._ sealed trait Command[T] case class ...

1 a resposta

Toque! Faça o upload do arquivo e salve no AWS S3

Estou usando o Play 2.3 e quero armazenar os arquivos carregados no S3, então uso o módulo Play-S3. No entanto, fiquei preso porque preciso criar um BucketFile para carregar no S3 com este módulo e um BucketFile é criado usando um Array [Byte] ...

2 a resposta

como lidar com o erro SPARK-5063 no spark

Recebo a mensagem de erro SPARK-5063 na linha de println val d.foreach{x=> for(i<-0 until x.length) println(m.lookup(x(i)))}d éRDD[Array[String]] m éRDD[(String, String)] . Existe alguma maneira de imprimir da maneira que eu quero? ou como posso ...

2 a resposta

Os futuros são executados em um único segmento? (Scala)

Usando o contexto de execução implícita padrão no Scala, cada novo futuro será calculado em um único thread dedicado ou o cálculo será dividido e distribuído para vários threads no pool de threads? Não sei se isso ajuda, o pano de fundo desta ...

0 a resposta

Tarefa não serializável ao usar o objeto no REPL

Portanto, outra pergunta do SO me levou a tentar o seguinte: object Foo{ def f = 1 } sc.parallelize(List(1)).map(x=>{ val myF = Foo.f _ x + myF() }O que funciona, mas o seguinte não: object Foo{ def f = 1 def run(rdd: ...

1 a resposta

como interpretar RDD.treeAggregate

Eu encontreiestá linha [https://github.com/apache/spark/blob/01f09b161217193b797c8c85969d17054c958615/mllib/src/main/scala/org/apache/spark/mllib/optimization/GradientDescent.scala#L236-L248] na fonte de código do Apache Spark val (gradientSum, ...

1 a resposta

Você pode acessar uma SettingKey do SBT dentro de um comando?

Estou escrevendo um comando e quero usar oLogger noTaskStreams mas isso não é possível, pois você não pode acessar.value de uma SettingKey em um comando. Existe alguma maneira? def myCommand = Command.single("myCommand") { case (currentState, ...

2 a resposta

Como "extrair" o parâmetro de tipo para instanciar outra classe

O seguinte código Scala funciona: object ReducerTestMain extends App { type MapOutput = KeyVal[String, Int] def mapFun(s:String): MapOutput = KeyVal(s, 1) val red = new ReducerComponent[String, Int]((a: Int, b: Int) => a + b) val data ...

4 a resposta

O que usar diante da descontinuação do pacote scala.util.parsing.json._?

Como resolver o problema de Scala? Tenho aviso pelo uso de JSON no meu projeto: O objeto JSON no pacote json foi privado. Este objeto será removido. import scala.util.parsing.json._ JSON.parseRaw("[{'a':'b'},{'c':'d'}]")