Resultados da pesquisa a pedido "sbt"
Por que o compilador Scala falha com "o objeto SparkConf no pacote spark não pode ser acessado no pacote org.apache.spark"?
Não consigo acessar oSparkConf Na embalagem. Mas eu já importei oimport org.apache.spark.SparkConf. Meu código é: import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ import org.apache.spark.SparkConf import ...
Configure o sbt para não utilizar o diretório inicial do usuário
Na semana passada, tivemos as permissões do diretório de usuários alteradas em nossos servidores de IC e não temos mais acesso de gravação ao diretório inicial do usuário. Portanto, o sbt falha ao inicializar porque não pode gravar em~/.ivy etc ...
Tarefa SBT sourceGenerators - executar apenas se um arquivo for alterado
No meu projeto SBT, tenho um arquivo de entradasrc/main/greeting/Greeting.txt com o seguinte conteúdo: Hello, world!Este é meubuild.sbt que gera a fonte Scala a partir doGreeting.txt Arquivo: sourceGenerators in Compile += Def.task{ ...
O valor toDF não é membro de org.apache.spark.rdd.RDD
Exceção: val people = sc.textFile("resources/people.txt").map(_.split(",")).map(p => Person(p(0), p(1).trim.toInt)).toDF() value toDF is not a member of org.apache.spark.rdd.RDD[Person]Aqui estáTestApp.scala Arquivo: package main.scala import ...
Como adicionar um diretório personalizado ao projeto Scala SBT?
Nós temosconf diretório em nosso projeto, o que é bom, mas um dos novos componentes exige que sua própria configuração seja colocada emconfig diretório e não podemos alterar esse requisito. No meu build.scala, adicionei a ...
O arquivo de propriedades log4j incluído no jar no aplicativo spark é ignorado
Preciso ler um log4j.properties personalizado do src / resources e isso não está funcionando try{ val inStream :InputStream= className.this.getClass.getClassLoader.getResourceAsStream("log4j.properties"); logCfgProps.load(inStream) } catch { ...
Mestre deve começar com fio, faísca
Estou recebendo esse erro quando é necessário executar o exemplo do SparkPi. beyhan@beyhan:~/spark-1.2.0-bin-hadoop2.4$ /home/beyhan/spark-1.2.0-bin-hadoop2.4/bin/spark-submit --master ego-client --class ...
O SBT pode publicar no artefato JFrog
Minha organização usa o artefato JFROG para distribuição de todos os frascos. Até agora, eu sempre usei o SBT para o meu desenvolvimento Scala. Mas agora, quando estou procurando maneiras de publicar os frascos construídos pelo SBT no artefato ...
Construção de plataforma cruzada com o SBT
Atualmente, estou testando o SBT Native Packager e meu resultado desejado é ter um instalador nativo para cada plataforma suportada. Obviamente, para fazer isso, as tarefas específicas do SBT da plataforma precisarão ser executadas nessa ...
Não é possível conectar-se ao banco de dados mysql com o play-slick 1.0.1 / slick 3.0: erro de configuração
Estou tentando migrar de anorm para slick, usando o play 2.4.2 e obtendo um erro de configuração: play.api.Configuration$$anon$1: Configuration error[Cannot connect to database [dethcs]] at ...