Resultados da pesquisa a pedido "metrics"
Quando o DynamoDB solicita o acelerador?
Na resposta para "Como o rendimento do Amazon DynamoDB é calculado e limitado?"Tem sido sugerido que os aceleradores do DynamoDB solicitem sempre q...
Monitoramento automatizado do tempo de carregamento da página percebido pelo usuário
Desejo encontrar um link do serviço de monitoramento automatizado Pingdom e NewRelic que rastreie o tempo total de carregamento da página percebido pelo usuário e o analise ...
MongoDB workingSet por pymongo
Eu tento obter métricas "workingSet" com pymongo. No MongoDB é apenas
Cobertura geral do sonar
O Sonar fornece um valor de cobertura geral, que é uma combinação de cobertura de linha e filial. Não tenho certeza de quão importante é essa métrica. O que ...
Buscando esclarecimentos sobre a estruturação de código para reduzir a complexidade ciclomática
Recentemente, nossa empresa começou a medir a complexidade ciclomática (CC) das funções em nosso código semanalmente e a relatar quais funções melhoraram ou ...
Como faço para converter entre uma medida de semelhança e uma medida de diferença (distância)?
Existe uma maneira geral de converter entre uma medida de similaridade e uma medida de distância? Considere uma medida de similaridade como o número de 2 gramas que duas cordas têm em comum. 2-grams('beta', 'delta') = 1 2-grams('apple', ...
Quais métricas para a usabilidade da GUI você conhece?
Obviamente, a melhor métrica seria a felicidade de seus usuários. Mas que métricas você conhece para medições de usabilidade da GUI? Por exemplo, uma das métricas comuns é uma contagem média de cliques para executar uma ação. Quais outras ...
sklearn metrics.log_loss é positivo versus a pontuação 'neg_log_loss' é negativo
Certifique-se de que estou acertando: Se usarmossklearn.metrics.log_loss [http://scikit-learn.org/stable/modules/generated/sklearn.metrics.log_loss.html] autônomo, ou seja, log_loss (y_true, y_pred), gera uma pontuação positiva - quanto menor a ...
Ao usar mectrics no model.compile em keras, relate ValueError: ('Função métrica desconhecida', ': f1score')
Estou tentando executar um LSTM e quando uso o código abaixo: model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['accuracy', 'f1score', 'precision', 'recall'])Retorna: ValueError: ('Unknown metric function', ':f1score').Fiz ...