Como gerar aleatoriamente distribuído normalmente a partir de um intervalo inteiro?
Dado o início e o fim de um intervalo inteiro, como faço para calcular um número inteiro aleatório normalmente distribuído entre esse intervalo?
Eu percebo que a distribuição normal entra em + infinito. Eu acho que as caudas podem ser cortadas, então quando um aleatório é computado fora do intervalo, recompute. Isso eleva a probabilidade de números inteiros no intervalo, mas, desde que o efeito seja tolerável (<5%), tudo bem.
public class Gaussian
{
private static bool uselast = true;
private static double next_gaussian = 0.0;
private static Random random = new Random();
public static double BoxMuller()
{
if (uselast)
{
uselast = false;
return next_gaussian;
}
else
{
double v1, v2, s;
do
{
v1 = 2.0 * random.NextDouble() - 1.0;
v2 = 2.0 * random.NextDouble() - 1.0;
s = v1 * v1 + v2 * v2;
} while (s >= 1.0 || s == 0);
s = System.Math.Sqrt((-2.0 * System.Math.Log(s)) / s);
next_gaussian = v2 * s;
uselast = true;
return v1 * s;
}
}
public static double BoxMuller(double mean, double standard_deviation)
{
return mean + BoxMuller() * standard_deviation;
}
public static int Next(int min, int max)
{
return (int)BoxMuller(min + (max - min) / 2.0, 1.0);
}
}
Eu provavelmente preciso escalar o desvio padrão de alguma forma em relação ao intervalo, mas não entendo como.
Responda:
// Will approximitely give a random gaussian integer between min and max so that min and max are at
// 3.5 deviations from the mean (half-way of min and max).
public static int Next(int min, int max)
{
double deviations = 3.5;
int r;
while ((r = (int)BoxMuller(min + (max - min) / 2.0, (max - min) / 2.0 / deviations)) > max || r < min)
{
}
return r;
}