Простой пример / вариант использования для BNT gaussian_CPD?
Я пытаюсь реализовать наивный байесовский классификатор, используя BNT и MATLAB. До сих пор я придерживался простогоtabular_CPD
переменные и "угадывание" вероятности для переменных. Моя сеть-прототип на данный момент состоит из следующего:
DAG = false(5);
DAG(1, 2:5) = true;
bnet = mk_bnet(DAG, [2 3 4 3 3]);
bnet.CPD{1} = tabular_CPD(bnet, 1, [.5 .5]);
bnet.CPD{2} = tabular_CPD(bnet, 2, [.1 .345 .45 .355 .45 .3]);
bnet.CPD{3} = tabular_CPD(bnet, 3, [.2 .02 .59 .2 .2 .39 .01 .39]);
bnet.CPD{4} = tabular_CPD(bnet, 4, [.4 .33333 .5 .33333 .1 .33333]);
bnet.CPD{5} = tabular_CPD(bnet, 5, [.5 .33333 .4 .33333 .1 .33333]);
engine = jtree_inf_engine(bnet);
Здесь переменная 1 - это моя желаемая выходная переменная, для которой изначально назначена вероятность .5 для любого выходного класса.
Переменные 2-5 определяют CPD для измеряемых объектов:
2 is a cluster size, ranging from 1 to a dozen or more 3 is a ratio that will be a real value >= 1 4 and 5 are standard deviation (real) values (X and Y scatter)Чтобы классифицировать кластер-кандидат, я разбил все измерения объектов на 3-4 диапазона скобок, например так:
...
evidence = cell(1, 5);
evidence{2} = sum(M > [0 2 6]);
evidence{3} = sum(O > [0 1.57 2 3]);
evidence{4} = sum(S(1) > [-Inf 1 2]);
evidence{5} = sum(S(2) > [-Inf 0.4 0.8]);
eng = enter_evidence(engine, evidence);
marginals = marginal_nodes(eng, 1);
e = marginals.T(1);
...
Это на самом деле работает довольно хорошо, учитывая, что я только догадываюсь о скобках диапазона и значениях вероятности. Но я верю в то, что яshould использовать здесь этоgaussian_CPD
, яthink этоgaussian_CPD
можно выучить как оптимальные скобки, так и вероятности (как среднее, так и ковариационные матрицы и веса).
Моя проблема в том, что я не нахожуsimple примеры того, как БНТgaussian_CPD
класс используется. Как, например, я бы пошел об инициализацииgaussian_CPD
примерно такое же поведение, как один из моихtabular_CPD
переменные выше?