Результаты поиска по запросу "information-theory"

1 ответ

Оптимальный способ вычисления попарной взаимной информации с использованием NumPy

1 ответ

Как вычислить приблизительную энтропию битовой строки?

1 ответ

Взаимная информация и совместная энтропия двух изображений - MATLAB

У меня есть два черно-белых изображения, и мне нужно рассчитать взаимную информацию. Image 1 = X Image 2 = YЯ знаю, что взаимная информация может быть определена как: MI = entropy(X) + entropy(Y) - JointEntropy(X,Y)В MATLAB уже есть ...

ТОП публикаций

1 ответ

Оптимальный способ вычисления попарной взаимной информации с использованием NumPy

Длям х н матрица, каков оптимальный (самый быстрый) способ вычисления взаимной информации для всех пар столбцов (н х н)? Повзаимная информация [http://en.wikipedia.org/wiki/Mutual_information], Я имею в виду: I (X, Y) = H (X) + H (Y) - H (X, ...

13 ответов

Вот почему линейный поиск идет медленно. Энтропия (сколько вы можете ожидать узнать) при каждом решении слишком мала, так как вам нужно будет выучить 10 битов, чтобы найти запись в таблице.

но я начал курс по сжатию данных в моем университете. Тем не менее, я нахожу использование термина «энтропия», поскольку оно относится к информатике, довольно неоднозначным. Насколько я могу судить, это примерно соответствует «случайности» ...