Результаты поиска по запросу "complexity-theory"

2 ответа

Как рассчитать временную сложность алгоритма возврата?

Как рассчитать сложность времени для этих алгоритмов возврата и имеют ли они одинаковую сложность времени? Если отличается как? Пожалуйста, объясните подробно и спасибо за помощь. 1. Hamiltonian cycle: bool hamCycleUtil(bool graph[V][V], int ...

18 ответов

смотреть на сюжет не получается, потому что вы не знаете и не можете знать, на какой участок сюжета смотреть.

есно, существует ли какой-либо автоматический способ определения (хотя бы приблизительно) временной сложности Big-O данной функции? Если бы я изобразил функцию O (n) против функции O (n lg n), я думаю, что смог бы визуально определить, что есть ...

2 ответа

Спасибо Джеффри, но я понятия не имею, как это реализовать :(

ящики бесконечной емкости, я хочу упаковатьn предметы в них (каждый с определенным весом), минимизируя вес самого тяжелого мусорного ведра.mЭто не традиционная проблема упаковки / рюкзака, когда емкость имеет конечную емкость, и вы пытаетесь ...

ТОП публикаций

30 ответов

This type of algorithm is described as O(log N). The iterative halving of data sets described in the binary search example produces a growth curve that peaks at the beginning and slowly flattens out as the size of the data sets increase e.g. an input data set containing 10 items takes one second to complete, a data set containing 100 items takes two seconds, and a data set containing 1000 items will take three seconds. Doubling the size of the input data set has little effect on its growth as after a single iteration of the algorithm the data set will be halved and therefore on a par with an input data set half the size. This makes algorithms like binary search extremely efficient when dealing with large data sets.

предпочел как можно меньше формального определения и простую математику.

3 ответа

Также, в зависимости от вашей реализации, вам может потребоваться использовать немного большую ограничивающую рамку, чтобы определить занятость тайлов, чем вы используете для определения коллизий. Таким образом, вам будет гарантировано, что спрайты будут перекрываться и занимать одну и ту же плитку до того, как их границы столкновения коснутся.

имаюсь разработкой простой 2D-игры на основе плитки. У меня есть уровень, заполненный объектами, которые могут взаимодействовать с плитками и друг с другом. Проверить коллизию с помощью карты тайла довольно просто, и это можно сделать для всех ...

2 ответа

Он перечисляет исходную коллекцию один раз. Для каждого элемента он вычисляет свой ключ группировки. Затем он проверяет, есть ли у него ключ в сопоставлении хеш-таблицы со списками элементов, добавляя ключ в хеш-таблицу, если он отсутствует. Затем он добавляет элемент в соответствующий список записей в хеш-таблице.

интересует асимптотическая сложность (большой O) операции GroupBy для неиндексированных наборов данных. Какова сложность самого известного алгоритма и какова сложность алгоритмов, которые используют серверы SQL и LINQ?

2 ответа

Кроме того, вы просто проверяете child, если родительский элемент больше x (самое большее за K раз), чтобы вы не проверяли более 3 * k узлов, пока не достигли K-го наибольшего элемента.

отрим двоичную кучу, содержащую n чисел (корень хранит наибольшее число). Вам дано положительное целое число k <n и число x. Вы должны определить, является ли k-й по величине элемент кучи больше x или нет. Ваш алгоритм должен занять O (K) время. ...

1 ответ

Я получил спасибо.

аюсь доказать, что для двоичных куч, buildHeap делает не более (2N-2) сравнения между элементами. Мне очень трудно доказать это утверждение.

14 ответов

Как человек, который также занимается исследованиями в области биоинформатики, я бы предложил НЕ использовать базу данных для подобных проектов-прототипов, если только вы не уверены, что это необходимо. Если вы находитесь на заборе, используйте решение без базы данных и придерживайтесь плоских файлов. Также важно отметить, что традиционно исследователи в области биоинформатики используют единый маршрут, что означает наличие четко определенных форматов файлов для большинства типов данных в поле. Если вы решите использовать решение для базы данных, это может повредить вашей совместимости с существующими исследовательскими проектами.

ы считаете, когда речь идет о небольших проектах, это точка безубыточности для хранения данных в простых текстовых файлах, хэш-таблицах и т. Д. По сравнению с использованием реальной базы данных? Для небольших проектов с простыми требованиями к ...

5 ответов

Временная сложность удаления узла в одно- и двусвязных списках

Почему временная сложность удаления узла в двусвязных списках (O (1)) быстрее, чем удаление узлов в односвязных списках (O (n))?