Por que a constante é sempre eliminada da grande análise de O?

Estou tentando entender um aspecto específico da análise do Big O no contexto da execução de programas em um PC.

Suponha que eu tenha um algoritmo com desempenho de O (n + 2). Aqui, se n se torna realmente grande, o 2 se torna insignificante. Nesse caso, é perfeitamente claro que o desempenho real é O (n).

No entanto, digamos que outro algoritmo tenha um desempenho médio de O (n ^ 2/2). O livro em que vi esse exemplo diz que o desempenho real é O (n ^ 2). Não sei se entendi o motivo, quero dizer que o 2, neste caso, não parece completamente insignificante. Então, eu estava procurando uma boa explicação clara do livro. O livro explica desta maneira:

"Considere o que o 1/2 significa. O tempo real para verificar cada valor depende muito da instrução da máquina à qual o código se traduz e, em seguida, da velocidade na qual a CPU pode executar as instruções. Portanto, o 1/2 não ' isso significa muito. "

E minha reação é ... hein ???. Eu literalmente não tenho idéia do que isso diz ou mais precisamente o que essa afirmação tem a ver com a conclusão deles. Alguém pode me explicar por favor.

Obrigado por qualquer ajuda.

questionAnswers(6)

yourAnswerToTheQuestion