¿Por qué la constante siempre se elimina del análisis O grande?

Estoy tratando de entender un aspecto particular del análisis Big O en el contexto de ejecutar programas en una PC.

Supongamos que tengo un algoritmo que tiene un rendimiento de O (n + 2). Aquí, si n se hace realmente grande, el 2 se vuelve insignificante. En este caso, está perfectamente claro que el rendimiento real es O (n).

Sin embargo, digamos que otro algoritmo tiene un rendimiento promedio de O (n ^ 2/2). El libro donde vi este ejemplo dice que el rendimiento real es O (n ^ 2). No estoy seguro de entender por qué, quiero decir que el 2 en este caso no parece completamente insignificante. Así que estaba buscando una buena explicación clara del libro. El libro lo explica de esta manera:

"Considere lo que significa el 1/2. El tiempo real para verificar cada valor depende en gran medida de las instrucciones de la máquina a las que se traduce el código y luego de la velocidad a la que la CPU puede ejecutar las instrucciones. significa mucho ".

Y mi reacción es ... ¿Eh? Literalmente no tengo idea de lo que dice o, más precisamente, qué tiene que ver esa declaración con su conclusión. ¿Alguien me lo puede explicar por favor?

Gracias por cualquier ayuda.

Respuestas a la pregunta(6)

Su respuesta a la pregunta