Warum ist numpy.any bei großen Arrays so langsam?

Ich suche nach der effizientesten Methode, um festzustellen, ob ein großes Array mindestens einen Wert ungleich Null enthält. Auf den ersten Blicknp.any Dies scheint das naheliegende Werkzeug für diesen Job zu sein, scheint jedoch bei großen Arrays unerwartet langsam zu sein.

Betrachten Sie diesen Extremfall:

first = np.zeros(1E3,dtype=np.bool)
last = np.zeros(1E3,dtype=np.bool)

first[0] = True
last[-1] = True

# test 1
%timeit np.any(first)
>>> 100000 loops, best of 3: 6.36 us per loop

# test 2
%timeit np.any(last)
>>> 100000 loops, best of 3: 6.95 us per loop

Wenigstensnp.any scheint hier etwas vage Vernünftiges zu tun - wenn der Wert ungleich Null der erste im Array ist, sollte es nicht nötig sein, andere zu berücksichtigen, bevor Sie zurückkehrenTrueDaher würde ich erwarten, dass Test 1 etwas schneller ist als Test 2.

Was passiert jedoch, wenn wir die Arrays viel größer machen?

first = np.zeros(1E9,dtype=np.bool)
last = np.zeros(1E9,dtype=np.bool)

first[0] = True
last[-1] = True

# test 3
%timeit np.any(first)
>>> 10 loops, best of 3: 21.6 ms per loop

# test 4
%timeit np.any(last)
>>> 1 loops, best of 3: 739 ms per loop

Wie erwartet ist Test 4 viel langsamer als Test 3. In Test 3 jedochnp.any sollte immer noch nur den Wert eines einzelnen Elements in einchecken müssenfirst um zu wissen, dass es mindestens einen Wert ungleich Null enthält. Warum ist Test 3 dann so viel langsamer als Test 1?

Bearbeiten 1:

Ich verwende eine Entwicklungsversion von Numpy (1.8.0.dev-e11cd9b), aber mit Numpy 1.7.1 erhalte ich genau die gleichen Timing-Ergebnisse. Ich verwende 64-Bit-Linux, Python 2.7.4. Mein System arbeitet im Grunde genommen im Leerlauf (ich führe eine IPython-Sitzung, einen Browser und einen Texteditor aus), und ich schließe definitiv keinen Swap ab. Ich habe das Ergebnis auch auf einem anderen Computer repliziert, auf dem Numpy 1.7.1 ausgeführt wird.

Bearbeiten 2:

Wenn ich Numpy 1.6.2 verwende, erhalte ich für Test 1 und 3 Zeiten von ~ 1,85 us1.7.1 1.7.0 in dieser Hinsicht.

Edit 3:

Nach J.F. Sebastian und Jorgecas Führung habe ich weitere Benchmarking-Tests durchgeführtnp.all auf einem Array von Nullen, die gleichbedeutend mit dem Aufruf sein solltennp.any in einem Array, in dem das erste Element eins ist.

Testskript:

import timeit
import numpy as np
print 'Numpy v%s' %np.version.full_version
stmt = "np.all(x)"
for ii in xrange(10):
    setup = "import numpy as np; x = np.zeros(%d,dtype=np.bool)" %(10**ii)
    timer = timeit.Timer(stmt,setup)
    n,r = 1,3
    t = np.min(timer.repeat(r,n))
    while t < 0.2:
        n *= 10
        t = np.min(timer.repeat(r,n))
    t /= n
    if t < 1E-3:
        timestr = "%1.3f us" %(t*1E6)
    elif t < 1:
        timestr = "%1.3f ms" %(t*1E3)
    else:
        timestr = "%1.3f s" %t
    print "Array size: 1E%i, %i loops, best of %i: %s/loop" %(ii,n,r,timestr)

Ergebnisse:

Numpy v1.6.2
Array size: 1E0, 1000000 loops, best of 3: 1.738 us/loop
Array size: 1E1, 1000000 loops, best of 3: 1.845 us/loop
Array size: 1E2, 1000000 loops, best of 3: 1.862 us/loop
Array size: 1E3, 1000000 loops, best of 3: 1.858 us/loop
Array size: 1E4, 1000000 loops, best of 3: 1.864 us/loop
Array size: 1E5, 1000000 loops, best of 3: 1.882 us/loop
Array size: 1E6, 1000000 loops, best of 3: 1.866 us/loop
Array size: 1E7, 1000000 loops, best of 3: 1.853 us/loop
Array size: 1E8, 1000000 loops, best of 3: 1.860 us/loop
Array size: 1E9, 1000000 loops, best of 3: 1.854 us/loop

Numpy v1.7.0
Array size: 1E0, 100000 loops, best of 3: 5.881 us/loop
Array size: 1E1, 100000 loops, best of 3: 5.831 us/loop
Array size: 1E2, 100000 loops, best of 3: 5.924 us/loop
Array size: 1E3, 100000 loops, best of 3: 5.864 us/loop
Array size: 1E4, 100000 loops, best of 3: 5.997 us/loop
Array size: 1E5, 100000 loops, best of 3: 6.979 us/loop
Array size: 1E6, 100000 loops, best of 3: 17.196 us/loop
Array size: 1E7, 10000 loops, best of 3: 116.162 us/loop
Array size: 1E8, 1000 loops, best of 3: 1.112 ms/loop
Array size: 1E9, 100 loops, best of 3: 11.061 ms/loop

Numpy v1.7.1
Array size: 1E0, 100000 loops, best of 3: 6.216 us/loop
Array size: 1E1, 100000 loops, best of 3: 6.257 us/loop
Array size: 1E2, 100000 loops, best of 3: 6.318 us/loop
Array size: 1E3, 100000 loops, best of 3: 6.247 us/loop
Array size: 1E4, 100000 loops, best of 3: 6.492 us/loop
Array size: 1E5, 100000 loops, best of 3: 7.406 us/loop
Array size: 1E6, 100000 loops, best of 3: 17.426 us/loop
Array size: 1E7, 10000 loops, best of 3: 115.946 us/loop
Array size: 1E8, 1000 loops, best of 3: 1.102 ms/loop
Array size: 1E9, 100 loops, best of 3: 10.987 ms/loop

Numpy v1.8.0.dev-e11cd9b
Array size: 1E0, 100000 loops, best of 3: 6.357 us/loop
Array size: 1E1, 100000 loops, best of 3: 6.399 us/loop
Array size: 1E2, 100000 loops, best of 3: 6.425 us/loop
Array size: 1E3, 100000 loops, best of 3: 6.397 us/loop
Array size: 1E4, 100000 loops, best of 3: 6.596 us/loop
Array size: 1E5, 100000 loops, best of 3: 7.569 us/loop
Array size: 1E6, 100000 loops, best of 3: 17.445 us/loop
Array size: 1E7, 10000 loops, best of 3: 115.109 us/loop
Array size: 1E8, 1000 loops, best of 3: 1.094 ms/loop
Array size: 1E9, 100 loops, best of 3: 10.840 ms/loop
Bearbeiten 4:

Nach dem Kommentar von seberg habe ich den gleichen Test mit einemnp.float32 Array stattnp.bool. In diesem Fall zeigt Numpy 1.6.2 auch eine Verlangsamung, wenn die Array-Größe zunimmt:

Numpy v1.6.2
Array size: 1E0, 100000 loops, best of 3: 3.503 us/loop
Array size: 1E1, 100000 loops, best of 3: 3.597 us/loop
Array size: 1E2, 100000 loops, best of 3: 3.742 us/loop
Array size: 1E3, 100000 loops, best of 3: 4.745 us/loop
Array size: 1E4, 100000 loops, best of 3: 14.533 us/loop
Array size: 1E5, 10000 loops, best of 3: 112.463 us/loop
Array size: 1E6, 1000 loops, best of 3: 1.101 ms/loop
Array size: 1E7, 100 loops, best of 3: 11.724 ms/loop
Array size: 1E8, 10 loops, best of 3: 116.924 ms/loop
Array size: 1E9, 1 loops, best of 3: 1.168 s/loop

Numpy v1.7.1
Array size: 1E0, 100000 loops, best of 3: 6.548 us/loop
Array size: 1E1, 100000 loops, best of 3: 6.546 us/loop
Array size: 1E2, 100000 loops, best of 3: 6.804 us/loop
Array size: 1E3, 100000 loops, best of 3: 7.784 us/loop
Array size: 1E4, 100000 loops, best of 3: 17.946 us/loop
Array size: 1E5, 10000 loops, best of 3: 117.235 us/loop
Array size: 1E6, 1000 loops, best of 3: 1.096 ms/loop
Array size: 1E7, 100 loops, best of 3: 12.328 ms/loop
Array size: 1E8, 10 loops, best of 3: 118.431 ms/loop
Array size: 1E9, 1 loops, best of 3: 1.172 s/loop

Warum sollte das passieren? Wie bei dem Booleschen Fall,np.all sollte immer noch nur das erste Element vor der Rückkehr überprüfen müssen, so sollte die Zeit immer noch konstant sein w.r.t. Array-Größe.

Antworten auf die Frage(1)

Ihre Antwort auf die Frage