ProcessPoolExecutor z concurrent.futures wolniej niż multiprocessing.Pool
Eksperymentowałem z nowym błyszczącymconcurrent.futures moduł wprowadzony w Pythonie 3.2 i zauważyłem, że prawie z identycznym kodem korzystanie z Puli z concurrent.futures jestsposób wolniej niż przy użyciumultiprocessing.Pool.
To jest wersja używająca wieloprocesorowości:
def hard_work(n):
# Real hard work here
pass
if __name__ == '__main__':
from multiprocessing import Pool, cpu_count
try:
workers = cpu_count()
except NotImplementedError:
workers = 1
pool = Pool(processes=workers)
result = pool.map(hard_work, range(100, 1000000))
A to używa concurrent.futures:
def hard_work(n):
# Real hard work here
pass
if __name__ == '__main__':
from concurrent.futures import ProcessPoolExecutor, wait
from multiprocessing import cpu_count
try:
workers = cpu_count()
except NotImplementedError:
workers = 1
pool = ProcessPoolExecutor(max_workers=workers)
result = pool.map(hard_work, range(100, 1000000))
Wykorzystano z tego naiwną funkcję faktoryzacjiArtykuł Eli Bendersky, to są wyniki na moim komputerze (i7, 64-bit, Arch Linux):
[juanlu@nebulae]─[~/Development/Python/test]
└[10:31:10] $ time python pool_multiprocessing.py
real 0m10.330s
user 1m13.430s
sys 0m0.260s
[juanlu@nebulae]─[~/Development/Python/test]
└[10:31:29] $ time python pool_futures.py
real 4m3.939s
user 6m33.297s
sys 0m54.853s
Nie mogę ich profilować za pomocą profilera Pythona, ponieważ dostaję błędy pickle. Jakieś pomysły?