ProcessPoolExecutor z concurrent.futures wolniej niż multiprocessing.Pool

Eksperymentowałem z nowym błyszczącymconcurrent.futures moduł wprowadzony w Pythonie 3.2 i zauważyłem, że prawie z identycznym kodem korzystanie z Puli z concurrent.futures jestsposób wolniej niż przy użyciumultiprocessing.Pool.

To jest wersja używająca wieloprocesorowości:

def hard_work(n):
    # Real hard work here
    pass

if __name__ == '__main__':
    from multiprocessing import Pool, cpu_count

    try:
        workers = cpu_count()
    except NotImplementedError:
        workers = 1
    pool = Pool(processes=workers)
    result = pool.map(hard_work, range(100, 1000000))

A to używa concurrent.futures:

def hard_work(n):
    # Real hard work here
    pass

if __name__ == '__main__':
    from concurrent.futures import ProcessPoolExecutor, wait
    from multiprocessing import cpu_count
    try:
        workers = cpu_count()
    except NotImplementedError:
        workers = 1
    pool = ProcessPoolExecutor(max_workers=workers)
    result = pool.map(hard_work, range(100, 1000000))

Wykorzystano z tego naiwną funkcję faktoryzacjiArtykuł Eli Bendersky, to są wyniki na moim komputerze (i7, 64-bit, Arch Linux):

[juanlu@nebulae]─[~/Development/Python/test]
└[10:31:10] $ time python pool_multiprocessing.py 

real    0m10.330s
user    1m13.430s
sys 0m0.260s
[juanlu@nebulae]─[~/Development/Python/test]
└[10:31:29] $ time python pool_futures.py 

real    4m3.939s
user    6m33.297s
sys 0m54.853s

Nie mogę ich profilować za pomocą profilera Pythona, ponieważ dostaję błędy pickle. Jakieś pomysły?

questionAnswers(1)

yourAnswerToTheQuestion