Generowanie liczb losowych: CPU vs GPU, który obecnie wygrywa?

Pracowałem nad symulacjami fizycznymi wymagającymi generowania dużej liczby liczb losowych (co najmniej 10 ^ 13, jeśli chcesz pomyśleć). Korzystam z implementacji twistera Mersenne w C ++ 11. Czytałem również, że implementacja GPU tego samego algorytmu jest teraz częścią bibliotek Cuda i że GPU może być niezwykle wydajny w tym zadaniu; ale nie mogłem znaleźć wyraźnych numerów ani porównania wyników. Na przykład w porównaniu z 8 rdzeniami i7, czy karty Nvidii ostatnich pokoleń są bardziej wydajne w generowaniu liczb losowych? Jeśli tak, ile i w jakim przedziale cenowym?

Myślę, że moja symulacja może zyskać na tym, że GPU generuje ogromną liczbę losowych liczb, a procesor robi resztę.

questionAnswers(2)

yourAnswerToTheQuestion