Ist es möglich, Huffman-Dekodierung in der GPU zu erreichen?

Wir haben eine Datenbank mit Huffman-Codierung. Das Ziel hierbei ist, es mit dem zugehörigen Decoder auf die GPU zu kopieren. Dekodieren Sie dann auf der GPU die Datenbank und bearbeiten Sie diese dekodierte Datenbank, ohne sie wieder auf die CPU zu kopieren.

ch bin weit davon entfernt, ein Huffman-Spezialist zu sein, aber die wenigen, die ich kenne, zeigen, dass es sich anscheinend um einen Algorithmus handelt, der im Wesentlichen auf Kontrollstrukturen basiert. Mit dem grundlegenden Algorithmus befürchte ich, dass es viele serialisierte Operationen geben wird.

Meine 2 Fragen sind:

Wissen Sie, ob es eine effiziente GPU-Version für die Huffman-Codierung gibt?wenn nicht, glauben Sie, dass es einen Huffman-Algorithmus gibt, der an die GPU angepasst werden kann (dh mit weniger Kontrollstrukturen). Oder vielleicht wissen Sie (und Sie könnten eine Referenz angeben), dass eine effiziente Huffman-Dekodierung auf einer GPU nicht effizient sein kann.

Ich sehe andere Einschränkungen, aber sie sind nicht kritisch: - Die GPU könnte nicht sehr effizient im Umgang mit dem Baum sein: Der Binärbaum kann in einem klassischen Array gespeichert werden. - Die Arbeitslast könnte schwierig zu balancieren sein: Wir werden nach @ sehe

Antworten auf die Frage(6)

Ihre Antwort auf die Frage