Como acelerar o aprendizado profundo em uma configuração que não seja da NVIDIA?

Como eu tenho apenas uma APU AMD A10-7850 e não tenho fundos para gastar em uma placa gráfica NVIDIA de US $ 800 a US $ 1200, estou tentando pagar com os recursos que tenho para acelerar o aprendizado profundo via fluxo tensor / keras .

Inicialmente, usei uma versão pré-compilada do Tensorflow. O InceptionV3 levaria cerca de 1000-1200 segundos para calcular uma época. Tem sido dolorosamente lento.

Para acelerar os cálculos, primeiro compilei o Tensorflow com otimizadores (usando as instruções AVX e SSE4). Isso levou a uma redução de aproximadamente 40% nos tempos de computação. Os mesmos cálculos realizados acima agora levam apenas cerca de 600 segundos para serem computados. É quase suportável - como se você pudesse ver a tinta secar.

Estou procurando maneiras de diminuir ainda mais os tempos de computação. Eu só tenho uma placa de vídeo AMD integrada que faz parte da APU. (Como) (C / c) u Utilizo esse recurso para acelerar ainda mais a computação?

De maneira mais geral, digamos que existam outras pessoas com restrições monetárias semelhantes e configurações da Intel. Como alguém sem placas NVIDIA discretas pode usar seus chips gráficos integrados ou a instalação que não seja da NVIDIA para obter um desempenho mais rápido do que apenas a CPU? Isso é possível? Porque porque não? O que precisa ser feito para alcançar esse objetivo? Ou isso será possível em um futuro próximo (2-6 meses)? Quão?

questionAnswers(2)

yourAnswerToTheQuestion