O treinamento foi interrompido com o erro ResourceExausted

Eu sou novo no tensorflow e no Machine Learning. Recentemente, estou trabalhando em um modelo. Meu modelo é como abaixo,

Nível de personagem Vetor de incorporação -> Pesquisa de incorporação -> LSTM1

Nível de palavra Vetor de incorporação-> Pesquisa de incorporação -> LSTM2

[LSTM1 + LSTM2] -> camada única MLP-> camada softmax

[LSTM1 + LSTM2] -> Camada única MLP-> discriminador WGAN

Código do modelo rnn

enquanto trabalho neste modelo, recebi o seguinte erro. Eu pensei que meu lote é muito grande. Portanto, tentei reduzir o tamanho do lote de 20 para 10, mas não funciona.

ResourceExhaustedError (veja acima para traceback): OOM ao alocar tensor com forma [24760,100] [[Nó: chars / bidirectional_rnn / bw / bw / while / bw / lstm_cell / split = Split [T = DT_FLOAT, num_split = 4, _dispositivo = "/ job: localhost / réplica: 0 / task: 0 / dispositivo: GPU: 0"] (gradients_2 / Add_3 / y, chars / bidirectional_rnn / bw / bw / while / bw / lstm_cell / BiasAdd)]] [[Nó : bi-lstm / bidirectional_rnn / bw / bw / stack / _167 = _Recvclient_terminated = false, recv_device = "/ job: localhost / réplica: 0 / tarefa: 0 / dispositivo: CPU: 0", send_device = "/ job: localhost / réplica: 0 / tarefa: 0 / dispositivo: GPU: 0 ", send_device_incarnation = 1, tensor_name =" edge_636_bi-lstm / bidirectional_rnn / bw / bw / stack ", tensor_type = DT_INT32, _device =" / job: localhost / replica: 0 / tarefa: 0 / dispositivo: CPU: 0 "]]

tensor comforma [24760,100] significa 2476000 * 32/8 * 1024 * 1024 = 9,44519043 MB de memória. Estou executando o código em uma GPU titan X (11 GB). O que poderia dar errado? Por que esse tipo de erro ocorreu?

* Informação extra *: o tamanho do LSTM1 é 100. para LSTM bidirecional, torna-se 200. O tamanho do LSTM2 é 300. Para LSTM bidirecional, torna-se 600.

*Nota *: O erro ocorreu após 32 épocas. Minha pergunta é por que, após 32 épocas, ocorreu um erro. Por que não na época inicial.

questionAnswers(2)

yourAnswerToTheQuestion