Essa codificação one-hot no TensorFlow é rápida? Ou falho por qualquer motivo?

Existem algumas perguntas sobre o estouro de pilha sobre o cálculo de combinações quentes com o TensorFlow, e aqui está a solução aceita:

num_labels = 10
sparse_labels = tf.reshape(label_batch, [-1, 1])
derived_size = tf.shape(label_batch)[0]
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels])
outshape = tf.reshape(tf.concat(0, [derived_size, [num_labels]]), [-1])
labels = tf.sparse_to_dense(concated, outshape, 1.0, 0.0)

Isso é quase idêntico ao código em um tutorial oficial:https://www.tensorflow.org/versions/0.6.0/tutorials/mnist/tf/index.html

Para mim, parece que desdetf.nn.embedding_lookup existe, provavelmente é mais eficiente. Aqui está uma versão que usa isso e suporta entradas de forma arbitrária:

def one_hot(inputs, num_classes):
    with tf.device('/cpu:0'):
        table = tf.constant(np.identity(num_classes, dtype=np.float32))
        embeddings = tf.nn.embedding_lookup(table, inputs)
    return embeddings

Você espera que esta implementação seja mais rápida? E é falho por qualquer outro motivo?

questionAnswers(1)

yourAnswerToTheQuestion