¿Es rápida esta codificación única en TensorFlow? O defectuoso por alguna razón?
Hay algunas preguntas de desbordamiento de pila sobre el cálculo de incorporaciones de una sola vez con TensorFlow, y aquí está la solución aceptada:
num_labels = 10
sparse_labels = tf.reshape(label_batch, [-1, 1])
derived_size = tf.shape(label_batch)[0]
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels])
outshape = tf.reshape(tf.concat(0, [derived_size, [num_labels]]), [-1])
labels = tf.sparse_to_dense(concated, outshape, 1.0, 0.0)
Esto es casi idéntico al código en un tutorial oficial:https://www.tensorflow.org/versions/0.6.0/tutorials/mnist/tf/index.html
A mí me parece que desdetf.nn.embedding_lookup
existe, probablemente sea más eficiente. Aquí hay una versión que usa esto, y admite entradas de forma arbitraria:
def one_hot(inputs, num_classes):
with tf.device('/cpu:0'):
table = tf.constant(np.identity(num_classes, dtype=np.float32))
embeddings = tf.nn.embedding_lookup(table, inputs)
return embeddings
¿Espera que esta implementación sea más rápida? ¿Y es defectuoso por alguna otra razón?