¿Es rápida esta codificación única en TensorFlow? O defectuoso por alguna razón?

Hay algunas preguntas de desbordamiento de pila sobre el cálculo de incorporaciones de una sola vez con TensorFlow, y aquí está la solución aceptada:

num_labels = 10
sparse_labels = tf.reshape(label_batch, [-1, 1])
derived_size = tf.shape(label_batch)[0]
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels])
outshape = tf.reshape(tf.concat(0, [derived_size, [num_labels]]), [-1])
labels = tf.sparse_to_dense(concated, outshape, 1.0, 0.0)

Esto es casi idéntico al código en un tutorial oficial:https://www.tensorflow.org/versions/0.6.0/tutorials/mnist/tf/index.html

A mí me parece que desdetf.nn.embedding_lookup existe, probablemente sea más eficiente. Aquí hay una versión que usa esto, y admite entradas de forma arbitraria:

def one_hot(inputs, num_classes):
    with tf.device('/cpu:0'):
        table = tf.constant(np.identity(num_classes, dtype=np.float32))
        embeddings = tf.nn.embedding_lookup(table, inputs)
    return embeddings

¿Espera que esta implementación sea más rápida? ¿Y es defectuoso por alguna otra razón?