Was macht die Funktion tf.nn.embedding_lookup?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)

Ich kann die Aufgabe dieser Funktion nicht verstehen. Ist es wie eine Nachschlagetabelle? Was bedeutet, dass die Parameter für jede ID (in IDs) zurückgegeben werden?

Zum Beispiel imskip-gram Modell, wenn wir @ verwendtf.nn.embedding_lookup(embeddings, train_inputs), dann für jedestrain_input findet es die entsprechende Einbettung?