Was macht die Funktion tf.nn.embedding_lookup?

| | | | |
tf.nn.embedding_lookup(params, ids, partition_strategy="mod", name=None) 

Ich verstehe die Aufgabe dieser Funktion nicht. Ist es wie eine Nachschlagetabelle? Was bedeutet, die Parameter zurückzugeben, die jeder ID entsprechen (in IDs)?

Zum Beispiel im skip-gram-Modell, wenn wir tf.nn.embedding_lookup( embeddings, train_inputs), dann findet es für jeden train_input die entsprechende Einbettung?