Wat doet de functie tf.nn.embedding_lookup?

| | | | |
tf.nn.embedding_lookup(params, ids, partition_strategy="mod", name=None) 

Ik begrijp de taak van deze functie niet. Is het als een opzoektabel? Wat betekent dat we de parameters moeten retourneren die overeenkomen met elke id (in ids)?

Bijvoorbeeld in het skip-gram-model als we tf.nn.embedding_lookup( gebruiken) embeddings, train_inputs), dan vindt het voor elke train_input de corresponderende inbedding?