Co robi funkcja tf.nn.embedding_lookup?

| | | | |
tf.nn.embedding_lookup(params, ids, partition_strategy="mod", name=None) 

Nie rozumiem obowiązku tej funkcji. Czy to jest jak tabela przeglądowa? Co oznacza zwrócenie parametrów odpowiadających każdemu id (w id)?

Na przykład w modelu skip-gram, jeśli używamy tf.nn.embedding_lookup( embeddings, train_inputs), to dla każdego train_input znajduje odpowiednie osadzenie?