tf.nn.embedding_lookup(params, ids, partition_strategy="mod", name=None)
Nie rozumiem obowiązku tej funkcji. Czy to jest jak tabela przeglądowa? Co oznacza zwrócenie parametrów odpowiadających każdemu id (w id)?
Na przykład w modelu skip-gram
, jeśli używamy tf.nn.embedding_lookup( embeddings, train_inputs)
, to dla każdego train_input
znajduje odpowiednie osadzenie?