Najpierw musisz zainstalować PyTorch w swoim środowisku Python. Najprostszym sposobem na to jest — użyj narzędzia pip
lub conda
. Odwiedź pytorch.org i zainstaluj wersję swojego interpretera Pythona i menedżera pakietów, których chcesz używać.
# Możemy uruchomić ten kod Pythona na notatniku Jupyter
#, aby automatycznie zainstalować poprawną wersję
# PyTorch.
# http://pytorch.org / ze ścieżki importu systemu operacyjnego
z
wheel.pep425tags
import
get_abbr_impl, get_impl_ver, get_abi_tag
platforma
=
`{} {} - {}`
.
format
(get_abbr_impl (), get_impl_ver (), get_abi_tag ())
akcelerator
=
`cu80`
if
path.exists (
`/ opt / bin / nvidia-smi`
)
else
`cpu`
! pip install
-
q http:
/
/
download.pytorch.org
/
whl
/
{akcelerator}
/
latarka
-
0,3
.
0.post4
-
{platforma}
-
linux_x86_64.whl torchvision
Po zainstalowaniu PyTorch zajmijmy się teraz spójrz na kod.
Napisz dwa poniższe wiersze, aby zaimportować wymagane funkcje i obiekty biblioteki.
Zdefiniujemy również niektóre dane i przypisujemy je do zmiennych x_data i y_data, w następujący sposób:
Tutaj x_data & #8212; nasza zmienna niezależna i y_data — naszą zmienną zależną. To będzie na razie nasz zbiór danych. Następnie musimy zdefiniować nasz model. Definiowanie naszego modelu składa się z dwóch głównych etapów. Są to:
Używamy poniższej klasy:
Jak widać, nasza klasa Model jest podklasą torch.nn.module. Ponadto, ponieważ mamy tutaj tylko jedno wejście i jedno wyjście, używamy modelu liniowego o rozmiarze wejścia i wyjścia równym 1. Następnie tworzymy obiekt tego modelu.
Następnie wybierz optymalizator i kryteria strat. Tutaj użyjemy błędu średniokwadratowego (MSE) jako funkcji straty i stochastycznego spadku gradientu (SGD) jako naszego optymalizatora. Ustalamy również arbitralnie szybkość uczenia się na 0,01.
Linki |