Zuerst müssen Sie PyTorch in Ihrer Python-Umgebung installieren. Der einfachste Weg, dies zu tun, ist — Verwenden Sie das Tool pip
oder conda
. Besuchen Sie pytorch.org und installieren Sie die Version Ihres Python-Interpreters und Paketmanagers, die Sie verwenden möchten.
# Wir können diesen Python-Code auf einem Jupyter-Notebook ausführen
# um automatisch die richtige Version zu installieren
# PyTorch.
# http://pytorch.org / vom Betriebssystem-Importpfad
von
wheel.pep425tags
import
get_abbr_impl, get_impl_ver, get_abi_tag
Plattform
=
`{} {} - {}`
.
format
(get_abbr_impl (), get_impl_ver (), get_abi_tag ())
Beschleuniger
=
`cu80`
if
path.exists (
`/ opt / bin / nvidia-smi`
)
else
`cpu`
! pip install
-
q http:
/
/
download.pytorch.org
/
whl
/
{beschleuniger}
/
Taschenlampe
-
0.3
.
0.post4
-
{platform}
-
linux_x86_64.whl Torchvision
Lassen Sie uns jetzt mit installiertem PyTorch beginnen Sehen Sie sich den Code an.
Schreiben Sie die beiden Zeilen unten, um die erforderlichen Bibliotheksfunktionen und -objekte zu importieren.
Wir definieren auch einige Daten und weisen sie den Variablen x_data und y_data zu. em> wie folgt:
Hier x_data & #8212; unsere unabhängige Variable und y_data — unsere abhängige Variable. Dies wird vorerst unser Datensatz sein. Als nächstes müssen wir unser Modell definieren. Die Definition unseres Modells besteht aus zwei Hauptschritten. Sie sind:
Wir verwenden die folgende Klasse:
Wie Sie sehen können, ist unsere Klasse Model eine Unterklasse von torch.nn.module. Da wir hier außerdem nur einen Eingang und einen Ausgang haben, verwenden wir ein lineares Modell mit einer Eingangs- und Ausgangsgröße von 1. Als nächstes erstellen wir ein Objekt dieses Modells.
Danach wählen Sie einen Optimierer und Verlustkriterien. Hier verwenden wir den mittleren quadratischen Fehler (MSE) als unsere Verlustfunktion und den stochastischen Gradientenabstieg (SGD) als unseren Optimierer. Außerdem legen wir die Lernrate willkürlich auf 0,01 fest.
Links |