サクサク読めて、アプリ限定の機能も多数!
1 - 1 件 / 1件
import torch x = torch.tensor([1., -1.]) w = torch.tensor([1.0, 0.5], requires_grad=True) loss = -torch.dot(x, w).sigmoid().log() loss.backward() print(loss.item()) print(w.grad)
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く