PyTorch RuntimeError:「gradはスカラー出力に対してのみ暗黙的に作成できます」の解決法
事例1
もし損失関数をloss = sum(a,b)
と設定していたら、loss.backward()
でバックプロパゲーションを行う際にこのエラーが発生することがある。それをloss = torch.sum(a,b)
に変えると、エラーは起きない。
もし損失関数をloss = sum(a,b)
と設定していたら、loss.backward()
でバックプロパゲーションを行う際にこのエラーが発生することがある。それをloss = torch.sum(a,b)
に変えると、エラーは起きない。