PyTorch RuntimeError:「gradはスカラー出力に対してのみ暗黙的に作成できます」の解決法
事例1

もし損失関数をloss = sum(a,b)と設定していたら、loss.backward()でバックプロパゲーションを行う際にこのエラーが発生することがある。それをloss = torch.sum(a,b)に変えると、エラーは起きない。


もし損失関数をloss = sum(a,b)と設定していたら、loss.backward()でバックプロパゲーションを行う際にこのエラーが発生することがある。それをloss = torch.sum(a,b)に変えると、エラーは起きない。