파이토치 RuntimeError: grad can be implicitly created only for scalar outputs 해결법
📂머신러닝파이토치 RuntimeError: grad can be implicitly created only for scalar outputs 해결법
사례1
만약 손실함수를 loss = sum(a,b)
와 같이 뒀다면 loss.backward()
에서 백프로파게이션할 때 해당 오류가 날 수 있다. 이때 loss = torch.sum(a,b)
로 바꿔주면 에러가 나지 않는다.