pytorch 안에서 adam을 쓸 때 자꾸 위와 같은 에러가 떠서 이를 위해
optimizer = optim.Adam(func.parameters(), lr=args.lr)
optimizer.param_groups[0]['capturable'] = True
다음과 같이 'capturable'을 true로 바꿔줘야했다. 그런데 다른 사람들의 라이브러리를 쓰다보면 optimizer가 라이브러리 안에 포함되어있어서 위와 같은 코드를 넣어주기 힘든 경우가 발생했다.
따라서 아래와 같이 가상환경 안에 있는 코드에 접근하여서 에러가 나는 부분을 주석처리해주었다.
이렇게 하는 이유는 실제로 위의 error가 코드 성능에 악영향을 미치지 않기 때문이다. params 및 state_steps이 CUDA tensor일 필요가 없다면 그냥 무시하는 게 낫다고 생각한다.
혹시 더 좋은 방법이 있다면 이 글을 수정하도록 하겠다.
'연구 Research > 인공지능 Artificial Intelligent' 카테고리의 다른 글
[PyTorch] 개별 파라미터 learning rate 다르게 설정 및 learning rate 확인 (2) | 2023.03.05 |
---|---|
[JAX] Windows에서도 JAX 사용하기 (0) | 2023.02.24 |
[인공지능] Windows 기준 CUDA & cuDNN 최신 버전 설치 (CUDA 11.6 이상) (0) | 2023.02.07 |
[PyTorch] retain_graph = True라고 했음에도 backward 문제가 발생하는 경우 (0) | 2023.01.05 |
[PyTorch] 모델 저장/불러오기 및 모델 수정하기 (0) | 2023.01.04 |