냅다 예시코드)
from torch.utils.tensorboard import SummaryWriter
writer = SummaryWriter('./log/')
loss = 1000
loss_2 = 500
i = 0
while True:
loss -= 5
loss_2 -=1
writer.add_scalar("Loss", loss, i)
writer.add_scalar("Loss_2",loss_2,i)
i += 1
해당 코드를 실행시키면 지금 디렉토리/log 폴더에 파일이 저장된다.
새로운 terminal 을 열고 tensorboard --port 0 --logdir /현재 실행위치/log 입력
위 처럼 주소가 생긴다! 이 주소에 들어가 보면 코드에서 보려고 했던 loss data를 시각적으로 확인할 수 있다.
****추가
writer.add는 scalar, image ... 다양한 사용이 가능함!
port 0 : 열러있는 포트 아무거나 사용한다는 의미
**좋은 정보를 알려준 멋쟁이 친구에게 감사인사를..꾸벅😎
'공부' 카테고리의 다른 글
[Pytorch tutorial 실습] DATASET과 DATALOADER(1) (0) | 2023.10.30 |
---|---|
time 모듈로 코드실행 시간 측정 (0) | 2023.09.08 |
Linux 명령어 nohup 사용법 (0) | 2023.09.08 |