본문 바로가기

Tech/파이썬

CUDA Memory/Huggingface Cache Management

리눅스 터미널에서 딥러닝 학습 강제 중단했을때 GPU에 남은 메모리 정리하는 방법

 

리눅스 터미널에서 딥러닝 학습 강제 중단했을때 GPU에 남은 메모리 정리하는 방법

# 세줄요약 # ps aux | grep python 명령어를 사용하여 딥러닝 학습을 실행시킨 python 파일의 실행 ID를 찾는다. 찾은 아이디가 예를 들어 '1234' 라면, sudo kill -9 1234 명령어를 사용하여 Kill 명령어를 내린

pulsar-kkaturi.tistory.com

 

 

 

[Error Handling] Cuda out of memory 해결

 

[Error Handling] Cuda out of memory 해결

상황 : 파이토치 기반 추천 모델 학습 중에 Cuda out of memory 에러 발생 구글 검색 결과 여러가지 해결 방법 GPU 캐시 데이터 삭제 : torch.cuda.empth_cache() 현재 사용 중인 GPU 메모리 반환 : 터미널에서 nvi

mollymollang.tistory.com

 


서버에서 sudo 계정 로그인 후
 sudo kill -9 [PID]

 

 

pip install huggingface_hub["cli"]

huggingface-cli delete-cache

 










>