8
https://github.com/THUDM/ChatGLM-6B/issues/393 根据以上描述是由于要缓存context中的信息,如何才能每次调用后清理缓存,保证不会出现持续增加直至OOM的情况呢?
Environment- OS:CentOS
- Python:3.8
- Transformers:4.27.1
- PyTorch:1.12.0+cu102
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :True