6热度
5回答
[THUDM/ChatGLM-6B]添加了流式解码器,做到更好的控制台体验和更高的解码效率
1热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] M1 Pro 16G 提问一直卡住
9热度
6回答
[THUDM/ChatGLM-6B][Document] 更新Mac部署说明
9热度
5回答
[THUDM/ChatGLM-6B]在安装完Gradio之后,执行python web_demo.py时出错。 请高手指点一下
10热度
11回答
[THUDM/ChatGLM-6B]使用p-tuning多卡微调OOM
9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] Windows下使用多卡P-tuning微调,出现OOM
8热度
7回答
[THUDM/ChatGLM-6B][BUG/Help] 在windows部署,做ptuning训练时,下载好数据集,执行bash train.sh的时候报错
8热度
6回答
[THUDM/ChatGLM-6B]我在做数据集-不知道多轮对话数据最终是不是这样的?
2热度
6回答
[THUDM/ChatGLM-6B]Deepspeed finetune需要多大的显存?
1热度
11回答
[THUDM/ChatGLM-6B]训练的时候为啥labels都是100,只显示第一个的回答的input和labels
2热度
9回答
[THUDM/ChatGLM-6B]chatglm-6B-int4 如何在 Mac M2 上微调
10热度
14回答
6热度
3回答
[THUDM/ChatGLM-6B]P-tuning v2微调后只响应训练数据
10热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] ice_text.model词表长度与config里设置不一致
8热度
9回答
[THUDM/ChatGLM-6B]ptuning v2微调后的效果
9热度
5回答
4热度
5回答
[THUDM/ChatGLM-6B]数据集的格式都是输入问答对的方式,能不能直接输入一篇文档作为数据集来微调训练?[Feature]
9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <使用deepspeed对模型进行了全量参数的微调,发现模型直接微调崩了,完全不说人话,系统响应全是,,,>, ,。等>
2热度
6回答
[THUDM/ChatGLM-6B]请问chatglm6b,glm10b和glm130b模型到底有哪里不同的
8热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 多卡预测报错