0热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 用P-Tuning v2微调之后进行推理发现是乱码?
10热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning v2微调后,权重为1 bias为0
7热度
5回答
[THUDM/ChatGLM-6B]token padding之后推理结果不对,推理不出来
9热度
5回答
[THUDM/ChatGLM-6B]训练数据labels打印出来全是-100
4热度
15回答
[THUDM/ChatGLM-6B]请问怎么构建属于自己的数据集,或者CLM可以训练的数据集
7热度
6回答
[THUDM/ChatGLM-6B]用ptv2微调,多卡跑,为啥第一张卡显存占满了,报oom
9热度
7回答
[THUDM/ChatGLM-6B][Help] <ptuning时使用了多少条数据获得了较好的效果>
8热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] <词表替换>
0热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning后多次加载问同一个问题,回复不相同
4热度
7回答
[THUDM/ChatGLM-6B]通过ptuning微调参数加载checkpoint后,推理逻辑不对了
2热度
11回答
[THUDM/ChatGLM-6B]chtglm量化后模型推理速度更慢了是什么原因?
3热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 使用deepspeed做全量finetune的时候,开启warmup_steps,保存下来的模型参数特别大。
8热度
5回答
[THUDM/ChatGLM-6B]【求助】两个节点多卡运行ds_train_finetune.sh遇到tcp超时问题
5热度
4回答
[THUDM/ChatGLM-6B][BUG/Help] 加载chatglm-6b-int4微调模型报错:size mismatch for embedding.weight
3热度
11回答
[THUDM/ChatGLM-6B]采用自己的数据微调INT4模型,使用web_demo部署后推理,问一个问题在queue等待了190s后没有返回任何结果,请教大佬们这是什么原因导致的
1热度
5回答
[THUDM/ChatGLM-6B][BUG] evaluate时predict结果为空,
7热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 单句推理显存持续增加
4热度
6回答
[THUDM/ChatGLM-6B][Help] 生成的停止条件是什么
7热度
7回答
[THUDM/ChatGLM-6B]关于ChatGLM模型的商用
9热度
10回答
[THUDM/ChatGLM-6B]根据文档提供的内容进行微调后,丧失了原有的基本对话能力