8热度
8回答
[babysor/MockingBird]UnboundLocalError: local variable 'sample_rate' referenced before assignment 报错
3热度
3回答
[babysor/MockingBird]分享下自己训练的模型
10热度
7回答
[babysor/MockingBird]运行pip install -r requirements.txt 来安装剩余的必要包时出错
10热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 用P-Tuning v2微调之后进行推理发现是乱码?
9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning v2微调后,权重为1 bias为0
1热度
5回答
[THUDM/ChatGLM-6B]token padding之后推理结果不对,推理不出来
4热度
5回答
[THUDM/ChatGLM-6B]训练数据labels打印出来全是-100
5热度
15回答
[THUDM/ChatGLM-6B]请问怎么构建属于自己的数据集,或者CLM可以训练的数据集
0热度
6回答
[THUDM/ChatGLM-6B]用ptv2微调,多卡跑,为啥第一张卡显存占满了,报oom
2热度
7回答
[THUDM/ChatGLM-6B][Help] <ptuning时使用了多少条数据获得了较好的效果>
0热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] <词表替换>
0热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning后多次加载问同一个问题,回复不相同
6热度
7回答
[THUDM/ChatGLM-6B]通过ptuning微调参数加载checkpoint后,推理逻辑不对了
9热度
11回答
[THUDM/ChatGLM-6B]chtglm量化后模型推理速度更慢了是什么原因?
2热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 使用deepspeed做全量finetune的时候,开启warmup_steps,保存下来的模型参数特别大。
5热度
5回答
[THUDM/ChatGLM-6B]【求助】两个节点多卡运行ds_train_finetune.sh遇到tcp超时问题
3热度
4回答
[THUDM/ChatGLM-6B][BUG/Help] 加载chatglm-6b-int4微调模型报错:size mismatch for embedding.weight
4热度
11回答
[THUDM/ChatGLM-6B]采用自己的数据微调INT4模型,使用web_demo部署后推理,问一个问题在queue等待了190s后没有返回任何结果,请教大佬们这是什么原因导致的
5热度
5回答
[THUDM/ChatGLM-6B][BUG] evaluate时predict结果为空,
1热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 单句推理显存持续增加