BugFix
PHP
Java
Python
Go
MySQL
Javascript
AI
All Tags
登录
注册
Nvidia
9
热度
18
回答
[ggerganov/llama.cpp]最近我的多 GPU 坏了。ggml-cuda.cu:7068: 参数无效
先决条件 在提交问题之前,请您自己回答以下问题。 带有 python 绑定的 Git llama.cpp。 预期行为 推理就像以前一样。 目前的行为 推理失败并且 llama.cpp 崩溃。 环境和背景 蟒蛇3.10 / CUDA 11.8 失败信息(针对错误) llm_load_print_meta: BOS token = 1 '<s>' llm_load_print_meta:
gguf
ggml
Nvidia
llama
CUDA
2024-03-22
最新问题
1.
[krahets/hello-algo]希望切換語言時能保持在相同章節
2.
[krahets/hello-algo]Java代码的Class名称命名规范问题
3.
[krahets/hello-algo]示例代码增强校验
4.
[krahets/hello-algo]内容修改?
5.
[star7th/showdoc]runapi客户端连接多个私有服务器,能不能记住密码。可以切换登录
6.
[whyour/qinglong]docker部署的青龙突然无法启动,白屏报error
7.
[whyour/qinglong]定时规则到点不执行
8.
[alibaba/tengine]dubbo 连接瞬间超时
9.
[star7th/showdoc]请问runapi利用前执行脚本如何替换json字符串中的参数
10.
[whyour/qinglong]设置定时任务后重复执行