deepseek吧 关注:99,181贴子:163,793
  • 0回复贴,共1

部署deepseek出现了一个问题,求教

只看楼主收藏回复

ollama+deepseek+open-webui,ollama的keep_alive已经设置-1,加载大模型时候也都用着没问题,可是过几个小时,发现gpu显存占用为0,大模型不能正常对话,看日志有offload to cuda 的字样,不知道问题出在哪了


IP属地:北京1楼2025-02-21 09:46回复