p106吧 关注:23,927贴子:221,789
  • 22回复贴,共1

现在如果跑训练或者大语言模型哪个卡好呢?

只看楼主收藏回复

如题,楼主最近使用了rocm的6800完成了Linux下的stable diffusion的部署,
但是之后的chatglm和一些东西必须要原生cuda才行
6b模型的预备要求是大于6GB显存,大家有什么推荐吗?,虚心求教
比如p102和40hx那些类型


IP属地:广东来自Android客户端1楼2023-03-28 09:59回复
    速度怎么样?我一直没部署成功。在win下面速度慢的要死。一张图两三分钟


    IP属地:山东来自Android客户端2楼2023-03-28 10:35
    收起回复
      p104 58步1024*1344 lora模型,大概八九分钟一张,这够慢了吧


      IP属地:上海来自Android客户端3楼2023-03-28 10:46
      收起回复
        很早之前用的是p106部署的,那个实在是太方便了,十几分钟,Linux真的从零开始,研究了两天才成功


        IP属地:广东来自Android客户端4楼2023-03-28 11:03
        回复
          我部署后说CDUA有问题,是因为下载的一键安装对应的是8G版模型还是部署有问题?


          IP属地:福建6楼2023-03-28 19:50
          收起回复
            Tesla P40 24G


            IP属地:湖北来自iPhone客户端7楼2023-03-28 20:01
            收起回复