网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
07月29日漏签0天
笔记本吧 关注:5,005,720贴子:89,023,527
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 4回复贴,共1页
<<返回笔记本吧
>0< 加载中...

求助大伙本地部署ai轻薄本能跑起来吗?

  • 只看楼主
  • 收藏

  • 回复
  • 最爱我爱家人
  • 性价比党
    6
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
如题,工作需要到处走,还需要ai写些小说


  • 羲歌
  • 性价比党
    6
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
本地ai现在还不成熟,何况你一个轻薄本除非是rog幻16 +定制的64g内存+4090版本


2025-07-29 17:59:34
广告
不感兴趣
开通SVIP免广告
  • 你又是谁u
  • 显存党
    7
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
别想了,轻薄本就是拿cpu跑,顶多是能跑不能用,不如买api划算,api也不贵,本地的智商也作急


  • 贴吧用户_GANJGW9490
  • 真·大神
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
本地部署看部署什么大模型或怎么用了?以及大模型的规模
轻薄本通常情况下,显卡在大模型下基本没什么用,除了新出的AMD AI Max,所以,针对轻薄本基本上可以忽略显卡的作用,我们以Ollama为例:在本地部署且使用内存的情况下:gemma3大语言模型在27b时内存占用大约60GB(实测,Ubuntu 24.04LTS);
因此:1)您首先要有尽量大的内存,如至少32G或更高的内存。2)大模型的规模不能太大,如只能运行deepseek-r1:14b这类规模的。3)速度就不要指望了,不过不是个人觉得道能用;
多数情况下,轻薄本本地部署大语言模型会有些尴尬


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 4回复贴,共1页
<<返回笔记本吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示