网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
07月29日
漏签
0
天
笔记本吧
关注:
5,005,720
贴子:
89,023,527
看贴
图片
吧主推荐
视频
游戏
4
回复贴,共
1
页
<<返回笔记本吧
>0< 加载中...
求助
大伙本地部署ai轻薄本能跑起来吗?
只看楼主
收藏
回复
最爱我爱家人
性价比党
6
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
如题,工作需要到处走,还需要ai写些小说
羲歌
性价比党
6
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
本地ai现在还不成熟,何况你一个轻薄本
除非是rog幻16 +定制的64g内存+4090版本
2025-07-29 17:59:34
广告
不感兴趣
开通SVIP免广告
你又是谁u
显存党
7
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
别想了,轻薄本就是拿cpu跑,顶多是能跑不能用,不如买api划算,api也不贵,本地的智商也作急
贴吧用户_GANJGW9490
真·大神
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
本地部署看部署什么大模型或怎么用了?以及大模型的规模
轻薄本通常情况下,显卡在大模型下基本没什么用,除了新出的AMD AI Max,所以,针对轻薄本基本上可以忽略显卡的作用,我们以Ollama为例:在本地部署且使用内存的情况下:gemma3大语言模型在27b时内存占用大约60GB(实测,Ubuntu 24.04LTS);
因此:1)您首先要有尽量大的内存,如至少32G或更高的内存。2)大模型的规模不能太大,如只能运行deepseek-r1:14b这类规模的。3)速度就不要指望了,不过不是个人觉得道能用;
多数情况下,轻薄本本地部署大语言模型会有些尴尬
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示