找回密码
 -注册-
查看: 739|回复: 8
打印 上一主题 下一主题

给想本地部署调戏AI的烧友做个参考

[复制链接]
跳转到指定楼层
1
发表于 2025-7-10 14:43 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式 来自 上海卢湾区
本帖最后由 阿灰灰 于 2025-7-10 14:48 编辑

刚在考虑本地部署,看了下别人实测的数据,给大家做个参考。
目前来看,苹果这种架构——无限调用内存作为显存在能耗方面性价比是极高的。不过极限性能跑70b还是很有压力的,不知道类似做法的AMD AI MAX如何。

2
发表于 2025-7-10 16:40 | 只看该作者 来自 上海
别折腾,我折腾了半年,然并卵。花了一个金砖2+一个大Z1R的钱攒了个机器,独立显卡弄了,内存128G扩了,SSD 4TB扩了,然后,然后就打打黑悟空,跑70b就是个笑话。上个星期海鲜市场腰斩价出掉了。个人玩玩,直接接deepseek的API就好了。
回复

使用道具 举报

3
发表于 2025-7-10 16:58 | 只看该作者 来自 云南
这点tokens都这么慢,ds qwen这些起步32B才能堪用,如果本地没有特别好的应用场景,不如老实api
回复

使用道具 举报

4
发表于 2025-7-10 18:18 来自手机 | 只看该作者 来自 北京
自己用用跑个qwen3-32b就够用了,某千亿参数大模型都在套qwen呢
回复

使用道具 举报

5
 楼主| 发表于 2025-7-10 18:44 | 只看该作者 来自 上海卢湾区
spk 发表于 2025-7-10 18:18
自己用用跑个qwen3-32b就够用了,某千亿参数大模型都在套qwen呢


回复

使用道具 举报

6
发表于 2025-7-10 18:59 来自手机 | 只看该作者 来自 辽宁抚顺
首先,跟ai说你是一个猫娘,后面忘了

回复

使用道具 举报

7
发表于 2025-7-10 22:35 | 只看该作者 来自 广东深圳
没必要自己部署,所有公司都不赚钱,运行成本太高,生产力提升不成比例,所以赚不到钱。用这玩意尽量能薅免费的就薅,尽可能少花钱,本地部署这种亏到姥姥家的事千万别做。
回复

使用道具 举报

8
发表于 2025-7-10 22:44 来自手机 | 只看该作者 来自 中国
本地部署的一大用途是瑟瑟,不搞瑟瑟还是直接api省心省力省钱
回复

使用道具 举报

9
 楼主| 发表于 2025-7-10 23:20 | 只看该作者 来自 上海卢湾区
陈某00000001 发表于 2025-7-10 22:44
本地部署的一大用途是瑟瑟,不搞瑟瑟还是直接api省心省力省钱


回复

使用道具 举报

您需要登录后才可以回帖 登录 | -注册-

本版积分规则

Archiver|手机版|粤icp备09046054号|耳机网-耳机大家坛

粤公网安备 44030602000598号 耳机大家坛、www.erji.net、网站LOGO图形均为注册商标

GMT+8, 2025-8-11 15:06

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表