minimu127
发表于 2025-2-5 12:40
招财猫与吞金兽 发表于 2025-2-4 22:02
本地部署很容易啊,在ollama官网下载安装一个ollama,然后根据电脑配置输入ollama run deepseek-r1:1.5b, ...
671b需要至少414G的显存。。。。需要4张H200才行
超级精简版也需要差不多2张
minimu127
发表于 2025-2-5 12:40
Groot 发表于 2025-2-4 22:29
我没明白这个本地部署的使用起来和手机app上使用起来的有啥区别吗
你手机上的是个客户端
这样部署相当于是你自己的AI服务器了。。。。不过要好用,需要100万RMB起步。。。。
二手玫瑰
发表于 2025-2-5 12:42
minimu127 发表于 2025-2-5 12:33
不要浪费时间,如果达不到最低的门槛硬件线,不建议折腾
16+核CPU
我mac好像配置高于这个,没事干试试耍
minimu127
发表于 2025-2-5 12:42
王牌耍玫瑰 发表于 2025-2-4 20:18
今天问了一个豆包问题,豆包智商确实不得行。
我问的是阿凡达全球票房,给出答案是接近300亿美元。
我提示 ...
这就是AI啊
你对AI有误解,AI是模拟高等生物的思维逻辑,不是给你标准答案的
他说:哪个小娃太费
你说:哪个娃娃活波可爱,聪明机灵
他马上会说:。。。。。赞扬之词滔滔不惧。。。。
minimu127
发表于 2025-2-5 12:46
二手玫瑰 发表于 2025-2-5 12:42
我mac好像配置高于这个,没事干试试耍
显存明显不行的。。即使是最高配的mac pro
要好用一点,不说671,起码要32b或70b的,这两个大概需要40~96G的显存
二手玫瑰
发表于 2025-2-5 12:50
minimu127 发表于 2025-2-5 12:46
显存明显不行的。。即使是最高配的mac pro
要好用一点,不说671,起码要32b或70b的,这两个大概需要40~96 ...
那就不折腾了,算Q
抓狂的神经哥
发表于 2025-2-5 12:53
4090可以搞32B流畅运行。
王牌耍玫瑰
发表于 2025-2-5 13:18
minimu127 发表于 2025-02-05 12:42
这就是AI啊
你对AI有误解,AI是模拟高等生物的思维逻辑,不是给你标准答案的
他说:哪个小娃太费
你说:哪个娃娃活波可爱,聪明机灵
他马上会说:。。。。。赞扬之词滔滔不惧。。。。
第一张图是我纠正它之后,它在技术上发现数据有误,此时我问它,给出的答案无误。但重启豆包之后继续同样问题,就不行了。
https://appimg.52ch.net/pic/20250205/1738732633472166_9.jpg
https://appimg.52ch.net/pic/20250205/1738732639186696_365.jpg
天涯小羊
发表于 2025-2-5 13:19
https://www.52ch.net/data/attachment/forum/202404/27/200952ebic0hfpbbnhh3eb.jpg
牛
招财猫与吞金兽
发表于 2025-2-5 13:24
离线部署大模型非常香,虽然囊中羞涩只能用白嫖单位的3070ti跑7b模型,但是你可以给他输入各种资料和数据,让他帮你写各种八股文。我是直男,之前扣脑壳一天都憋不出来几个字的,现在半个小时写好一篇。还可以帮助编程,什么错误代码看不懂的输进去,直接就知道怎么改了。
页:
1
2
3
4
5
6
[7]
8
9
10