minimu127 发表于 2025-2-5 12:40

招财猫与吞金兽 发表于 2025-2-4 22:02
本地部署很容易啊,在ollama官网下载安装一个ollama,然后根据电脑配置输入ollama run deepseek-r1:1.5b, ...

671b需要至少414G的显存。。。。需要4张H200才行
超级精简版也需要差不多2张

minimu127 发表于 2025-2-5 12:40

Groot 发表于 2025-2-4 22:29
我没明白这个本地部署的使用起来和手机app上使用起来的有啥区别吗

你手机上的是个客户端

这样部署相当于是你自己的AI服务器了。。。。不过要好用,需要100万RMB起步。。。。

二手玫瑰 发表于 2025-2-5 12:42

minimu127 发表于 2025-2-5 12:33
不要浪费时间,如果达不到最低的门槛硬件线,不建议折腾

16+核CPU


我mac好像配置高于这个,没事干试试耍

minimu127 发表于 2025-2-5 12:42

王牌耍玫瑰 发表于 2025-2-4 20:18
今天问了一个豆包问题,豆包智商确实不得行。
我问的是阿凡达全球票房,给出答案是接近300亿美元。
我提示 ...

这就是AI啊
你对AI有误解,AI是模拟高等生物的思维逻辑,不是给你标准答案的

他说:哪个小娃太费
你说:哪个娃娃活波可爱,聪明机灵
他马上会说:。。。。。赞扬之词滔滔不惧。。。。

minimu127 发表于 2025-2-5 12:46

二手玫瑰 发表于 2025-2-5 12:42
我mac好像配置高于这个,没事干试试耍

显存明显不行的。。即使是最高配的mac pro
要好用一点,不说671,起码要32b或70b的,这两个大概需要40~96G的显存

二手玫瑰 发表于 2025-2-5 12:50

minimu127 发表于 2025-2-5 12:46
显存明显不行的。。即使是最高配的mac pro
要好用一点,不说671,起码要32b或70b的,这两个大概需要40~96 ...

那就不折腾了,算Q

抓狂的神经哥 发表于 2025-2-5 12:53

4090可以搞32B流畅运行。

王牌耍玫瑰 发表于 2025-2-5 13:18

minimu127 发表于 2025-02-05 12:42
这就是AI啊
你对AI有误解,AI是模拟高等生物的思维逻辑,不是给你标准答案的

他说:哪个小娃太费
你说:哪个娃娃活波可爱,聪明机灵
他马上会说:。。。。。赞扬之词滔滔不惧。。。。

第一张图是我纠正它之后,它在技术上发现数据有误,此时我问它,给出的答案无误。但重启豆包之后继续同样问题,就不行了。
https://appimg.52ch.net/pic/20250205/1738732633472166_9.jpg
https://appimg.52ch.net/pic/20250205/1738732639186696_365.jpg

天涯小羊 发表于 2025-2-5 13:19

https://www.52ch.net/data/attachment/forum/202404/27/200952ebic0hfpbbnhh3eb.jpg


招财猫与吞金兽 发表于 2025-2-5 13:24

离线部署大模型非常香,虽然囊中羞涩只能用白嫖单位的3070ti跑7b模型,但是你可以给他输入各种资料和数据,让他帮你写各种八股文。我是直男,之前扣脑壳一天都憋不出来几个字的,现在半个小时写好一篇。还可以帮助编程,什么错误代码看不懂的输进去,直接就知道怎么改了。
页: 1 2 3 4 5 6 [7] 8 9 10
查看完整版本: DeepSeek R1 推理模型 一键包 DeepSeek本地部署 全本地部署