shandaye 发表于 2025-2-5 13:45

只有张3070,算了,还是使用网络版吧

minimu127 发表于 2025-2-5 15:23

二手玫瑰 发表于 2025-2-5 12:50
那就不折腾了,算Q

还是折腾下,给大家一个实际的参考

铿锵玫瑰花 发表于 2025-2-5 17:43

https://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.png

老菜鳥 发表于 2025-2-5 20:05

齐头并进 发表于 2025-2-4 19:07


这玩意儿懂人性了

alleezhong 发表于 2025-2-5 20:46

本地的不如在线的快。还是GPT的语音对话安逸。

okeanos 发表于 2025-2-5 21:29

dengcr1025 发表于 2025-02-04 17:48
显卡没有12g上还是不想了

配台机器大概需要多少预算?

okeanos 发表于 2025-2-5 21:30

招财猫与吞金兽 发表于 2025-02-04 22:02
本地部署很容易啊,在ollama官网下载安装一个ollama,然后根据电脑配置输入ollama run deepseek-r1:1.5b,就安装好了。ollama有windows,linux,macos等多个版本都能用,手机装个linux模拟器termux也能装ollama,用cpu跑大模型推荐1.5b版本(手机和树莓派跑起来和说话一样有点卡顿,电脑的cpu应该要好些),8g以上显(用的3070ti)存可以跑7b和8b版本,32b和70b的需要两张以上4090ti24g显存的机器,671b据说需要h200显卡才能跑得动。

ollama一直下载不了

招财猫与吞金兽 发表于 2025-2-5 22:33

okeanos 发表于 2025-02-05 21:30
ollama一直下载不了

哪个版本的了?刚试了一下window版的可以下载啊,平均5m的速度。

电缆哥CH 发表于 2025-2-6 09:19

直接网页使用好像就可以,为什么要下载尼,

铿锵玫瑰花 发表于 2025-2-6 12:19

电缆哥CH 发表于 2025-02-06 09:19
直接网页使用好像就可以,为什么要下载尼,

网页版现在被外国攻击,很难使用深度思考,经常服务器繁忙,影响使用效率
页: 1 2 3 4 5 6 7 [8] 9 10
查看完整版本: DeepSeek R1 推理模型 一键包 DeepSeek本地部署 全本地部署