招财猫与吞金兽 发表于 2025-2-4 22:02

本地部署很容易啊,在ollama官网下载安装一个ollama,然后根据电脑配置输入ollama run deepseek-r1:1.5b,就安装好了。ollama有windows,linux,macos等多个版本都能用,手机装个linux模拟器termux也能装ollama,用cpu跑大模型推荐1.5b版本(手机和树莓派跑起来和说话一样有点卡顿,电脑的cpu应该要好些),8g以上显(用的3070ti)存可以跑7b和8b版本,32b和70b的需要两张以上4090ti24g显存的机器,671b据说需要h200显卡才能跑得动。

招财猫与吞金兽 发表于 2025-2-4 22:08

大模型客户端手机端推荐chatbox,电脑端推荐用anythingLLM,或者动手能力强的可以用defy搭建一个平台。最近看还可以在word中编写一个调用大模型的vb程序,直接写到word中(不知道怎么写vb程序的,可以让大模型帮你写出来,还会指导你如何在word中运行)。

l10741 发表于 2025-2-4 22:12

formula91 发表于 2025-02-04 19:41
本帖最后由 formula91 于 2025-2-4 19:43 编辑


这个跟gpt没啥区别 数据来源就是gpt的 只是多了本地的过滤 而且还不需要搭梯子 只是数据有点旧 好像是截止2023年的数据 应该是24年那段时间弄的

你几个美国爹都认了,你个不孝子居然还胆敢否定你爹们的结论?

Groot 发表于 2025-2-4 22:29

我没明白这个本地部署的使用起来和手机app上使用起来的有啥区别吗

baoma 发表于 2025-2-4 22:34

Groot 发表于 2025-2-4 22:29
我没明白这个本地部署的使用起来和手机app上使用起来的有啥区别吗

本地部署可以自己设置违规词语规则

formula91 发表于 2025-2-4 22:37

@l10741 莫不是个zz

l10741 发表于 2025-2-4 22:42

formula91 发表于 2025-2-4 22:45

l10741 发表于 2025-2-4 22:54

formula91 发表于 2025-02-04 22:45
你怎么跟条疯狗一样啊

老子讨厌你这种吃里扒外的残废,智障,见一次批一次!

formula91 发表于 2025-2-4 22:55

页: 1 2 [3] 4 5 6 7 8 9 10
查看完整版本: DeepSeek R1 推理模型 一键包 DeepSeek本地部署 全本地部署