招财猫与吞金兽
发表于 2025-2-4 22:02
本地部署很容易啊,在ollama官网下载安装一个ollama,然后根据电脑配置输入ollama run deepseek-r1:1.5b,就安装好了。ollama有windows,linux,macos等多个版本都能用,手机装个linux模拟器termux也能装ollama,用cpu跑大模型推荐1.5b版本(手机和树莓派跑起来和说话一样有点卡顿,电脑的cpu应该要好些),8g以上显(用的3070ti)存可以跑7b和8b版本,32b和70b的需要两张以上4090ti24g显存的机器,671b据说需要h200显卡才能跑得动。
招财猫与吞金兽
发表于 2025-2-4 22:08
大模型客户端手机端推荐chatbox,电脑端推荐用anythingLLM,或者动手能力强的可以用defy搭建一个平台。最近看还可以在word中编写一个调用大模型的vb程序,直接写到word中(不知道怎么写vb程序的,可以让大模型帮你写出来,还会指导你如何在word中运行)。
l10741
发表于 2025-2-4 22:12
formula91 发表于 2025-02-04 19:41
本帖最后由 formula91 于 2025-2-4 19:43 编辑
这个跟gpt没啥区别 数据来源就是gpt的 只是多了本地的过滤 而且还不需要搭梯子 只是数据有点旧 好像是截止2023年的数据 应该是24年那段时间弄的
你几个美国爹都认了,你个不孝子居然还胆敢否定你爹们的结论?
Groot
发表于 2025-2-4 22:29
我没明白这个本地部署的使用起来和手机app上使用起来的有啥区别吗
baoma
发表于 2025-2-4 22:34
Groot 发表于 2025-2-4 22:29
我没明白这个本地部署的使用起来和手机app上使用起来的有啥区别吗
本地部署可以自己设置违规词语规则
formula91
发表于 2025-2-4 22:37
@l10741 莫不是个zz
l10741
发表于 2025-2-4 22:42
formula91
发表于 2025-2-4 22:45
l10741
发表于 2025-2-4 22:54
formula91 发表于 2025-02-04 22:45
你怎么跟条疯狗一样啊
老子讨厌你这种吃里扒外的残废,智障,见一次批一次!
formula91
发表于 2025-2-4 22:55
页:
1
2
[3]
4
5
6
7
8
9
10