铿锵玫瑰花 发表于 2025-2-7 11:22

wei134y 发表于 2025-02-06 21:37
第一次在吃喝下软件,谢谢

https://app.52ch.net/public/emotion/face_073.pnghttps://app.52ch.net/public/emotion/face_073.pnghttps://app.52ch.net/public/emotion/face_073.png

打死奥拓曼 发表于 2025-2-7 12:38

招财猫与吞金兽 发表于 2025-02-04 22:08
本帖最后由 招财猫与吞金兽 于 2025-2-4 22:12 编辑

大模型客户端手机端推荐chatbox,电脑端推荐用anythingLLM,或者动手能力强的可以用defy搭建一个平台。最近看还可以在word中编写一个调用大模型的vb程序,直接写到word中(不知道怎么写vb程序的,可以让大模型帮你写出来,还会指导你如何在word中运行)。

我直接用VB写的宏去部署,本本1060的显卡,反应慢的抠胩

招财猫与吞金兽 发表于 2025-2-7 12:53

打死奥拓曼 发表于 2025-02-07 12:38
我直接用VB写的宏去部署,本本1060的显卡,反应慢的抠胩

你试试在ollama中跑1.5b以下的模型了,我估计因1060跑7b以上模型会显存不足,导致输出缓慢。

铿锵玫瑰花 发表于 2025-2-7 14:09

大地149 发表于 2025-02-06 17:16
有百度盘的吗?夸克没有会员

暂时没有

铿锵玫瑰花 发表于 2025-2-8 11:57

https://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.png

shaocheng 发表于 2025-2-8 13:03

yy899 发表于 2025-2-6 14:26
为什么我的浏览器下载不了Ollama

换个时间下载吧。我今天早上很快就下载好了

shaocheng 发表于 2025-2-8 13:05

蛋卷超人 发表于 2025-2-4 19:02
手机无望了

手机可以用呀。。

铿锵玫瑰花 发表于 2025-2-8 17:57

https://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.png

蛋卷超人 发表于 2025-2-8 18:00

shaocheng 发表于 2025-02-08 13:05
手机可以用呀。。

我是说这种本地部署用法https://app.52ch.net/public/emotion/face_043.png

卡瑟夫公爵 发表于 2025-2-9 07:55

这玩意儿就是信息收集整理总结高手啊,本来啥都没有,都参与进去那就厉害大发了。
页: 1 2 3 4 5 6 7 8 9 [10]
查看完整版本: DeepSeek R1 推理模型 一键包 DeepSeek本地部署 全本地部署