铿锵玫瑰花
发表于 2025-2-7 11:22
wei134y 发表于 2025-02-06 21:37
第一次在吃喝下软件,谢谢
https://app.52ch.net/public/emotion/face_073.pnghttps://app.52ch.net/public/emotion/face_073.pnghttps://app.52ch.net/public/emotion/face_073.png
打死奥拓曼
发表于 2025-2-7 12:38
招财猫与吞金兽 发表于 2025-02-04 22:08
本帖最后由 招财猫与吞金兽 于 2025-2-4 22:12 编辑
大模型客户端手机端推荐chatbox,电脑端推荐用anythingLLM,或者动手能力强的可以用defy搭建一个平台。最近看还可以在word中编写一个调用大模型的vb程序,直接写到word中(不知道怎么写vb程序的,可以让大模型帮你写出来,还会指导你如何在word中运行)。
我直接用VB写的宏去部署,本本1060的显卡,反应慢的抠胩
招财猫与吞金兽
发表于 2025-2-7 12:53
打死奥拓曼 发表于 2025-02-07 12:38
我直接用VB写的宏去部署,本本1060的显卡,反应慢的抠胩
你试试在ollama中跑1.5b以下的模型了,我估计因1060跑7b以上模型会显存不足,导致输出缓慢。
铿锵玫瑰花
发表于 2025-2-7 14:09
大地149 发表于 2025-02-06 17:16
有百度盘的吗?夸克没有会员
暂时没有
铿锵玫瑰花
发表于 2025-2-8 11:57
https://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.png
shaocheng
发表于 2025-2-8 13:03
yy899 发表于 2025-2-6 14:26
为什么我的浏览器下载不了Ollama
换个时间下载吧。我今天早上很快就下载好了
shaocheng
发表于 2025-2-8 13:05
蛋卷超人 发表于 2025-2-4 19:02
手机无望了
手机可以用呀。。
铿锵玫瑰花
发表于 2025-2-8 17:57
https://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.pnghttps://app.52ch.net/public/emotion/face_068.png
蛋卷超人
发表于 2025-2-8 18:00
shaocheng 发表于 2025-02-08 13:05
手机可以用呀。。
我是说这种本地部署用法https://app.52ch.net/public/emotion/face_043.png
卡瑟夫公爵
发表于 2025-2-9 07:55
这玩意儿就是信息收集整理总结高手啊,本来啥都没有,都参与进去那就厉害大发了。
页:
1
2
3
4
5
6
7
8
9
[10]