在当前DeepSeek 或 AI大模型建立本地知识库的实用性
目前大家能看到一些讲 DeepSeek 或者使用大模型 建立本地知识库的视频或者文章,基本上都有很多的点击或热度,但到目前为止(20250223)基本没有太大实用价值。

拿DeepSeek 来说,可供下载的有很多版本,其中比较推荐的是R1和V3。 R1提供了从1.5B到671B不同大小的模型,而V3只有671B,而671B需要的电脑性能个人电脑几乎不可能满足,大家可以直接安装并且部署R1模型。
7B 速度快,质量差。14B,质量好一点,速度慢。32B ,质量好,但速度很慢。
个人电脑可以根据配置来进行选择,1.5B太小,可以从 7B开始试,要是电脑配置高一些推荐14或者34b,而这样的电脑基本上要 2、3万的配制才行,要是想安装满配的模型要6-8万,正常家用的电脑要是一万左右的电脑就是安装完了,响应的速度也非常慢。要是用Mac 最好也是16G或24G内存的机器, 8G就不要考虑了。
而且 7B的模型,容量有限,下载的DeepSeek 7B的模型,跟官网的是天差地别,完全不一样,14B能好用一些,32B更好,但配置要求高。注意官网是训练完数据并经常调教后的满配模型 。当前本地目前只支持 MD、txt,字数也有限制,太大也不行、视频和图片都不支持,基本上没有任何的实用性。
AI+本地知识库这事现在别太急,估计还要几个月或一年左右才能有些实用性。
当前情况下要是真的想使用,可以考虑 Cursor + Obsidian ,这是我目前尝试过所有的方法中用起来还有用一点的方式,然后使用 OpenAI、Anthropic 或 DeepSeek 的API,但配置起来比较麻烦,要机场,还要会给相应的帐户充值。

图2是 Cursor 的大模型界面,这是新的AI编程工具,需要单独付费。
线上的知识库会更容易,可以考虑用 知乎直答 目前每个提供1G的空间,基本上够用,或者用 IMA 做自己个人的知识库,几千条数据都不大,但目前也只是支持文本。
要是纯粹做研究,可以自己找个接入满配的 DeepSeek 模型云主机,租一个,然后自己喂资料,花点时间和钱 训练一个专有的大模型,需要你有足够的资料和数据才行,先要对资料进行处理和转换才能用。需要掌握相应的模型调效知识和一些编程开发知识,相对麻烦一点。


warfalcon的最新日记 · · · · · · ( 全部 )
- 做兼职和打工时的都要哪些要注意的地方和防止被骗的建议 (8人喜欢)
热门话题 · · · · · · ( 去话题广场 )
-
加载中...