前几天,我发了一篇文章:DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级喂饭教程,在公众号,知乎,星球上,很多朋友都跟着进行了实操,也给了我很多的反馈。
在此,我专门做一下集中答疑,希望朋友们少走弯路,主要集中在以下两点:
一、Dify 和 ollama 关联时,使用本机IP,还是跑不通怎么办?如果使用本机内网IP联不通的话,可以尝试把指定 Ollama 的 API 地址改为host.docker.internal:11434 试试
图片
改完后,执行如下两个命令:docker compose downdocker compose up -d二、知识库 embedding 模型使用哪个比较好?原本为了降低教程难度,我就使用了deepseek-r1模型作为embedding模型来使用了,使用效果也勉强过得去.
但是,deepseek-r1毕竟不是专门的embeddinig模型,他不是专门为了嵌入场景训练的。
所以,使用deepseek-r1作为嵌入模型时,有些问题回答的不是很尽如人意。因此,我又测试了其他几款专业embedding模型,综合结果显示:bge-m3 效果最好,这里推荐大家使用 bge-m3 作为嵌入模型。
一)安装 bge-m3 模型bge-m3 模型安装和deepseek-r1完全一样,一个命令即可安装:
ollama pull bge-m3
图片
Embedding 模型那么多,为什么选择 nomic-embed-text ?
BGE (BAAI General Embedding) 专注于检索增强llm领域,经本人测试,对中文场景支持效果更好,当然也有很多其他embedding模型可供选择,可以根据自己的场景,在ollama上搜索“embedding”查询适合自己的嵌入模型。
图片
二)配置 Embedding 模型图片
图片
三)创建知识库图片
四)上传资料图片
五)保存并处理图片
图片
六)知识库创建完成图片
七)测试效果对比可以看到,使用bge-m3之前,对于有些问题的回答,答非所问,虽然有时候答案是对的,但是那是蒙的,并没有引用到正确的知识库对应的信息。
使用了bge-m3之后,很明显答案有理有据,推理依据是正确的上下文,而非猜测。
所以,知识库回答效果跟Embedding模型有很大关系,需要根据实际场景进行选型。
图片
图片
如果还有疑问,可以加我微信私聊:ao-ai-coding,也可以通过飞书文档查看试试答疑,答疑内容会在这个文档内实时更新,文档地址:https://i3k3w6il9z.feishu.cn/docx/O8XSdRrt3o30Jmx8ZTccVgY0nLg?from=from_copylink
我是阿坡,专注于AI+RPA自动化提效。
如果在RPA学习过程中有任何问题,欢迎加我v:ao-ai-coding,拉你进RPA实战交流群。
我和明鉴老师在平时和学员交流沟通的过程中,经常会遇到,智能体玩的很好的小伙伴,有提效的需求;玩RPA很好的小伙伴,有内容创作的需求。
所以,我们觉得是时候让 RPA和智能体 来一个合体了!
我敢说,你要是学会了 RPA+智能体,分分钟起飞!简直是降维打击!
因为看到了这个趋势,我们研发了一个小册子,目的是让更多人能够了解什么是RPA和智能体,也能让大家实操学会怎么样玩转RPA和智能体!
我们这个小册子主要提供一个文档和一个技术交流群,群里会交流各种好玩的 RPA+智能体 的技术!低成本的学习自动化提效,享受效率人生!
内容大纲可看下图,干货满满,内容会持续完善更新,并在群内进行讲解答疑!
图片
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。