🚀接上篇我们深度解析了《FastGPT与DeepSeek-R1的本地模型对接之路》,今天我们分享私有化向量模型BGE-M3+ FastGPT无缝接入技巧!还是熟悉的配方,但这次我们将直捣技术核心!**
直捣黄龙BGE-M3模型注入
🔥浏览器输入:http://ip:3000
🔥左侧边栏最底部点击[账号]→[模型提供商],点击右上角[模型配置]选项卡。
核弹级参数配置
🔥点击[新增模型]→选择[索引模型],核心参数三连击。
⚠️在Docker多容器架构中,localhost指向的是当前容器的回环地址,而非宿主机!✅[自定义请求地址]正确姿势!
http://172.17.0.1:11434/v1/embeddings
🔥当FastGPT容器调用Ollama服务时,若配置为localhost:11434,FastGPT容器实际上在请求自身,必然引发Connection error💡
深入原理(参考上篇《从崩溃到成功:深度解析FastGPT与DeepSeek-R1的本地模型对接之路》)。**
终极链路验证
🔥开启Ollama上帝视角(新开终端执行命令,右键清屏)
docker logs -f ollama --tail 50
🔥双保险验证法,点击[模型测试]→ 出现绿色✅弹窗→ 日志捕获 POST "/v1/embeddings"|200✅
关注【IT技术工坊】下篇剧透 FastGPT+Ollama+deepseek R1:全民AI助手落地实战教程。
點擊查看更多內容
為 TA 點贊
評論
評論
共同學習,寫下你的評論
評論加載中...
作者其他優質文章
正在加載中
感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦