n8n+fastgpt RAG = 王炸?。?!用最強AI知識庫MCP Server補全 n8n短板

0 評論 3737 瀏覽 14 收藏 10 分鐘

在AI應用領域,如何高效整合知識庫以提升內容生成的質量,一直是技術愛好者和從業(yè)者的關注焦點。本文將介紹一種創(chuàng)新的解決方案:通過將 FastGPT 的知識庫與 n8n 工作流結合,利用 MCP Server 實現(xiàn)強大的知識庫調用能力,從而補全 n8n 在知識管理方面的短板。

暑假要來了,我的教培業(yè)務也要開始進入旺季。小紅書、公眾號上都要開始做暑假相關的內容

但內容生產又成了老大難問題。

怎么才能寫出不空洞、有垂直業(yè)務經驗的文章吸引目標客戶呢?

答案是借助RAG:用行業(yè)經驗文章形成知識庫,每次寫文章前都先到知識庫搜一下相關內容,再基于這些內容來生產,能最大程度上解決AI幻覺、內容空間等問題。

昨天文章也提到,我所有業(yè)務工作流都放到了n8n里,但n8n并沒有很好的知識庫能力。

之前文章有講到,目前最適合個人或者中小團隊用的知識庫是Fastgpt,而它最近升級的MCP Server能供外部工作流調用。

解決方案不就來了嗎:把FastGPT上的知識庫打包成MCP Server,供n8n在生產內容的時候調用。

目前效果是這樣的:n8n里的AI Agent會通過MCP調用FastGPT里的知識庫工作流。

一、Fastgpt MCP Server

FastGPT可以通過docker-compose的方式安裝,但如果已經安裝了,就需要升級到最新版,目前是4.9.11

https://github.com/labring/FastGPT/pkgs/container/fastgpt

升級FastGPT

以寶塔面板為例,打開docker-容器編排

如圖的位置就是docker-compose的內容,把它復制出來備份好。

進這里獲得最新的docker-compose文件:

https://github.com/labring/FastGPT/blob/main/deploy/docker/docker-compose-pgvector.yml

如果還沒安裝的同學,直接用這個來安裝即可。

這里可以用cursor來對比兩個文件的差異,確保我們自定義的部分也同步到新的文件里。

例如我設置了默認root密碼,這個在新的yml文件里也要設置。

接著把改好的docker-compose文件復制黏貼進去如圖位置。

再點「跳轉目錄」,接下來要設置config.json

在這里下載:

https://raw.githubusercontent.com/labring/FastGPT/refs/heads/main/projects/app/data/config.json

修改圖中mpcServerProxyEndpoint,改成你的ip,這是后面n8n工作流需要調用的地址

注意,這里暴露的是3005接口,要在寶塔面板添加相關的端口開放權限,確保外部能正常訪問才行。

然后把修改好的config.json放到跟前面FastGPT的docker-compose文件同一個目錄里。

也就是前面的「跳轉目錄」后打開的路徑。

最后,回到docker面板點停止-更新鏡像,即可。

此時打開Fastgpt,就能看到是最新版本了。

搭建知識庫工作流

注意這里不能直接用知識庫應用,否則會是經過AI處理后的結果。

我們要的是原汁原味知識庫里匹配到的精準相關內容,就要通過工作流的形式把知識庫引用返回。

如圖:

設置好后一定要點保存并發(fā)布,如果不發(fā)布的話親測是返回不了結果的。

創(chuàng)建MCP服務

接下來,在工作臺,點開MCP服務-新建服務

這里有一個要點:名字要是英文的,因為n8n是純國外平臺,加上AI大模型,本身對中文就不是很敏感,很容易調用失敗。

新建好后,點開始使用,切換到SSE

這里的接入地址就是我們要用的。

二、n8n工作流調用

此時回到n8n工作流

這是我的小紅書模板工作流:先生成多個方向的選題標題,然后根據(jù)標題生成內容,后面再根據(jù)內容生成多張圖片,最終全部保存到飛書多維表格,再調用矩陣工具讀取飛書表格進行批量發(fā)布。

今天我們要解決的是生成正文這里,通過接入知識庫作為參考讓AI生成內容效果更佳。

在AI Agent的Tool,搜索MCP,找到MCP Client Tool

同時要注意n8n的版本確保在1.94.1或以上才有MCP能力

接著,在SSE Endpoint輸入前面在FastGPT準備好的調用網(wǎng)址。

點Execute step測試一下

隨便輸入一個內容標題

看到能正確返回內容了。

這里每個業(yè)務對于返回內容是否精準的判斷都不同,所以我這里就隱去了。

具體返回效果如果,可以直接到FastGPT里處理好即可。

接著,回到AI Agent節(jié)點,測試大模型回答

注意這里的要點有兩個:

1是大模型要有調工具的能力,這里我用的是魔塔社區(qū)里的API,Deepseek R1 0528雖然強但無工具調用能力,遺憾不能用。我用的是Qwen3-235B-A22B

2是提示詞中要明確讓AI去掉用MCP工具來獲取參考內容

除非把MCP名字和簡介寫的很好,跟當前內容匹配,否則大部分模型不會主動去調用的。

最后我們能正??吹酱竽P陀姓{用mcp即可。

至此我們就把FastGPT通過MCP Server的形式整合到了n8n工作流里面。

原本就好用的n8n,補全了它知識庫短板,又全面了。。

以上就是今天分享的全部內容。

本文由人人都是產品經理作者【餅干哥哥】,微信公眾號:【餅干哥哥AGI】,原創(chuàng)/授權 發(fā)布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!