n8n+fastgpt RAG = 王炸?。?!用最強AI知識庫MCP Server補全 n8n短板
在AI應用領域,如何高效整合知識庫以提升內容生成的質量,一直是技術愛好者和從業(yè)者的關注焦點。本文將介紹一種創(chuàng)新的解決方案:通過將 FastGPT 的知識庫與 n8n 工作流結合,利用 MCP Server 實現(xiàn)強大的知識庫調用能力,從而補全 n8n 在知識管理方面的短板。
暑假要來了,我的教培業(yè)務也要開始進入旺季。小紅書、公眾號上都要開始做暑假相關的內容
但內容生產又成了老大難問題。
怎么才能寫出不空洞、有垂直業(yè)務經驗的文章吸引目標客戶呢?
答案是借助RAG:用行業(yè)經驗文章形成知識庫,每次寫文章前都先到知識庫搜一下相關內容,再基于這些內容來生產,能最大程度上解決AI幻覺、內容空間等問題。
昨天文章也提到,我所有業(yè)務工作流都放到了n8n里,但n8n并沒有很好的知識庫能力。
之前文章有講到,目前最適合個人或者中小團隊用的知識庫是Fastgpt,而它最近升級的MCP Server能供外部工作流調用。
解決方案不就來了嗎:把FastGPT上的知識庫打包成MCP Server,供n8n在生產內容的時候調用。
目前效果是這樣的:n8n里的AI Agent會通過MCP調用FastGPT里的知識庫工作流。
一、Fastgpt MCP Server
FastGPT可以通過docker-compose的方式安裝,但如果已經安裝了,就需要升級到最新版,目前是4.9.11
https://github.com/labring/FastGPT/pkgs/container/fastgpt
升級FastGPT
以寶塔面板為例,打開docker-容器編排
如圖的位置就是docker-compose的內容,把它復制出來備份好。
進這里獲得最新的docker-compose文件:
https://github.com/labring/FastGPT/blob/main/deploy/docker/docker-compose-pgvector.yml
如果還沒安裝的同學,直接用這個來安裝即可。
這里可以用cursor來對比兩個文件的差異,確保我們自定義的部分也同步到新的文件里。
例如我設置了默認root密碼,這個在新的yml文件里也要設置。
接著把改好的docker-compose文件復制黏貼進去如圖位置。
再點「跳轉目錄」,接下來要設置config.json
在這里下載:
https://raw.githubusercontent.com/labring/FastGPT/refs/heads/main/projects/app/data/config.json
修改圖中mpcServerProxyEndpoint,改成你的ip,這是后面n8n工作流需要調用的地址
注意,這里暴露的是3005接口,要在寶塔面板添加相關的端口開放權限,確保外部能正常訪問才行。
然后把修改好的config.json放到跟前面FastGPT的docker-compose文件同一個目錄里。
也就是前面的「跳轉目錄」后打開的路徑。
最后,回到docker面板點停止-更新鏡像,即可。
此時打開Fastgpt,就能看到是最新版本了。
搭建知識庫工作流
注意這里不能直接用知識庫應用,否則會是經過AI處理后的結果。
我們要的是原汁原味知識庫里匹配到的精準相關內容,就要通過工作流的形式把知識庫引用返回。
如圖:
設置好后一定要點保存并發(fā)布,如果不發(fā)布的話親測是返回不了結果的。
創(chuàng)建MCP服務
接下來,在工作臺,點開MCP服務-新建服務
這里有一個要點:名字要是英文的,因為n8n是純國外平臺,加上AI大模型,本身對中文就不是很敏感,很容易調用失敗。
新建好后,點開始使用,切換到SSE
這里的接入地址就是我們要用的。
二、n8n工作流調用
此時回到n8n工作流
這是我的小紅書模板工作流:先生成多個方向的選題標題,然后根據(jù)標題生成內容,后面再根據(jù)內容生成多張圖片,最終全部保存到飛書多維表格,再調用矩陣工具讀取飛書表格進行批量發(fā)布。
今天我們要解決的是生成正文這里,通過接入知識庫作為參考讓AI生成內容效果更佳。
在AI Agent的Tool,搜索MCP,找到MCP Client Tool
同時要注意n8n的版本確保在1.94.1或以上才有MCP能力
接著,在SSE Endpoint輸入前面在FastGPT準備好的調用網(wǎng)址。
點Execute step測試一下
隨便輸入一個內容標題
看到能正確返回內容了。
這里每個業(yè)務對于返回內容是否精準的判斷都不同,所以我這里就隱去了。
具體返回效果如果,可以直接到FastGPT里處理好即可。
接著,回到AI Agent節(jié)點,測試大模型回答
注意這里的要點有兩個:
1是大模型要有調工具的能力,這里我用的是魔塔社區(qū)里的API,Deepseek R1 0528雖然強但無工具調用能力,遺憾不能用。我用的是Qwen3-235B-A22B
2是提示詞中要明確讓AI去掉用MCP工具來獲取參考內容
除非把MCP名字和簡介寫的很好,跟當前內容匹配,否則大部分模型不會主動去調用的。
最后我們能正??吹酱竽P陀姓{用mcp即可。
至此我們就把FastGPT通過MCP Server的形式整合到了n8n工作流里面。
原本就好用的n8n,補全了它知識庫短板,又全面了。。
以上就是今天分享的全部內容。
本文由人人都是產品經理作者【餅干哥哥】,微信公眾號:【餅干哥哥AGI】,原創(chuàng)/授權 發(fā)布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!