Enhance Chat Responses with Real-Time Search via Bright Data MCP & Gemini AI — n8n 工作流
概览
Disclaimer This template is only available on n8n self-hosted as it's making use of the community node for MCP Client.
Who this is for?
The Chat Conversations with Bright Data MCP Search Engines & Google Gemini workflow is designed for users who need real-time, AI-enhanced conversations powered by live search engine results.
This workflow is tailored for:
Data Analysts - Who want live, search-based data fused with AI reasoning.
Marketing Researchers - Seeking up-to-the-minute market or co
使用的节点
工作流预览
工作原理
- 1
触发器
工作流由 触发器 触发器启动。
- 2
处理
数据流经 13 个节点, connecting agent, chattrigger, lmchatgooglegemini。
- 3
输出
工作流完成自动化并将结果发送到配置的目标。
节点详情 (13)
AI Agent
n8n-nodes-langchain.agent
Simple Memory
n8n-nodes-langchain.memoryBufferWindow
Google Gemini Chat Model
n8n-nodes-langchain.lmChatGoogleGemini
HTTP Request Tool
n8n-nodes-langchain.toolHttpRequest
如何导入此工作流
- 1点击右侧 下载 JSON 按钮保存工作流文件。
- 2打开你的 n8n 实例,依次点击 工作流 → 新建 → 从文件导入。
- 3选择下载的
enhance-chat-responses-with-real-time-search-via-bright-data-mcp-gemini-ai文件并点击导入。 - 4为每个服务节点配置 凭证(API 密钥、OAuth 等)。
- 5点击 测试工作流 验证一切正常,然后激活它。
或直接在 n8n → 从 JSON 导入 中粘贴:
集成
创建者
Ranjan Dailata
@ranjancse