Enhance Chat Responses with Real-Time Search via Bright Data MCP & Gemini AI — n8n ワークフロー
概要
Disclaimer This template is only available on n8n self-hosted as it's making use of the community node for MCP Client.
Who this is for?
The Chat Conversations with Bright Data MCP Search Engines & Google Gemini workflow is designed for users who need real-time, AI-enhanced conversations powered by live search engine results.
This workflow is tailored for:
Data Analysts - Who want live, search-based data fused with AI reasoning.
Marketing Researchers - Seeking up-to-the-minute market or co
使用ノード
ワークフロープレビュー
仕組み
- 1
トリガー
このワークフローは トリガー トリガーで開始します。
- 2
処理
データは 13 個のノードを流れます, connecting agent, chattrigger, lmchatgooglegemini。
- 3
出力
ワークフローは自動化を完了し、設定された宛先に結果を配信します。
ノード詳細 (13)
AI Agent
n8n-nodes-langchain.agent
Simple Memory
n8n-nodes-langchain.memoryBufferWindow
Google Gemini Chat Model
n8n-nodes-langchain.lmChatGoogleGemini
HTTP Request Tool
n8n-nodes-langchain.toolHttpRequest
このワークフローのインポート方法
- 1右側の JSONをダウンロード ボタンをクリックしてワークフローファイルを保存します。
- 2n8nインスタンスを開き、ワークフロー → 新規 → ファイルからインポート に進みます。
- 3ダウンロードした
enhance-chat-responses-with-real-time-search-via-bright-data-mcp-gemini-aiファイルを選択し、インポートをクリックします。 - 4各サービスノードの 認証情報(APIキー、OAuthなど)を設定します。
- 5ワークフローをテスト をクリックして動作確認し、有効化します。
またはn8nの JSONからインポート に直接貼り付け:
インテグレーション
作成者
Ranjan Dailata
@ranjancse