Enhance Chat Responses with Real-Time Search via Bright Data MCP & Gemini AI — n8n 워크플로
개요
Disclaimer This template is only available on n8n self-hosted as it's making use of the community node for MCP Client.
Who this is for?
The Chat Conversations with Bright Data MCP Search Engines & Google Gemini workflow is designed for users who need real-time, AI-enhanced conversations powered by live search engine results.
This workflow is tailored for:
Data Analysts - Who want live, search-based data fused with AI reasoning.
Marketing Researchers - Seeking up-to-the-minute market or co
사용된 노드
워크플로 미리보기
작동 원리
- 1
트리거
워크플로는 트리거 트리거로 시작합니다.
- 2
처리
데이터가 13개의 노드를 통해 흐릅니다, connecting agent, chattrigger, lmchatgooglegemini.
- 3
출력
워크플로가 자동화를 완료하고 구성된 대상에 결과를 전달합니다.
노드 세부 정보 (13)
AI Agent
n8n-nodes-langchain.agent
Simple Memory
n8n-nodes-langchain.memoryBufferWindow
Google Gemini Chat Model
n8n-nodes-langchain.lmChatGoogleGemini
HTTP Request Tool
n8n-nodes-langchain.toolHttpRequest
이 워크플로 가져오는 방법
- 1오른쪽의 JSON 다운로드 버튼을 클릭하여 워크플로 파일을 저장합니다.
- 2n8n 인스턴스를 열고 워크플로 → 새로 만들기 → 파일에서 가져오기로 이동합니다.
- 3다운로드된
enhance-chat-responses-with-real-time-search-via-bright-data-mcp-gemini-ai파일을 선택하고 가져오기를 클릭합니다. - 4각 서비스 노드에 대한 자격 증명(API 키, OAuth 등)을 설정합니다.
- 5워크플로 테스트를 클릭하여 모든 것이 작동하는지 확인한 후 활성화합니다.
또는 n8n → JSON에서 가져오기에 직접 붙여넣기:
통합
제작자
Ranjan Dailata
@ranjancse