Detect toxic language in Telegram messages — n8n 워크플로
개요
This workflow detects toxic language (such as profanity, insults, threats) in messages sent via Telegram. This blog tutorial explains how to configure the workflow nodes step-by-step.
Telegram Trigger: triggers the workflow when a new message is sent in a Telegram chat.
Google Perspective: analyzes the text of the message and returns a probability value between 0 and 1 of how likely it is that the content is toxic.
IF: filters messages with a toxic probability value above 0.7.
Telegram: se
사용된 노드
TelegramGoogle Perspective
워크플로 미리보기
⚡
T
Telegram Trigger
Google Perspective
I
IF
Telegram
N
NoOp
5 nodes4 edges
작동 원리
- 1
트리거
워크플로는 트리거 트리거로 시작합니다.
- 2
처리
데이터가 5개의 노드를 통해 흐릅니다, connecting googleperspective, if, telegram.
- 3
출력
워크플로가 자동화를 완료하고 구성된 대상에 결과를 전달합니다.
노드 세부 정보 (5)
TE#1
Telegram
telegram
GO#2
Google Perspective
googlePerspective
이 워크플로 가져오는 방법
- 1오른쪽의 JSON 다운로드 버튼을 클릭하여 워크플로 파일을 저장합니다.
- 2n8n 인스턴스를 열고 워크플로 → 새로 만들기 → 파일에서 가져오기로 이동합니다.
- 3다운로드된
detect-toxic-language-in-telegram-messages파일을 선택하고 가져오기를 클릭합니다. - 4각 서비스 노드에 대한 자격 증명(API 키, OAuth 등)을 설정합니다.
- 5워크플로 테스트를 클릭하여 모든 것이 작동하는지 확인한 후 활성화합니다.
또는 n8n → JSON에서 가져오기에 직접 붙여넣기:
{ "name": "Detect toxic language in Telegram messages", "nodes": [...], ...}
통합
googleperspectiveiftelegramtelegramtrigger
제작자
Lorena
@lorenanda
태그
googleperspectiveiftelegramtelegramtrigger