返回列表
OpenAI推出ChatGPT“紧急联系人”功能:AI识别自残风险将自动提醒亲友
行业新闻OpenAIChatGPTAI安全

OpenAI推出ChatGPT“紧急联系人”功能:AI识别自残风险将自动提醒亲友

OpenAI宣布为ChatGPT推出一项名为“紧急联系人”(Trusted Contact)的可选安全功能。该功能允许成年用户指定亲友或护理人员作为紧急联系人。当系统检测到用户在对话中涉及自残或自杀等心理健康及安全风险话题时,将自动通知指定的联系人,旨在通过AI技术提供及时的安全干预和支持。

The Verge

核心要点

  • 可选安全功能:OpenAI为ChatGPT引入了名为“紧急联系人”的可选安全机制。
  • 目标用户群体:该功能目前主要面向成年用户开放。
  • 风险识别与通知:当AI检测到用户讨论自残或自杀等敏感话题时,会触发通知流程。
  • 社会化干预:指定的紧急联系人(如朋友、家人或护理人员)将收到相关安全警示。

详细分析

心理健康干预的新尝试

OpenAI推出的“紧急联系人”功能标志着AI助手在处理用户心理健康问题上迈出了重要一步。通过这一功能,ChatGPT不再仅仅是一个被动的信息提供者,而是成为了一个具备安全预警能力的工具。当成年用户在对话中表现出潜在的自残或自杀倾向时,系统能够识别这些危险信号,并将其转化为对现实世界中信任对象的求助信号。

功能运作与用户自主权

根据OpenAI的设定,该功能是可选的(Optional),这意味着用户拥有是否开启该机制的自主选择权。用户可以指定特定的朋友、家人或护理人员作为“Trusted Contact”。这种设计在保护用户隐私与确保生命安全之间寻求平衡,确保在极端情况下,用户能够得到来自现实社交网络的支持,而不仅仅是AI生成的安慰话语。

行业影响

该功能的推出展示了AI行业在伦理责任和用户保护方面的持续探索。随着大语言模型(LLM)在日常生活中扮演越来越重要的角色,如何处理用户的情绪危机已成为AI公司必须面对的课题。OpenAI的这一举措可能为其他AI助手类产品树立安全标杆,推动行业从单纯的“算法屏蔽”转向更具社会责任感的“风险联动”模式。

常见问题

哪些人可以被设定为“紧急联系人”?

用户可以指定朋友、家人或专业的护理人员作为其“Trusted Contact”,以便在发生安全疑虑时接收通知。

该功能会自动开启吗?

该功能是一项可选(Optional)的安全功能,用户需要根据个人需求自主决定是否启用并设置联系人。

系统在什么情况下会发出提醒?

当OpenAI的系统检测到用户在与ChatGPT的对话中讨论了涉及自残或自杀等心理健康及安全相关的话题时,会向指定的联系人发送提醒。

相关新闻

行业新闻

网站防御新策略:Anubis利用工作量证明机制对抗AI恶意爬取

本文探讨了名为Anubis的新型网站保护工具,旨在应对AI公司激进抓取网页导致的服务中断问题。Anubis借鉴了Hashcash的工作量证明(PoW)方案,通过增加大规模抓取的计算成本来保护服务器。虽然目前该方案需要JavaScript支持并作为过渡手段,但其核心目标是应对AI时代下被改变的互联网托管“社交契约”,保护原创内容资源不被耗尽。

英伟达与IREN达成战略合作:共同推动高达5吉瓦规模的AI基础设施部署
行业新闻

英伟达与IREN达成战略合作:共同推动高达5吉瓦规模的AI基础设施部署

英伟达(NVIDIA)与IREN Limited宣布建立战略合作伙伴关系,旨在加速下一代人工智能(AI)基础设施的部署。双方计划共同推动规模高达5吉瓦(GW)的AI算力设施建设。此次合作将结合英伟达的先进技术与IREN的基础设施优势,旨在通过大规模电力容量支持,满足全球日益增长的AI算力需求,标志着AI基础设施建设进入了全新的规模化阶段。

Cloudflare 宣布裁员 1,100 人:全面转型智能体 AI 时代,重塑公司运作模式
行业新闻

Cloudflare 宣布裁员 1,100 人:全面转型智能体 AI 时代,重塑公司运作模式

Cloudflare 联合创始人 Matthew Prince 和 Michelle Zatlyn 宣布全球裁员逾 1,100 人。此次调整并非出于成本削减,而是为了应对“智能体 AI(Agentic AI)时代”的到来。公司内部 AI 使用量在过去三个月激增 600%,各部门已深度集成 AI 智能体。Cloudflare 旨在通过重新构架内部流程和角色,利用 AI 提升交付价值,实现公司运营模式的根本性变革。