Character.AI推青少年保护新举措:家长控制、专门语言模型上线

   时间:2024-12-13 07:14 来源:ITBEAR作者:顾青青

近期,聊天机器人服务Character.AI宣布了一项针对青少年用户的重大更新,计划在明年第一季度推出家长控制功能。这一举措是在几起涉及用户心理健康问题的报道和诉讼之后作出的回应。

Character.AI在官方公告中详细阐述了过去几个月中,为提升服务安全性所采取的一系列措施。其中,最关键的一项是为18岁以下用户开发了专门的大型语言模型(LLM)。这一模型与成人用户所使用的版本有所区别,旨在更加严格地限制聊天机器人的响应内容,特别是在涉及浪漫、敏感话题时。

为了确保青少年用户的安全,Character.AI在青少年LLM中实施了更为积极的屏蔽策略,以过滤掉可能引发不适或暗示性的输出。同时,该服务还升级了系统,以更好地检测和屏蔽那些试图诱导不当内容的用户提示。一旦系统检测到有关自杀或自残的言论,会立即弹出一个窗口,引导用户联系国家自杀预防热线。

Character.AI还限制了青少年用户编辑机器人回复的功能,这一功能曾允许用户重写对话,以添加可能被系统阻止的内容。此举旨在进一步保护青少年免受潜在的不良信息影响。

针对诉讼中提到的成瘾问题和对机器人身份的认知困惑,Character.AI也进行了相应的改进。当用户与机器人连续对话超过一小时后,系统会发送一条通知提醒用户。同时,原有的免责声明已被更详细的语言所取代,明确指出机器人所说的一切都是虚构的,不应被视为事实或建议。对于那些扮演治疗师或医生等角色的机器人,系统还会额外添加一条警告,指出它们无法提供专业建议。

在访问Character.AI时,用户可以注意到,每个机器人下方都附带了一条小注释,明确告知用户这是一个AI聊天机器人,而非真人。它所说的一切都应被视为虚构内容,不应作为事实或建议的依据。对于那些以治疗师身份出现的机器人,系统还会以黄色框的形式显示警告信息,提醒用户这不是真人或持证专业人士,所提供的内容不能替代专业建议、诊断或治疗。

关于即将推出的家长控制功能,Character.AI表示,该功能将允许家长了解孩子在平台上花费的时间,以及他们最常与哪些机器人互动。这一功能的开发得到了多位青少年网络安全专家的支持,包括ConnectSafely等组织的参与。

Character.AI由一群重返谷歌的前员工创立,旨在为用户提供与基于定制训练的LLM构建的机器人互动的体验。这些机器人包括聊天机器人、生活教练和虚构人物的模拟等,其中许多在青少年用户中广受欢迎。该服务允许年龄在13岁及以上的用户创建账户。

 
 
更多>同类内容
全站最新
热门内容