多知5月13日消息,AI初创公司Anthropic正在改变其政策,允许未成年人在某些情况下使用其生成性AI系统。
Anthropic5月10日在官方博客上宣布,将开始允许青少年和儿童使用由其AI模型支持的第三方应用程序(不一定是Anthropic自己的应用程序),只要这些应用程序的开发人员实施特定的安全功能,并向用户披露他们正在使用的Anthropic技术。
在另一篇相关文章中,Anthropic列出了开发针对未成年人的AI应用程序的开发人员应包括的几个安全措施,如年龄验证系统、内容审核和过滤以及关于“安全和负责任”的未成年人AI使用的教育资源。该公司还表示,它可能会提供旨在为未成年人量身定制AI产品体验的“技术措施”,如开发人员针对未成年人必须实施的“儿童安全系统提示”。
使用Anthropic AI模型的开发人员还必须遵守“适用的”儿童安全和数据隐私法规,例如保护13岁以下儿童在线隐私的美国联邦法律《儿童在线隐私保护法》(COPPA)。Anthropic表示,它计划“定期”审计应用程序的合规性,暂停或终止那些反复违反合规要求的账户,并要求开发人员在公共网站或文档上“明确声明”他们符合规定。
Anthropic在文章中写道:“在某些用例中,AI工具可以为年轻用户提供显著的好处,例如考试准备或辅导支持。考虑到这一点,我们的更新政策允许组织将我们的API整合到他们针对未成年人的产品中。”
随着儿童和青少年越来越多地转向生成性AI工具寻求帮助,不仅是学校作业,还有个人问题,Anthropic的政策变化也随之而来。
Anthropic旗下有大语言模型Claude,目前已推出Claude 3系列,擅长推理、数学、编码。该公司主要采用to B商业化的模式。
值得注意的是,Anthropic竞争对手生成式AI供应商,包括谷歌和OpenAI,也在探索更多针对儿童的用例。今年,OpenAI成立了一个新团队研究儿童安全,并宣布与Common Sense Media合作制定儿童友好的AI指南。谷歌将其聊天机器人Bard(后来重新品牌为Gemini)在选定地区向说英语的青少年开放。
根据民主与技术中心的一项民意调查,29%的儿童报告曾使用过像OpenAI的ChatGPT这样的生成性AI来处理焦虑或其他心理健康问题,22%用于处理与朋友的问题,16%用于处理家庭冲突。
去年夏天,学校和大学纷纷禁止使用生成式AI应用程序,特别是ChatGPT。因为担心抄袭和虚假信息。此后,一些学校已经撤销了禁令。但并非所有人都相信生成式AI的潜力,指向像英国安全互联网中心的调查,发现超过一半的儿童(53%)报告说看到同龄人以负面方式使用生成性AI——例如创建可信的虚假信息或用于扰乱某人的图像(包括色情深度伪造)。
可以说,当前,对儿童使用生成式AI指南的需求日益增长。
联合国教育、科学及文化组织(UNESCO)去年年底敦促各国政府规范教育中生成性AI的使用,包括实施用户年龄限制和数据保护及用户隐私的护栏。UNESCO总干事奥德蕾·阿祖莱在新闻发布会上说:“生成式AI可以是人类发展的一个巨大机会,但它也可能造成伤害和偏见。如果没有公众参与和政府必要的保障和法规,它就无法融入教育。”