首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Anthropic开始允许青少年和儿童在限制范围内使用其人工智能技术

多知5月13日消息,AI初创公司Anthropic正在改变其政策,允许未成年人在某些情况下使用其生成性AI系统。

Anthropic5月10日在官方博客上宣布,将开始允许青少年和儿童使用由其AI模型支持的第三方应用程序(不一定是Anthropic自己的应用程序),只要这些应用程序的开发人员实施特定的安全功能,并向用户披露他们正在使用的Anthropic技术。

在另一篇相关文章中,Anthropic列出了开发针对未成年人的AI应用程序的开发人员应包括的几个安全措施,如年龄验证系统、内容审核和过滤以及关于“安全和负责任”的未成年人AI使用的教育资源。该公司还表示,它可能会提供旨在为未成年人量身定制AI产品体验的“技术措施”,如开发人员针对未成年人必须实施的“儿童安全系统提示”。

使用Anthropic AI模型的开发人员还必须遵守“适用的”儿童安全和数据隐私法规,例如保护13岁以下儿童在线隐私的美国联邦法律《儿童在线隐私保护法》(COPPA)。Anthropic表示,它计划“定期”审计应用程序的合规性,暂停或终止那些反复违反合规要求的账户,并要求开发人员在公共网站或文档上“明确声明”他们符合规定。

Anthropic在文章中写道:“在某些用例中,AI工具可以为年轻用户提供显著的好处,例如考试准备或辅导支持。考虑到这一点,我们的更新政策允许组织将我们的API整合到他们针对未成年人的产品中。”

随着儿童和青少年越来越多地转向生成性AI工具寻求帮助,不仅是学校作业,还有个人问题,Anthropic的政策变化也随之而来。

Anthropic旗下有大语言模型Claude,目前已推出Claude 3系列,擅长推理、数学、编码。该公司主要采用to B商业化的模式。

值得注意的是,Anthropic竞争对手生成式AI供应商,包括谷歌和OpenAI,也在探索更多针对儿童的用例。今年,OpenAI成立了一个新团队研究儿童安全,并宣布与Common Sense Media合作制定儿童友好的AI指南。谷歌将其聊天机器人Bard(后来重新品牌为Gemini)在选定地区向说英语的青少年开放。

根据民主与技术中心的一项民意调查,29%的儿童报告曾使用过像OpenAI的ChatGPT这样的生成性AI来处理焦虑或其他心理健康问题,22%用于处理与朋友的问题,16%用于处理家庭冲突。

去年夏天,学校和大学纷纷禁止使用生成式AI应用程序,特别是ChatGPT。因为担心抄袭和虚假信息。此后,一些学校已经撤销了禁令。但并非所有人都相信生成式AI的潜力,指向像英国安全互联网中心的调查,发现超过一半的儿童(53%)报告说看到同龄人以负面方式使用生成性AI——例如创建可信的虚假信息或用于扰乱某人的图像(包括色情深度伪造)。

可以说,当前,对儿童使用生成式AI指南的需求日益增长。

联合国教育、科学及文化组织(UNESCO)去年年底敦促各国政府规范教育中生成性AI的使用,包括实施用户年龄限制和数据保护及用户隐私的护栏。UNESCO总干事奥德蕾·阿祖莱在新闻发布会上说:“生成式AI可以是人类发展的一个巨大机会,但它也可能造成伤害和偏见。如果没有公众参与和政府必要的保障和法规,它就无法融入教育。”

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OgGoIaPhxf5dWd8Gdmi7ggAw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券