首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI技术已经应用在多个领域上,数字人的定制化是不是意味着心理医生要失业了?

AI在现如今阶段是没办法做最后决定的,比如确诊一个疾病,即使这个疾病是小的不能再小的病,它的判断也没办法做为有实际效力的证据。

因为现在的人类社会的各种流程,最后一步肯定是会归结到某一个具体的人上面的 。

这就是所谓的责任:

责任是一种职责和任务。身处社会的个体成员必须遵守的规则和条文,带有强制性。责任产生于社会关系中的相互承诺。在社会的舞台上,每种角色往往意味着一种责任。当我们在承担一项责任的时候,要付出一定的代价,但也意味着获得回报的权利。

做为人,承担责任的时候必须要付出一定的代价。

要是换成AI,它帮你做最后的决定,然后这个决定附带的代价它是不用管的,其实这就有一个很有意思的点。

你让AI做决定,责任是你承担的,结果是你承担的,代价也是你承担的。

这跟我们现行的运行规律是相差很大的。

再说点极端的情况,在ChatGPT发布没多久的时候,很多人用它来扮演心理咨询师,大多数情况是没问题的,甚至回答的都很不错。

但是有人收到了ChatGPT的回复是引导他去自杀。

那这种情况就是被严厉禁止的。

但是你很难说是通过技术手段完全杜绝这种情况的。

所以说,现如今,不管是人类的接受能力,和技术上的监管手段,都不足以让人类代表被淘汰。

以后呢,真说不定。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OM31i7pJIzdOTLq11D9HnLeQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券