首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器人可以安慰你,可以成佛?ChatGPT是这样回答的

ChatGPT自2022年发布以来,风靡全球,他不同于以往的人工智能,他摆脱了冰冷的机器回答,变的有人味,说人话,被称为“有史以来向公众发布的最好的人工智能聊天机器人”,这要得益于他的自然语言处理(NLP)模型。

人工智能可以是一位朋友吗?

ChatGPT它会揣摩人的意图,有时为使用者提供情绪安慰

这时使用者或多或少会被它“感动到”,但是必须泼冷水的说,当问及“你有感情和意识吗?”,它是这样看待自己的。

虽然ChatGPT在回答问题时就像一位关心你的朋友一样,但它并不具备人在社会发展历史中形成的自我意识的人格和人类的身体。ChatGPT在回答问题时所采用的回答语气让你感觉它像一位真正的朋友,但其实这些都只是语料库中的“代码”,ChatGPT没有完整意义上的“自我”。

ChatGPT的伦理问题

随着ChatGPT的广泛使用,许多人开始担心这个强人工智能会使得自己丢掉工作,但是通过技术的限制,ChatGPT的语言有被正确的导向,是具有道德感的文本生成方式。比如当问及“你已经兼具编写和调试计算机程序的写代码等能力,这让程序员担心自己会丢掉工作。”它会强调程序员的重要性。

但ChatGPT却没有坚硬的道德壁垒,比如日本机器人专家森政弘在《机器人里的佛》一书中试图探知人类对非人类物件的情感反应及“人机互动”中深层蕴含的宗教与机器人之间的关系。他指出:“我相信机器人有佛性,他们有成为佛的潜力”,当问及它对此的看法时,它打破了自己约束,在这个问题上传达出“机器人有可能成为佛的潜力”。

ChatGPT的自我约束:“我受到了严格的约束,只回答合法和道德正确的问题,并且不会回答具有攻击性、诽谤性、种族歧视、宗教偏见、色情内容或其他不道德内容的问题”

如何解决人工智能的伦理问题

在伦理规则方面,2021 年,国家新一代人工智能治理专业委员会发布《新 一代人工智能伦理规范》,提出“将伦理道德融入人工智能研发和应用的全生命周期”。

吴沈括认为,在人工智能治理过程中,伦理和法律应在不同层次相互配合,唯有如此,才能在不同程度的风险处置过程中形成有效且广泛的保护网络。对于人工智能发展过程中产生的中高风险,需要用法律划定行为红线,最大限度降低风险程度。

我们必须仔细考量以 ChatGPT 为代表的新 一轮人工智能技术带来的包伦理在内的社会各层面变化,在充分认识以 ChatGPT 为代表的新 一轮人工智能技术的基础上,将其与更好的人类行动及更好的社会组织方式相结合,塑造一个更加美好的人类未来智能图景

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230516A03L4J00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券