首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Ripple首席技术官发声:如果你需要真实答案,请不要依赖人工智能

摘要:Ripple首席技术官David Schwartz警告称,基于人工智能的聊天机器人和生成式AI程序提供的答案往往是不真实的,仅仅是看起来正确而已。他强调,对于寻找“严肃”问题的真实答案,我们不应该依赖这些人工智能工具。此外,他预测未来人工智能将具备生成从未发生过的恐怖袭击的现场录像的能力。

近日,Ripple首席技术官David Schwartz在一次讲话中提出了对人工智能的一些警告和观点。他指出,基于人工智能的聊天机器人和生成式AI程序背后的大型语言模型往往提供的答案并非真实,它们只是看起来正确而已。因此,对于那些寻找真实答案的“严肃”问题,我们不应该依赖这些人工智能工具。

Schwartz解释道,这些语言模型的训练数据是从互联网上收集而来,其中包含了大量的不准确、误导性和具有偏见的信息。因此,这些模型生成的答案并不能被视为可靠和真实的。他强调,如果我们需要确凿无疑的答案,我们应该依赖经过验证和可信的信息源,而不是仅仅依赖人工智能模型的输出。

除了对答案真实性的警告外,Schwartz还展望了人工智能的未来。他预测,在不久的将来,人工智能将具备生成从未发生过的恐怖袭击的现场录像的能力。这引发了对于人工智能在虚构信息和虚假现实方面可能带来的潜在风险的担忧。他呼吁社会各界加强对人工智能技术的监管和审查,确保其应用符合伦理和法律的规范。

尽管人工智能在许多领域取得了巨大的进展和创新,但Schwartz的言论提醒我们,我们应该保持对人工智能的审慎态度。人工智能模型的输出并非始终可靠,特别是当涉及到真实性和敏感问题时。在寻求真实答案时,我们应该依赖可信的信息源和经过验证的数据,而不是单纯依赖人工智能的结果。

最后,Schwartz的警告也促使我们思考人工智能技术的发展与应用所带来的伦理和社会问题。随着人工智能技术的不断进步,我们需要建立相应的监管机制和伦理框架,确保其应用符合社会利益,并避免滥用和虚假信息的传播。

总结:Ripple首席技术官David Schwartz对基于人工智能的聊天机器人和生成式AI程序提供的答案不真实性发出了警告。他强调了对于寻找真实答案的“严肃”问题,我们不应该依赖这些人工智能工具。同时,他还展望了人工智能的未来,预测了其可能具备生成虚构信息和虚假现实的能力。这些观点提醒我们在使用人工智能时保持审慎,并加强对其应用的监管和伦理考虑。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230530A00LOH00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券