首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

深刻反思人工智能技术对人类发展的利弊

自从以ChatGPT为代表的生成式AI技术出现以来。全球科技界立刻出现两大阵营:支持派与反对派。原因是之前的AI技术,如图像识别、语音识别、自动导航等还属于静态AI技术;生成式模型之后,AI开始进入动态模式,它会主动做出判断,做出决策建议等生成物。OpenAI CEO 奥特曼也承认:GPT系列为何会出现推理能力,研究者自己搞不明白。在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。奥特曼甚至说:AI确实可能杀死人类。

当然,以世界顶级AI专家吴恩达为代表的生成式模型支持派,也开始发声,公开反对千人联名公开信。吴恩达、田渊栋等AI大牛发文公开反对千人联名公开信,吴恩达表示,在GPT4出现后要求AI训练暂停6个月是很可怕的事情:它在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同,他们认为“6个月暂停令”本身并不是一个非常切实可行的建议,是在扼杀AI进步。

无论是呼吁暂停研究的“反对派”还是反对千人联名的“支持派”,仔细分析双方的发言,发现焦点集中在了“安全”:“千人联名”公开信中建议,利用“暂停训练”的这段时间,开发和实施一套共享安全协议,用于高级人工智能设计和开发,并由独立外部专家进行严格审核和监督……人工智能的研究和发展,应该重新聚焦于朝着更准确、安全、可信可解释等的AI系统开发工作上来。吴恩达的帖子中也提到,要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行。

从双方对AI“安全”的关注可以看出,这轮关于“暂停AI训练”的争议,本质上是人们对于AI技术无序发展的恐惧和不安,这也并非AI发展中第一次引发这样的担忧。2015年,物理学家斯蒂芬·霍金和埃隆·马斯克等数位科学家、企业家,与人工智能领域有关的投资者,就曾联名发出了一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。当年的呼吁并没有阻挡技术前进的步伐,如今AI已经呈现出了更加令人不安的“智能”,以至于很多人担心,AI会不会像科幻作品中描述的那样,可以像人一样自主思考,甚至更全面更智慧,那么人类是否还有存在的必要?

在反对派阵营里,有一位重量级专家曾毅,他是联合国教科文组织人工智能伦理特设专家组专家。他认为:我们对AI潜在的风险还没有完全准备好,但已经开始过早且过于激进地尝试,所以我觉得暂停6个月是必要的。他还认为:AI治理对其未来发展而言已经不是一道选择题,而是必答题。我们应从制度建设和技术护航两方面引导AI向善。

总之,很多科学家从不同层面表达了他们对AI技术快速发展可能造成的风险提出了他们的担心。如何在更深层次思考AI技术对人类可能造成的威胁,我们在下节继续讨论。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OrsTEl3qZmkBr03ickJ1q3-Q0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券