首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当ChatGPT走进生物医药,人类是否面临威胁?

2022年12月,OpenAI发布基于生成式人工智能的聊天机器人ChatGPT,让公众关注到这一长期应用于生物医药、AI换脸、自动作图等领域的技术。今年3月OpenAI发布GPT-4模型更新,再掀行业热潮,促使竞争对手加速推出类似产品,并促使企业将其或类似技术集成到自己的应用程序和产品中。

随之而来,关于人工智能潜力与威胁的讨论再度跃然纸上。就在前不久非营利组织未来生命研究所(Future of Life Institute)发布公开信,呼吁暂停高级人工智能的开发,直到为此类设计制定、实施并由独立专家审核的共享安全协议。包括特斯拉CEO埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、图灵奖获得者约书亚·本吉奥等上千人已签署联名信。

在关乎生命健康的生物医药领域,和ChatGPT类似的AI技术到底意味着危险还是机会?人工智能底层的巨量数据是否会带来泄露风险?近日,英矽智能创始人兼首席执行官Alex Zhavoronkov博士在接受CGTN Global Business直播连线采访时,就数据保护和AI安全性等问题分享了自己的观点。

Q:CGTN;A:Alex Zhavoronkov

Q:从隐私安全角度考虑,生成式人工智能是利大于弊的吗?

A:我觉得是的。

首先,我们从未也不会接触任何受隐私或专利权保护的数据,这个原则始终贯穿在英矽智能的平台开发的基础研究和药物发现的过程中。其次,人类社会运转必然会带来隐私风险问题,比如外出消费就可能泄露银行卡信息,跨国旅行就可能泄露护照信息,道理是一样的。当然,我们更希望看到通过促进跨国数据合作,发挥人工智能技术潜能,带来更多健康获益。

Q:您对于近期关于“叫停(GPT-4等大型语言模型)试验”联名信的看法是什么?

A:自2015年来,我就持续关注生成式人工智能技术。2016年,我们发布了第一篇将生成对抗网络(GAN)用于药物发现的同行评议论文,展现了利用AI根据想要的特性生成药物分子的可能性。

我认为生成式人工智能不是什么神奇的技术,到头来只是数学、编程和数据,所谓“AI威胁人类”、“产生自我意识”还极其遥远。底层的算法是循环神经网络(RNN)也好,Transformer也好,现在使用的大型语言模型和多模态模型都没有造成威胁的能力。

至于呼吁停止试验的埃隆马斯克,我想他可能是作为OpenAI的早期资助人,对它用本该完全开源的技术牟利的行为感到失望。确实,这样会让耗费几千万甚至上亿美金的GPT-4等大型模型成为大公司的专属,在监管不够的情况下也确实会有使用不当的风险。

Q:除隐私问题之外,您觉得AI在健康领域的应用还有什么风险?

A:人工智能生成的内容可能看起来很可信,但实际上有重大的事实性错误,我认为这是比较重大的一个风险。经过大量数据训练之后,人智能可以很自然地回答问题,却不能保证答案的准确性。

举个极端的例子,如果有人上ChatGPT咨询健康问题,然后根据AI的建议去用药,会不会产生健康风险呢?在个人使用方面,我觉得应该通过数据清洗来保证训练数据的准确性,同时加入专业意见干预。

至于在商业方面,AI在健康领域的应用几乎没有面临风险,因为所有算法都需要不断的验证之后才会被保留。

注:本文来自“英矽智能”。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230406A0914300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券