首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Nvidia 计划使用人工智能和机器学习来使未来的显卡比以往都更好

在 GTC 2022 会议期间,Nvidia 谈到了使用人工智能和机器学习来使未来的显卡比以往任何时候都更好。

由于该公司选择优先考虑 AI 和机器学习 (ML),其中一些进步已经在即将推出的下一代 Ada Lovelace GPU 中找到了途径。

Nvidia 的首席科学家兼研究高级副总裁 Bill Dally 分享了 Nvidia 在下一代显卡中的 AI 和 ML 的宏伟计划。他谈到了 Nvidia 的研发团队,他们如何利用人工智能和机器学习 (ML),以及这对下一代 GPU 意味着什么。

简而言之,使用这些技术对Nvidia显卡来说只能是好事。 Dally 讨论了 GPU 设计的四个主要部分,以及使用 AI 和 ML 可以显着提高 GPU 性能的方式。

图片源于网络

目标是提高速度和效率,Dally 的示例谈到了如何使用 AI 和 ML 将标准 GPU 设计任务从三小时缩短到三秒。

这指的是监控和绘制电源电压降图,通过寄生预测,预测误差,标准单元迁移自动化,以及解决各种路由挑战。使用人工智能和机器学习可以帮助优化所有过程,从而在最终产品中获得重大收益。

映射潜在的电压下降有助于 Nvidia 跟踪下一代显卡的功率流。根据 Dally 的说法,从使用标准工具切换到专门的 AI 工具可以大大加快这项任务,因为新技术可以在几秒钟内执行此类任务。

Dally 表示,使用 AI 和 ML 绘制电压降图可以将准确度提高多达 94%,同时还可以极大地提高这些任务的执行速度。

图片源于网络

新芯片中的数据流是新显卡性能的一个重要因素。因此,Nvidia使用图形神经网络(GNN)来识别数据流中可能存在的问题,并快速解决它们。

通过使用人工智能进行寄生预测是Nvidia看到改进的另一个领域,注意到准确性增加,模拟错误率下降到10%以下。

Nvidia还成功实现了芯片标准单元迁移过程的自动化,减少了大量停机时间,加快了整个任务的完成。有了它,92%的单元库通过使用一个没有错误的工具被迁移。

该公司计划未来专注于人工智能和机器学习,将其五个实验室专门用于研究和设计这些领域的新解决方案。 Dally 暗示,我们可能会在 Nvidia 的新 7nm 和 5nm 设计中看到这些新发展的初步成果,其中包括即将推出的 Ada Lovelace GPU。

图片源于网络

下一代显卡(通常称为 RTX 4000)将非常强大(与功率要求相匹配),这已不是什么秘密。使用人工智能和机器学习来进一步开发这些 GPU 意味着我们可能很快就会拥有真正的强者。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220424A05PJL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券