首页
学习
活动
专区
工具
TVP
发布

GPUS开发者

专注NVIDIA Jetson产品开发。
专栏作者
1072
文章
1702351
阅读量
206
订阅数
GTC2022精彩讲座预告|医学/医药/保健
我们整理了GTC2022精彩讲座预告,欢迎大家报名参加 01 用于生成化学和蛋白质的人工智能药物发现 [A41196] 大型语言模型显示出学习生化空间表示的希望。NVIDIA 将展示一个大型语言模型框架,用于构建、训练和部署基于转换器的大型蛋白质和生物分子神经架构,扩展之前在小分子生成化学模型方面所做的工作。 时间:Thursday, Sep 221:00 AM - 1:25 AM CST 02 脑外科新领域 [A41130] 我们将讨论高级计算和数字孪生世界在改变外科专科,特别是神经外科方面的作用
GPUS Lady
2022-09-08
2550
GTC2022精彩讲座预告|对话式人工智能/自然语言处理(NLP)
我们整理了GTC2022精彩讲座预告,欢迎大家报名参加 01 在云中大规模构建大型语言模型 [A41328] Oracle 云基础设施 (OCI) 专为高性能工作负载(包括自然语言处理)而设计和构建。甲骨文云已经展示了使用 NeMo-Megatron 将几个节点上的 BERT 等工作负载扩展到 GPT-3 等大型语言模型 (LLM),跨越数百到数千个节点。了解将 OCI 用于 LLM 的注意事项、方法、挑战和真实客户洞察。 时间:Thursday, Sep 223:00 AM - 3:25 AM CST
GPUS Lady
2022-09-07
5580
使用NVIDIA Jarvis 快速开发问题与回答应用程式
您可能会向智慧音箱提问「圣母峰有多高?」之类的问题。它可能会回答:「圣母峰的海拔高度为29,032 英尺。」但您是否曾经想过它是如何为您找出答案的?
GPUS Lady
2021-06-01
7350
使用NVIDIA Jarvis 快速开发问题与回答应用程式
您可能会向智慧音箱提问「圣母峰有多高?」之类的问题。它可能会回答:「圣母峰的海拔高度为29,032 英尺。」但您是否曾经想过它是如何为您找出答案的?
GPUS Lady
2021-06-01
7350
【GTC2020】Megatron-LM:使用模型并行性训练数十亿个参数语言模型
我们将通过对现有PyTorch transformer实现进行少量有针对性的修改来介绍一种高效的模型并行方法。最近,训练最大的神经语言模型已经成为提高NLP应用水平的最佳方法。然而,对于超过十亿个参数的模型,单个GPU没有足够的内存来匹配模型和训练参数,这就需要模型并行性来将参数分割到多个GPU上。我们将通过在512个gpu上使用8路模型并行和64路数据并行训练一个83亿个参数转换器语言模型来展示我们的方法,使其成为迄今为止训练的最大的基于转换器的语言模型。该模型建立了下游任务的最新技术成果。
GPUS Lady
2020-04-01
1.5K0
微软利用NV DGX-2训练了世界上最大的转换器语言模型
微软今天宣布了对话式人工智能的突破,它使用NVIDIA DGX-2系统,基于170亿个参数,训练了最大的基于转换器的语言生成模型。
GPUS Lady
2020-02-19
4750
谁是NVIDIA GTC China大会中的独角兽?NVIDIA CEO黄仁勋邀请苏州初创企业一起来观摩!
再过10天, 一年一度的英伟达中国区科技年会——GTC China大会将在苏州金鸡湖国际会议中心举办,英伟达会在这个会议上发布最新的GPU技术和产品,备受世人瞩目。而最受关注的是11月21日的初创企业大赛。多家科技界最耀眼的新创公司将在这一天争夺丰厚创业资金及创业路上最光荣的时刻。
GPUS Lady
2018-12-07
8030
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档