前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Jetson Orin NANO开发者必须知道的:NGC内容简介与注册密钥

Jetson Orin NANO开发者必须知道的:NGC内容简介与注册密钥

作者头像
GPUS Lady
发布2023-07-08 14:57:12
4090
发布2023-07-08 14:57:12
举报
文章被收录于专栏:GPUS开发者
全名为NVIDIA GPU Cloud的NGC中心,是近年来英伟达用来统筹应用资源的云中心,本身并不具备任何计算功能,主要就是“应用资源分类整理”用途,将英伟达绝大部分与GPU开发相关的工具包、开发包、机器学习预训练模型等等,全部集中在这上面,方便开发人员集中使用与下载开发资源。

登录 http://ngc.nvidia.com 就能进入NGC中心(如下图),不过这个入口的更新频率很高,首页所看到的内容可能跳转至其他地方。网页最左边的“Explore Catalog”与右上角的 “用户名(未登录之前为Guest)”,大致是固定的。

目前NGC将所有资源区分为以下五大类:

  • Collections(集合): 这里存放着“以应用为单位”的综合信息内容,因为每个应用都需要用到一个以上的容器、预训练模型、Helm管理模块或资源。在NGC里存放数百个这些元件,如果让开发者自行搜索的话,的确是一件相当费劲的工作。 英伟达将个别应用所需要的相关信息,先整理好并存放在这个分类里,让使用者可以非常轻松地掌握每个应用所需要的资源列表,目前已经整理好30+个应用,包括TAO对话AI、ASR自动语音识别、NLP自然语言处理等等,还在陆续增加当中。

例如在Query栏中填 ”deepstream” ,会出现 ”DeepStream - CV Depolyment”项目,点击进去之后,会看到如下截屏的内容,上面显示与这个项目相关的材料,包括有“2 个Containers、0个Helm Charts、8个Models、0个Resources”等等,这些数字并是固定的,会随着资源变化而调整。在下面的 ”Overview” 里提供项目内容的简单说明,可以现行阅读一下。

点击 “Entities” 就能看到如下图,列出每个元件的名称以及进入该元件说明的链接:

在DeepStream所列出的Containers有两个系列,上面一个支持x86系统、下面一带有 ”l4t” 的是专门提供给Jetson设备使用的,每个系列中还有多个版本,例如l4t版本里还分为base、triton、samples与iot四个版本,可以根据不同的应用需求选择有针对性的版本,可以大幅降低环境调试的工作量。 至于所列出的8个模型(models),都是NVIDIA根据不同应用场景所训练好的优质模型,包括质量与性能都是经过专家优化过的,内容涵盖人脸、行人、交通工具等等常用类别,都可以直接下载到DeepStream系统中直接使用。

  • Containers(容器): Docker是非常好的用于封装应用软件的容器技术,封装的镜像能提供完全独立的执行环境,这样能有效地解决多种应用的同时运作。
  • 由于NVIDIA各种应用之间,仍存在CUDA/CUDNN/TensorRT这些底层库的版本兼容问题,另外包括Python各种数学库之间的版本依赖,经常造成软件安装的困难度。于是NVIDIA将大部分开发套件与工具包,以不同应用场景或功能组合的形式,用Docker技术进行封装,例如TAO开发工具就有for Conv AI、for CV两种镜像,而DeepStream有两周平台、各四种镜像。 使用镜像技术,开发者只需要在工作平台上安装最基础的GPU驱动、docker管理器与nv-docker2解析器,就能非常轻松地使用这些应用。目前NGC上已经有将近200个容器镜像,可以免费使用。
  • Helm Charts 这是一组针对Kubernetes集群的管理与运维的工具,配合docker技术执行应用软件的部署与管理,与GPU计算没有直接关联,通常使用在数据中心、云平台上,对各种部署的GPU应用进行管理与监控,其中Nvidia Network Operator Helm Chart是最重要的基础元件,对这方有需求的读者可以从这个元件开始上手。
  • Models(模型) 这里提供300+个预训练好的人工智能模型,包括图像分类、对象检测、语言翻译、文本到语音、推荐引擎、情感分析等等,主要配合迁移学习(transfer learning)的用途,或者直接拿来作为体验演示用途。 所有模型都是经由最专业的技术人员,根据不同数据精度在英伟达最高端设备进行训练,在精确度与性能上都经过优化处理,包括NVIDIA Tensor Core GPU,这样的预训练模型能为开发人员节省非常大量的模型训练时间。
  • Resources

这里存放的内容,就是为创建深度学习模型的分步说明和脚本,例如用于Jupyter环境的.ipynb脚本,还有一些使用相关的指导文件或范例代码。

以上简单介绍了NGC的内容,英伟达为开发人员提供非常丰富与优异的资源,若能好好善用NGC的功能,就能在人工智能的应用开发上得到事半功倍的效果。

要使用这些资源的第一件事情,就是要申请NGC账号,这个账号与英伟达开发者申请的账号是互相独立的,因此需要单独申请。本文最后就是带着大家去申请一个账号,并且申请一组密钥,这样就能轻松使用NGC的内容。

  1. 创建NGC账号:
    1. 登录 https://ngc.nvidia.com 会直接出现 CATALOG画面
    2. 请点击下图右上角 ”Welcome Guest”,然后点选下方 ”Sing in/Sing Up”
  1. 出现输入邮箱画面,请输入要使用的完整邮箱,然后点击 ”Continue” :
  1. 进入下面画面,填入您要设定的密码,要求必须有大写英文字母、小写英文字母以及数字三种元素所组成,最后还要经过“我是人类”的验证步骤。
  1. 一切正确之后就会发一封邮件进行到您申请的邮箱里,进行最后的确认。

顺利创建账号之后,就可以重新登录NGC中心。

  1. 获取NGC密钥:
    1. 登陆NGC之后,会看到右上角出现您的登录名,以及一组哈希数列。点选用户名所出现的下拉菜单中,选择 ”setup” 选项
  1. 进入Setup选项后会出现下面两个设定,点击左边的 ”Get API Key”:
  1. 点击下图右上角 ”Generate API KEY”会跳出“确认”,点击 ”confirm” 即可
  1. 在最下面会出现一组长度85的字符串:

由于密钥只有在创建时候能看到内容,日后无法在NGC独立查询,请自行复制做好记录。这组组密钥在整个训练过程以及最后推理时都需要用到,非常关键,如果遗忘的话就得重新在创建一组,而前面所训练的模型,可能就得重新再做一次。 本文只是将NGC的内容做个简单的介绍,以及讲解创建账号、生成密钥的过程,更多关于NGC的详细使用说明,请访问https://docs.nvidia.com/ngc/ngc-overview/index.html。

  1. Docker登录NGC:

生成秘钥之后,最后一步就是让Jetson Orin Nano开发套件登录上NGC,这样才能完整地利用NGC的资源。登录的指令如下:

代码语言:javascript
复制
$ export KEY='<您的85位API秘钥>
$ docker login -u '$oauthtoken' --password-stdin nvcr.io <<< $KEY

如果输入正确的话,会看到下面截屏信息,表示登录成功!

这个登录只需要执行一次就可以,现在就能开始使用NGC的各项资源。【完】

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-05-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GPUS开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档