前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >免费GPU计算资源哪里有?带你薅薅国内GPU羊毛

免费GPU计算资源哪里有?带你薅薅国内GPU羊毛

作者头像
量子位
发布于 2019-07-24 07:19:08
发布于 2019-07-24 07:19:08
4.6K0
举报
文章被收录于专栏:量子位量子位
允中 发自 凹非寺 量子位 出品 | 公众号 QbitAI

编者按:

没有什么比薅GPU羊毛更喜闻乐见。

之前有专门教程介绍谷歌资源,需要访问外国网站。但最近知乎上又有一套国产GPU资源的薅羊毛分享,价值上亿的高性能算力,对科研学习者完全免费。

这就是百度的AI Studio。现在,我们将这篇测评及使用分享转载如下,祝薅羊毛开心顺利。

1.AI Studio和飞桨(PaddlePaddle)

AI Studio和飞桨算是后起之秀,包括我在内的很多人还不是很熟悉这一整套方案,在开薅之前,所以先简单介绍下。

1.1 AI Studio

AI Studio是百度提供的一个针对AI学习者的在线一体化开发实训平台(https://aistudio.baidu.com/?fr=liangziwei)。

平台集合了AI教程, 深度学习样例工程, 各领域的经典数据集, 云端的运算及存储资源, 以及比赛平台和社区。[1]你可以把AI Studio看成国产版的Kaggle。

和Kaggle类似,AI Studio也提供了GPU支持,但百度AI Studio在GPU上有一个很明显的优势。Kaggle采用的是Tesla K80的GPU, AI Studio采用的是Tesla V100的GPU,那么下表对比两款单精度浮点运算性能,就能感觉v100的优势了。

明显在单精度浮点运算上,AI Studio提供的运行环境在计算性能上还是很有优势的。理论上训练速度可以提高近3倍左右。

虽然性能上好很多,但目前还是可以免费薅到,目前AI Studio提供了免费申请和运行项目奖励这两种获得算力卡的方式,最后一章我会带领大家去薅。

即使算力卡用完了(目前送得太多,根本用不完),AI Studio的CPU也是很有竞争力的。亲自用脚本测试过,AI Studio的CPU是Intel(R) Xeon(R) Gold 6148 CPU,可以说在配置上,AI Studio也是很有竞争力的。

1.2 飞桨

根据官网介绍,飞桨是百度推出的 “源于产业实践的开源深度学习平台”,致力于让深度学习技术的创新与应用更简单。

Paddle是Parallel Distributed Deep Learning的缩写,翻译过来是就是桨。和TensorFlow,Pytorch等框架一样,飞桨给开发者提供了很多常用的架构,也可以直接在包里直接加载常用的数据库,对于学习者来说,还是很方便的。

飞桨(PaddlePaddle)还是有点国产的意思,去Github可以搜到PaddlePaddle的项目,除了英文文档,还提供了中文文档,这个有时候还是挺方便的。虽然现在star比起TensorFlow还是差不少,但是感觉进展得如火如荼。

1.3 AI Studio与飞桨的生态

下图是百度在4月首届 WAVE SUMMIT 2019 深度学习开发者峰会时首次对外公布的 飞桨全景图。

生态其实设计得很好,可能TensorFlow先发得太早吧,感觉飞桨追赶得很吃力。但从百度最近推广飞桨的力度来看,我猜飞桨很有可能两三年左右进入主流深度学习框架之列。

2.AI Studio实例测评:以数字识别项目为例

2.1 AI Studio GPU和CPU性能对比。

为了测试AI Studio的性能,我用最经典的MNIST数据集,在LeNet 5模型上跑,对比在GPU和CPU下在AI Studio的的性能。同时我进行了一个不算严谨的测试,我用最经典的MNIST数据集,飞桨用的MNIST数据集是60000个训练数据,10000个测试数据,Kaggle的训练集数据42000,测试集数据28000。https://aiStudio.baidu.com/aiStudio/projectdetail/45293

以下是AI Studio的CPU和GPU测试性能对比

GPU提升效果为11倍,因为训练过程有验证测试,而且CPU配置也太高了,所以并未达到理论上的47x的加速,但这速度还不错。

2.2 AI Studio和Kaggle对比测试

测试环境:

1. Kaggle Kernel.

测试kernel https://www.kaggle.com/orange90/mnist-with-lenet-5-test-run-time. Batch_size =50,训练5000轮,使用框架TensorFlow,CNN架构是LeNet-5

2.AI Studio.

测试项目https://aiStudio.baidu.com/aiStudio/projectdetail/45293

Batch_size = 64,训练5000轮,使用框架飞桨, CNN架构是LeNet-5

AI Studio的测试结果在2.1展示了,就不再赘述了,以下是Kaggle的性能测试对比:

GPU提升效果为8倍,因为训练过程有验证测试,所以并未达到理论上的12.5x的加速。

由于架构的超参不一样,直接对比运行时间不太严谨,但从GPU提升速度的倍数上来说,AI Studio略胜一筹,况且AI Studio本来CPU就很高配了,所以理论上47x的加速可能还得打个折。

2.3 AWS

也在AWS开了个instance来测试,选的是这一款配置里的p2.xlarge

直接把2.2里用到的kaggle的内核导进去了,测试结果如下:

性能上比前两者都差一点。

顺便一提,这个测试做得我脑壳痛,前期开instance,配置环境的就花了一个多小时。对于AWS新手来说,可能折腾一天,薅了十几美刀,还是没能把代码跑通。真的强烈不推荐在AWS来练习自己deep learning技能。

2.4. 测试总结

下表总结在不同环境下的测试效果及成本:

在使用体验上,和Kaggle Kernel或者Jupyter Notebook很接近,虽然外观稍有不同,但快捷键基本一样,没有太大的不适应。除此之外,AI Studio由于在国内,页面响应比Kaggle更快,比Kaggle网络更稳定,断线重连几率要更低,毕竟断线重连要重跑还是挺蛋疼的。

不过需要提醒的是,AI Studio目前还是按运行环境启动时间来计费,是在无GPU环境下把代码写好,再开启GPU去跑。虽然AI Studio的算力卡也是送的,但也要赶紧薅起来,囤点算力资源,万一哪天百度没钱了,不送了呢?

3.羊毛来了,薅起来

现在的算力卡还是很好拿的,没什么门槛,自己申请一下就拿到了,而且每天运行一次项目,又送12个小时算力,连续运行5天再加送48小时。

值得注意的是,申请的算力卡到手就是48小时,裂变之后能凑120小时,而且有效期比日常运行获取的12小时这种要长很多。

我寻思每天免费让你12小时NVIDIA v 100GPU这种事情,真的是天上掉馅饼吧。

此外,AI Studio官方也有比赛,有奖金,如果你的实力在kaggle里离拿奖金只是一步之遥,那么蹭AI Studio还没火起来之前,去AI Studio比赛应该是很好拿奖的。

3.1 自己申请

点进https://aistudio.baidu.com/aistudio/questionnaire?activityid=539

接着填写个人信息

提交后,会出现下图

然后就静候佳音。通过运营人员核验后,用户的邮箱将收到运营人员发送的算力邀请码:一串32位数字。

通过上面链接能申请到48小时的算力卡(有效期1个月),并且可以分裂,送给别人(稍后送上我的分裂算力卡)

使用算力卡的方法很简单,在运行项目时选上GPU,就会开始消耗了,如下图。

3.2 跑项目赚算力卡

这个简直了,你不仅可以运行自己的深度学习代码,测试自己的项目,而且同时还会得到算力卡。每天跑一次就可以得到12小时算力卡(有效期2天),另外算力充电计划,就是连续5天有使用算力卡,就会额外送48小时(有效期7天)。但预感这么高成本的事情应该不会持续太久,建议早薅。下面是我的算力卡奖励历史,感觉只要你用,AI Studio就送你算力,不担心算力不够。

3.3 算力卡分裂

AI Studio的算力卡有分裂功能,你申请到算力卡会有三个邀请码,你可以分享给你的朋友。我申请的算力卡有三个分裂,我每天会在评论区放一个算力卡,对羊毛贪得无厌,或者懒得申请又想马上使用的,那可要盯紧评论区了。后续我再薅到新的算力卡就会评论区更新,先到先得,希望各位多多关注本文。

3.4 比赛薅羊毛

另外额外告诉大家一个可能能行的薅羊毛的方法,需要一定的实力。AI Studio也有一些常规比赛,相对于Kaggle,可能竞争会小点,如果你在Kaggle能top10%以上,来AI Studio薅类似的比赛,就很大几率拿得到奖金了。

羊毛不是天天有,该出手时就出手!

Reference:

【1】https://ai.baidu.com/docs#/AIStudio_Tutorial/top?fr=liangziwei 【2】http://www.PaddlePaddle.org/?fr=liangziwei 【3】https://ai.baidu.com/forum/topic/show/943419/?fr=liangziwei

谷歌计算资源薅羊毛教程传送门:

https://zhuanlan.zhihu.com/p/59305459

作者系网易新闻·网易号“各有态度”签约作者

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-07-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
nginx 代理多个服务器——多个server方式
上一篇文章(http://blog.csdn.net/wild46cat/article/details/52840125)介绍了nginx的基本配置和使用方法,并且简单的介绍了一下如何利用nginx结合tomcat进行使用,达到反向代理的作用。现在我们要使用nginx达到这样的一个目的,能够代理多个服务器。
Java架构师必看
2021/05/14
7.2K0
nginx 代理多个服务器——多个server方式
haproxy与nginx集成实例 By HKL, Wed
主要是将原来bind的server_name 0.0.0.0、端口都换成本地地址和端口,以腾出给haproxy使用。
hiplon
2020/07/22
4250
备份的Nginx 配置 可参考
特殊说明: 解决问题的光鲜,藏着磕Bug的痛苦。 万物皆入轮回,谁也躲不掉! 以上文章,均是我实际操作,写出来的笔记资料,不会出现全文盗用别人文章!烦请各位,请勿直接盗用!
收心
2022/01/19
8030
nginx python Django 集成总结之-nginx配置
1. 配置文件路径 (env) [root@centos nginx]# cd /etc/nginx/ (env) [root@centos nginx]# ls conf.d koi-utf mime.types nginx.conf uwsgi_params fastcgi_params koi-win modules scgi_params win-utf 2. nginx.conf 全局配置文件 # 运行用户 user root; worker_proces
onety码生
2018/11/21
9710
Nginx新手配置$document_root
nginx配置php老是出错,最后才发现是$document_root的设置问题。
星哥玩云
2022/07/26
2.5K0
nginx镜像重要目录内容
进入nginx镜像中 docker exec -it [容器id] /bin/bash 静态目录 /usr/share/nginx/html nginx 镜像中 /etc/nginx/conf.d/default.conf server { listen 80; listen [::]:80; server_name localhost; #charset koi8-r; #access_log /var/log/nginx/host.access
拿我格子衫来
2022/01/24
3040
nginx 同一 iP 多域名配置方法(单文件)
在 nginx.conf 文件里面 http{} 内增加一个 server{} 即可:
卓越笔记
2023/02/17
1.7K0
搭建nginx rtmp流媒体服务器(超详细)_nginx rtmp 集群
本微博在借鉴其他大牛之后,觉得应该写一个直播的完整流程,虽然简单,但是会有一个宏观感受:
全栈程序员站长
2022/09/27
5.5K0
搭建nginx rtmp流媒体服务器(超详细)_nginx rtmp 集群
docker配置nginx的https 最简单教程, 编译成镜像
分析nginx.conf 得知 在配置文件里 引入了/etc/nginx/conf.d 下的所有以.conf为结尾的配置文件
拿我格子衫来
2022/01/24
5850
Nginx多站点设置及负载均衡
apache端口88 tomcat端口8080
似水的流年
2018/01/14
2.2K0
利用Nginx搭建简单图片服务器,实现负载均衡
> 作者 : 不清不慎 , 来源 : https://blog.csdn.net/qq_37142346/article/details/78762711
Java小咖秀
2021/04/22
9690
利用Nginx搭建简单图片服务器,实现负载均衡
nginx window下的静态文件服务器
版权声明:本文为博主原创文章,未经博主允许不得转载。
DencyCheng
2018/11/05
2.3K0
Windows搭建Nginx直播推流服务器
将 ffmpeg 下的 bin 目录(我的是D:\1_streamserve\ffmpeg\bin) 和 nginx目录(我的是D:\1_streamserve\nginx-1.7.11.3-Gryphon) 都添加到 Path 路径下。
103style
2022/12/19
2.5K0
Windows搭建Nginx直播推流服务器
How to Install Nginx and PHP-FPM on FreeBSD 10
FreeBSD 10 + Nginx 1.4.4 + PHP 5.5.9 + MySQL 5.6.15 摘要 FreeBSD 10.0 的 pkg 无法安装php-fpm 最终采用 posts 编译安装 http://netkiller.github.io/journal/freebsd.php.html 我的系列文档 Netkiller Architect 手札 Netkiller Developer 手札 Netkiller PHP 手札 Netkiller Python 手札 Netk
netkiller old
2018/03/02
1.1K0
【CentOS 7】nginx配置web服务器
2,假设服务器外网IP为129.129.129.129,需要通过web访问的index文件是 /usr/index.html,index.html文件内容是:
BH8ANK
2021/01/29
2.2K0
nginx.conf 配置详解(六)
日志级别从低到高分别是:debug、info、notice、warn、error、crit
高大北
2022/06/14
5650
nginx.conf 配置详解(六)
整合的Nginx为LNMP环境
接上前面的文章Nginx编译安装、CentOS MySQL5.5编译安装、PHP5.6编译安装、
Azura
2018/09/03
3600
整合的Nginx为LNMP环境
Nginx从陌生到入门02——配置虚拟主机(配置站点)
在上面配置文件里,我们就可以看到我们的默认配置站点,也就是servername是 localhost的这个server块。它监听了80端口,主机名是localhost 以及errorpage等。 对于新手来说,很多配置我们可以暂时不用了解。
huolong
2023/11/29
4630
Nginx从陌生到入门02——配置虚拟主机(配置站点)
nginx配合两个或多个PHP版本。php5.6与php7
brew安装的东西都在目录/usr/local/opt/ 下了。这是我知识的盲点。所以找了很久没找到。
conanma
2021/12/02
1.8K0
tp5 url 线上访问 在nginx 上 出现404错误,解决办法(1.80nginx 配置 pathInfo)
对于ThinkPHP的URL访问路劲如:http://域名/index.php/Index/BlogTest/read,原先的Nginx的是不支持的pathinfo路劲的,导致你在thinkPHP5上面测试的时候,输入相应的URL也不会提示模块名,控制器名或者方法名错误,而是出现一个404找不到的错误,那是因为Nginx无法解析这样的链接,下面讲讲如何配置:
全栈程序员站长
2022/07/07
1.3K0
tp5 url 线上访问 在nginx 上 出现404错误,解决办法(1.80nginx 配置 pathInfo)
相关推荐
nginx 代理多个服务器——多个server方式
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文