对于开发者来讲,证明其编程能力最好的方式是展示他们的项目和代码。AI 研习社本周从 YouTube、知乎以及 Github 官网上搜罗了数个与 AI 相关的开源项目,为 AI 开发者的设计提供参考。这些项目涉及自动化前端开发、中文近义词处理以及近期火热的比特币等领域,详细信息和具体的代码实现请阅读下文。
如果你对自己的 AI 项目有足够的自信,同时也希望更多的开发者参与到你的项目中,欢迎将项目的 Github 链接发给我们,说不定下一期就是推荐你的项目。
用深度学习预测虚拟货币价格 —— ethereum_future
Github 地址:https://github.com/llSourcell/ethereum_future
这是 Youtube 网红小哥 Siraj Raval 「Ethereum Future Price Prediction」视频的代码,视频 B 站链接:https://www.bilibili.com/video/av18466563/。
该项目用深度学习的方法预测比特币的走势,Siraj Raval 小哥也在视频里说了,这套模型还可以用来预测任何 Altcoin。看来现在的矿工们都应该学点机器学习了。
基于神经网络的自动化前端开发 —— Screenshot-to-code-in-Keras
Github 地址:https://github.com/emilwallner/Screenshot-to-code-in-Keras
目前,自动化前端开发最大的障碍是计算能力,不过,我们可以用深度学习算法和数据训练来探索自动化前端设计。该项目是本周 Github Trending 第一名,神经网络通过深度学习,自动把设计稿变成 HTML 代码。该软件的作者表示三年内深度学习将改变前端开发,加快原型构建的速度并降低软件开发门槛。
中文近义词工具包 —— Synonyms
Github 地址:https://github.com/huyingxi/Synonyms
可以用于自然语言理解的很多任务:文本对齐,推荐算法,相似度计算,语义偏移,关键字提取,概念提取,自动摘要,搜索引擎等。兼容 py2 和 py3,当前稳定版本 v2.1。
优化神经网络使用的内存 —— gradient-checkpointing
Github 地址:https://github.com/openai/gradient-checkpointing
训练深度神经网络需要占用大量的内存,用 Tim Salimans 和 Yaroslav Bulatov 共同开发的这套工具,可以权衡内存的使用情况,使你的模型更加容易地适配内存。对于前馈模型(feed-forward models),我们能将大 10 倍以上的模型放进 GPU 里,而计算时间仅增加 20%。