首页
学习
活动
专区
工具
TVP
发布

新智元

专栏成员
8495
文章
6224604
阅读量
207
订阅数
人工智能300年!LSTM之父万字长文:详解现代AI和深度学习发展史
实用AI地提出,最早可以追溯到1914年。当时Leonardo Torres y Quevedo构建了第一个工作的国际象棋机器终端游戏玩家。当时,国际象棋被认为是一种仅限于智能生物领域的活动。
新智元
2023-01-09
4690
Hinton上榜!盘点AI图像合成10年史,那些值得被记住的论文和名字
深度学习模型在生成图像上的表现,已经如此出色。很显然,它在未来会给我们更多的惊喜。
新智元
2023-01-08
4090
万字解读首篇「人脸复原」综述!南大、中山、澳国立、帝国理工等联合发布
近年来,随着深度学习的发展和大规模数据集的出现,深度学习在很多领域也取得了进展,但其中「人脸复原」(Face Restoration)任务仍然缺乏系统性的综述。
新智元
2023-01-07
7140
2012-2022: AI革命10周年,Hinton等大佬重拳出击「深度学习撞墙」论
---- 新智元报道   编辑:David 武穆 【新智元导读】AI与深度学习如何彻底走出寒冬,终成「显学」?一切始于2012年AlexNet那篇论文,10年过去,今天的AI怎么样了? 2012年9月,一篇题为「用深度卷积神经网络进行ImageNet图像分类」的论文,让此前沉寂多年的人工智能领域热度骤起。 文中提出的AlexNet深度卷积神经网络,在当年的ImageNet分类任务比赛ILSVRC-2012上,以碾压之势轻松夺冠,大幅刷新了此前的SOTA。 说是碾压,毫不夸张。AlexNet一举将 to
新智元
2022-09-15
3250
「几何深度学习」从古希腊到AlphaFold,「图神经网络」起源于物理与化学
---- 新智元报道   编辑:LRS 【新智元导读】最近大火的「几何深度学习」到底是怎么出现的?创始人Michael Bronstein发布系列长文,带你从头开始回忆。 2016年,牛津大学教授、Twitter的图机器学习研究负责人Michael Bronstein发布了一篇论文,首次引入几何深度学习(Geometric Deep Learning, GDL)一词,试图从对称性和不变性的视角出发,从几何上统一CNNs、GNNs、LSTMs、Transformers等典型架构的方法。 论文链接:ht
新智元
2022-08-26
3220
世界首个红石人工智能引爆B站!UP主在我的世界搭建,LeCun转发
---- 新智元报道   编辑:如願 好困 桃子 【新智元导读】可能你都想不到,一位不是计算机专业的UP主竟在「我的世界」里搭建出世界首个红石人工智能,就连图灵奖得主LeCun转发称赞。 耗时半年,B站UP主终于在「我的世界」实现了首个红石人工智能。 可以说,这是世界上第一个纯红石神经网络。 不仅可以实现15×15手写数字识别,最重要的是,准确率能够达到80%! 目前,这个视频已经有106万播放量,收获无数网友好评关注。 就连图灵奖得主,LeNet架构提出者,Yann LeCun还在社交媒体上转发了
新智元
2022-07-04
4360
西电焦李成教授一作:「深度神经网络FPGA」最新研究综述
---- 新智元报道   来源:专知 【新智元导读】近年来,随着人工智能与大数据技术的发展,深度神经网络在语音识别、自然语言处理、图像理解、视频分析等应用领域取得了突破性进展。深度神经网络的模型层数多、参数量大且计算复杂,对硬件的计算能力、内存带宽及数据存储等有较高的要求。 FPGA 作为一种可编程逻辑器件,具有可编程、高性能、低能耗、高稳定、 可并行和安全性的特点。其与深度神经网络的结合成为推动人工智能产业应用的研究热点。 本文首先简述了人工神经网络坎坷的七十年发展历程与目前主流的深度神经网络模型,
新智元
2022-04-02
5110
2202年了,AI还是不如猫!图灵奖得主Yann LeCun:3大挑战依然无解
2018年,Yann LeCun:人工智能缺乏对世界的基本认识,甚至还不如家猫认知水平。
新智元
2022-02-24
4730
别再用平均池化层了!Meta AI把注意力塞到池化层,性能立刻提升0.3
Visual Transformer(ViT)作为计算机视觉领域的新兴霸主,已经在各个研究任务中逐渐替换掉了卷积神经网络CNN。
新智元
2022-02-24
8980
还在纠结CNN还是Transformer?清华发表一篇survey:全连接层才是终极答案!
多层感知机(MLP)或全连接(FC)网络是历史上第一个神经网络结构,由多层线性层和非线性激活叠加而成,但受到当时硬件计算能力和数据集大小的限制,这颗明珠被埋没了数十年。
新智元
2021-11-26
9240
加州理工华人博士提出傅里叶神经算子,偏微分方程提速1000倍,告别超算!
微分方程是数学中重要的一课。所谓微分方程,就是含有未知函数的导数。一般凡是表示未知函数、未知函数的导数与自变量之间关系的方程,就叫做微分方程。
新智元
2021-11-15
8730
小模型大趋势!Google 提出两个逆天模型:体积下降7倍,速度提升10倍
GPT-3 在小样本学习中表现出卓越的能力,但它需要使用数千个 GPU 进行数周的训练,因此很难重新训练或改进。
新智元
2021-10-12
4160
一个被图灵奖遗忘的暴脾气老大爷:LSTM之父又发威!
不要问“为什么要说又”了。这位大爷是圈内有名的老暴脾气。他发了一篇博客,回顾了上世纪90年代以来,神经网络领域高引用数的论文,以及这些论文的成果和他本人和他的实验室之间的渊源。
新智元
2021-09-17
3780
UC伯克利华人一作:卷积让视觉Transformer性能更强,ImageNet 继续刷点!
最近的研究表明,在各种图像识别人物中,相比起卷积神经网络(CNN),视觉Transformer(ViT)模型的结果更好,并且能够节省计算资源。
新智元
2021-07-29
9100
Hinton发布44页最新论文「独角戏」GLOM,表达神经网络中部分-整体层次结构
2017年,深度学习三巨头之一的Geoffrey Hinton,发表了两篇论文解释「胶囊网络(Capsule Networks)」。
新智元
2021-03-10
7760
GCN研究新进展BASGCN:填补传统CNN和空域GCN理论空白,荣登AI顶刊
BASGCN(Backtrackless Aligned-Spatial Graph Convolutional Networks)由国内知名大学中央财经大学信息学院白璐副教授带领团队共同研发,已被人工智能领域的国际顶级期刊《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI,IEEE模式分析和机器智能汇)刊录用,并将于日后正式刊出。
新智元
2021-01-25
1.5K0
每月仅需6.99美元!谷歌AI算法将你最美好的记忆寄回家
最近,Google提出了一个很好的方案。每个月只需要$ 6.99,AI就会帮你挑选十张「靓照」,并打印出来送到你家门前。
新智元
2020-10-29
3710
Nature子刊研究颠覆常识:视网膜计算使眼睛先于大脑产生视觉信息
今天,我们可以看到计算机视觉(CV)系统在医疗保健,安全,运输,零售,银行,农业等领域的成功应用,已经深刻地改变了整个行业。
新智元
2020-04-24
5260
清华大学、中国人工智能学会重磅发布《2019人工智能发展报告》!两大亮点抢先看(附下载)
11月30日下午,2019中国人工智能产业年会重磅发布《2019人工智能发展报告》(Report of Artificial Intelligence Development 2019)。
新智元
2019-12-05
7420
悉尼科大徐亦达教授:1000+页机器学习讲义,32 份主题推介
悉尼科大徐亦达教授近日在GitHub更新了他2019年以来的机器学习新材料,超过1000页的讲义,总共涵盖 32 个主题。
新智元
2019-09-16
1.5K0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档