首页
学习
活动
专区
工具
TVP
发布

机器之心

专栏成员
9145
文章
6876511
阅读量
281
订阅数
LeCun领导下的Meta AI,押注自监督
选自IEEE Spectrum 作者:ELIZA STRICKLAND 机器之心编译 机器之心编辑部 自监督学习真的是通往 AGI 的关键一步? Meta 的 AI 首席科学家 Yann LeCun 在谈到「此时此刻要采取的具体措施」时,也没有忘记远期的目标。他在一次采访时说:「我们想要构建像动物和人类一样学习的智能机器。」 近几年,Meta 发表了一系列关于 AI 系统自监督学习(SSL)的论文。LeCun 坚定地认为,SSL 是 AI 系统的必要前提,它可以帮助 AI 系统构建世界模型,以获得类似人类的
机器之心
2022-07-06
3360
怼完OpenAI,LeCun回应:我认为意识只是一种错觉
选自IEEE Spectrum作者:ELIZA STRICKLAND机器之心编译机器之心编辑部 现在的 AI 到底有没有意识?如何定义意识?AI 的前进方向是通过更好的数据标签来改善监督学习,还是大力发展自监督 / 无监督学习?在 IEEE Spectrum 的最近的一次访谈中,图灵奖得主、Meta 首席 AI 科学家 Yann LeCun 表达了自己的看法。 Yann LeCun 在演讲时曾经放过一张法国大革命时期的著名画作《自由引导人民》,并配文:「这场革命将是无监督的(THE REVOLUTION
机器之心
2022-03-04
2620
当自监督遇上语言-图像预训练,UC伯克利提出多任务框架SLIP
近来一些研究表明,在具有挑战性的视觉识别任务上,自监督预训练可以改善监督学习。CLIP 作为一种监督学习新方法,在各种基准测试中都表现出优异的性能。
机器之心
2022-02-24
4630
Transformer预训练模型已经变革NLP领域,一文概览当前现状
在如今的 NLP 领域,几乎每项任务中都能看见「基于 Transformer 的预训练语言模型(T-PTLM)」成功的身影。这些模型的起点是 GPT 和 BERT。而这些模型的技术基础包括 Transformer、自监督学习和迁移学习。T-PTLM 可使用自监督学习从大规模文本数据学习普适性的语言表征,然后将学到的知识迁移到下游任务。这些模型能为下游任务提供优质的背景知识,从而可避免从头开始训练下游任务。
机器之心
2021-10-26
1.3K0
7 Papers | Transformer研究井喷式涌现;最大中文多模态预训练数据集
论文 1:Self-Supervised Learning of Graph Neural Networks: A Unified Review
机器之心
2021-03-14
8100
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档