---- 新智元报道 来源:Science 编辑:David 【新智元导读】熬夜不睡觉,有损记忆力!这句话终于不是随便说说了。牛津大学新研究发现,人在睡觉时的大脑信号,会与记忆相关的「海马体」信号互相协调,巩固长期记忆。不睡觉,真的会损害记忆力哟! 相信各位打工人对熬夜一定不陌生。虽然俗话说「人是铁,饭是钢」,但其实比起少吃一顿饭,一宿不睡觉显然更令人崩溃! 熬一夜下来精神恍惚,仿佛昨天发生的事都不记得了。而且,可千万不要以为这只是随口说说!实际上,记忆与睡眠的关系可能比过去想象的更加密切。 最
【导读】复旦大学副教授、博士生导师、开源自然语言处理工具FudanNLP的主要开发者邱锡鹏(http://nlp.fudan.edu.cn/xpqiu/)老师撰写的《神经网络与深度学习》书册,是国内为数不多的深度学习中文基础教程之一,每一章都是干货,非常精炼。邱老师在今年中国中文信息学会《前沿技术讲习班》做了题为《深度学习基础》的精彩报告,报告非常精彩,深入浅出地介绍了神经网络与深度学习的一系列相关知识,基本上围绕着邱老师的《神经网络与深度学习》一书进行讲解。专知希望把如此精华知识资料分发给更多AI从业者,
【新智元导读】Samy Bengio,刚刚创业的 Youshua Bengio的弟弟,昨天在 Arxiv 上发布了他与同事、Google Brain 研究人员 Lukasz Kais 被今年 NISP 接收的文章,提出了一种新的模型,提升神经机器翻译水平,同时解开了 Active Memory 为何在提升机器翻译的效果不如提升语音、图像识别的原因,最后介绍了如何发挥 Active Memory 模型的最大潜力,以及哪些情况下更适合使用注意力模型。 此前,新智元曾经报道了谷歌神经翻译取得的突破,神经网络机器翻
11 【导读】本文是2016 台湾资料科学年会前导课程“一天搞懂深度学习”的全部讲义PPT(共268页),由台湾大学电机工程学助理教授李宏毅主讲。作者在文中分四个部分对神经网络的原理、目前存在形态以及未来的发展进行了介绍。深度学习的每一个核心概念在文中都有相关案例进行呈现,通俗易懂。一天的时间搞懂深度学习?其实并不是没有可能。 深度学习 ( Deep Learning ) 是机器学习 ( Machine Learning ) 中近年来备受重视的一支,深度学习根源于类神经网络 ( Artificial N
至今为止,我们仍然没有完全了解人类的大脑是如何运作的。由目前我们的认知来看,大脑本身并非一开始就有惊人的记忆力、计算力、识别力,一般认为,大脑是由数量庞大,可能超过300亿个神经元,以各种各样的方式连接,通过信号的传递与处理,进而形成记忆力、计算力、识别力。
作者:Sam Hill 编译:田奥,松清波,Aileen,龙牧雪 后台回复“小说”,可以下载神经网络创造的完整版新一部小说哦~ Winter is coming…… “权力的游戏”第七季史诗结局了,但是听说这个系列的最后六集最早要等到2019年春天的时候才会播出。 不过,这部剧进行到这里的最大赢家恐怕就是上图这位囧雪同学,毕竟他除了在剧里复活了,在剧外还和女野人“火吻”耶哥蕊特的扮演者露丝·莱斯利(Rose Leslie)订婚啦❤️ 吃完狗粮,说说该剧原著小说《冰与火之歌》的事。 冰火系列小说的第五部 《
ICML第一天的行程即将开始。这一天来自深度学习各个研究领域的专家们将对自己的论文和研究做出演讲。ICML选中的论文主要关注的类型都是基础理论类的研究,如深度学习主题的论文大多数关注于如何有效的建立学习模型和训练模型,而比较少最终应用的论文。ICML论文关注领域非常广泛。我们在周一的深度学习论文中选出了几篇我们认为可能比较有价值的文章,它们分别来自不同的主题板块,供大家参考: 深度学习模型的一次性生成(One-Shot Generalization in Deep Generative Models) 这是
勤练脑力可使记忆力增强,勤做有氧运动可使大脑灰质增加,勤于思考可使理智与情感有机互补。 这些措施看上去很美,但美中不足的是,它们对大脑的训练都不够彻底,这也是越来越多此类研究的通病。记忆训练对大脑的好处当然比看真人秀什么的要靠谱得多,但这些训练充其量也就能够让你更容易想起已经储存在大脑皮层周围的零散信息,对于增长知识、提高智商意义不大。 它们不会告诉你美联储是怎么运作的、南北战争时期输的为什么是南方、毕加索的名画《亚维农的少女》有什么了不起、Word为什么会崩溃。它们更不会给你带来改善日常生活的
前用的最多的三种神经网络是CNN,LSTM,GRU。其中,后两者都是RNN的变种,去年又给RNN发明了个SRU(优点是train RNN as fast as CNN),SRU以后再讲,目前先消化了这
羿阁 发自 凹非寺 量子位 | 公众号 QbitAI 看过闪电侠的人都知道,巴里·艾伦因为被闪电击中,获得了超级闪电的能力,化身“世界上最快的人”。 现实生活中,虽然“被雷劈”获得超能力不太现实,但用比闪电小得多的电流对人脑进行刺激,已经被证实对记忆力的提升有显著作用。 最新实验显示,只需连续4天接受经颅交流电刺激(tACS)治疗,记忆力提升的效果就能维持至少一个月。 有网友看完就表示:现在就想求电…… 目前,相关论文已被刊登在Nature的子刊Nature Neuroscience上,研究团队来自波士
我相信对于在座的萌新程序员来说,可能更想知道的是,为什么我学了新的算法总是容易忘?大牛们都是怎么做到的?今天就和大家聊聊这个话题,希望能够帮助一些同学解除困惑。
视频中所提及的定桩记忆法,常用100个数字桩,神奇的大脑论文请点击【阅读原文】下载使用。
论文链接:https://arxiv.org/pdf/1911.05507.pdf
是否曾经幻想过能和自己的私人助理对话或是漫无边际地探讨任何问题?多亏机器学习和深度神经网络,你曾经的幻想很快会变成现实。让我们来看一下Apple的Siri或亚马逊的Alexa所展示的这一神奇功能吧。
神经网络框架变得越来越复杂而精密 在感知、语言翻译等等方面的大部分最先进的神经网络框架正在发展并且不在仅仅关于简单前馈式(feed forward)框架或者卷积式框架(convolutional)。特别地,它们正在混合并匹配不同的神经网络技术如LSTMs、卷积、自定义目标函数、多皮层柱(multiple cortical columns)等等。 所有最酷的系统都在使用 LSTMs 大部分最先进的系统都将LSTMs纳入到系统中,以使系统具有捕捉重复模式的记忆力。 “注意力模型”在升温 一些系统,但不是全部
AI 科技评论按:深度学习给自然语言处理带来了革命性的进步,基于深度学习的机器翻译等任务的性能有了大幅度的提升。面向未来,自然语言处理技术将如何发展和演进?在哪些方面会有新突破?7 月 23 日,第二
本周,我在加拿大蒙特利尔参加了NIPS(Neural Information Processing Systems,神经信息处理系统)2015年论坛。这是一次令人难以置信的经历,就像从信息海洋中汲水一样。特别感谢我的雇主Dropbox派遣我参加这场会议(我们正在招人)。 这里是本周我注意到的一些趋势;注意到这些趋势更偏向于深度学习和强化学习(reinforcement learning),因为它们是我在这次论坛中参加的主要部分。 神经网络框架变得越来越复杂而精密 在感知、语言翻译等等方面的大部分最先进的神经
美国国家科学基金会(NSF)宣布投资1700万美元开展18项神经与认知系统前沿研究项目,如表1所示。这些项目来自于NSF的“面向理解神经和认知系统的综合战略”项目,属于人脑计划的一部分,主要包括四个主题:神经工程和脑启发概念与设计、个体化和差异性、在现实和复杂环境中的认知和神经过程、数据密集型科学和认知科学。其中,前两项主题已列于2015财年的人脑研究首轮资助项目中。 这些项目将探索从空间导航到内存优化到神经形态计算的基本科学和工程问题,基于超越传统观点和方法的综合战略构建跨学科的前沿研究。 表1 NSF资
【导语】本文带你以前所未有的方式了解深度学习神经网络,并利用NLP构建Chatbot!
我们的生活中总是充满了无尽的好奇与探索。在这个充满无数未知的宇宙中,我们的大脑无愧于是最复杂的存在之一。 本文将带领大家深入探究记忆、睡眠和情绪与大脑千丝万缕的关系,探寻我们心灵的奥秘。 记忆与大脑
这一研究科学解释了大脑与记忆的关键联系,有助于脑科学的研究与发展。 当人们在睡觉时,大脑并不是在休息。通过脑电波观察,研究人员发现在睡觉时,虽然人的脑电波运动很慢,但是神经元之间时刻在进行必要的信息交流,而这些交流恰恰是人们拥有记忆力的关键因素。 为了进一步探究睡眠中神经元的交流形式会不会造成老年人记忆丧失,加州大学伯克利分校神经学家Randolph Helfrich及其团队进行了一场记忆力测试,在测试前,研究人员将测试人员分为70多岁的老年人群体和20多岁的成年人群体两种。 测试中,研究人员将“bird”
焦虑是对压力的一种正常反应,具有某些益处。焦虑不仅能提醒你注意危险,还能帮助你做好准备并关注它们。
近日,据 Motherboard 等多家外媒报道,来自加州理工学院生物工程助理教授 Lu-lu Qian(钱璐璐)和她的学生 Kevin Cherry 共同开发出了一种由 DNA 制成的人工神经网络,可以正确识别分子数字。这项工作是人工智能与合成生物分子电路成功“合体”的重要里程碑。
文章节选自《深度学习入门之PyTorch》 欢迎留言! 对于人类而言,以前见过的事物会在脑海里面留下记忆,虽然随后记忆会慢慢消 失,但是每当经过提醒,人们往往能够重拾记忆。在神经网络的研究中,让模型充满记忆力的研究很早便开始了,Saratha Sathasivam 于1982 年提出了霍普菲尔德网络,但是由于它实现困难,在提出的时候也没有很好的应用场景,所以逐渐被遗忘。 深度学习的兴起又让人们重新开始研究循环神经网络(Recurrent Neural Network),并在序列问题和自然语言处理等领域取得很
Root 编译整理 量子位 出品 | 公众号 QbitAI 发际线后退就算了。 发现自己连记忆力也开始下降? 你可能需要电电自己的脑子了。 2月6号,宾大研究团队在Nature Communication上在线发表了一篇论文Closed-loop stimulation of temporal cortex rescues functional networks and improves memory。 论文指出他们所设计的AI调控的闭环系统,不仅可以监测人在记忆状态下的神经放电活动,还可以有针对性地刺激外
作者:Rohith Gandhi 机器之心编译 参与:Nurhachu Null、路 本文简要介绍了提升神经网络性能的方法,如检查过拟合、调参、算法集成、数据增强。 神经网络是一种在很多用例中能够提
晓查 发自 凹非寺 量子位 | 公众号 QbitAI 新冠重症危及生命,但新冠轻症也不容忽视,因为它会影响你的记忆力。 最近,一项来自牛津大学的研究发现: 患过新冠的人在长达6~9个月的时间里会表现出注意力和记忆力下降。 这篇论文已经发表在牛津大学的学术期刊Brain Communications上。 让人没想到的是,这篇论文的作者恰好是知乎著名答主赵思家。 于是有人就在知乎上提问,结果作者真的前来亲自解读论文。 让我们一起看看这篇论文到底说了啥。 论文内容 这项研究找来了126名志愿者,其中53人曾经患
Transformer是谷歌研究院在2017年提出的一种重要的神经网络结构,目前已广泛应用于自然语言处理领域。它的主要运行原理如下:
选自DeepMind 机器之心编译 近日,DeepMind在其官方博客上发表了一篇题为《Interpreting Deep Neural Networks using Cognitive Psychology》的文章,试图通过认知心理学来解决深度神经网络中的「黑箱问题」,随着神经网络被广泛应用于实际问题,这一问题正变得越发重要;并且在已被ICML收录的DeepMind最新论文《Cognitive Psychology for Deep Neural Networks: A Shape Bias Case S
Transformer正在席卷自然语言处理领域。 这些令人难以置信的模型正在打破多项 NLP 记录并推动最先进的技术发展。 它们被用于许多应用程序,如机器语言翻译、会话聊天机器人,甚至为更好的搜索引擎提供动力。
观看艺术通常被视为一种高度个人化和主观的体验。然而,是否有普遍的因素使一件艺术作品令人难忘呢?我们进行了三个实验,在这些实验中,我们记录了来自芝加哥艺术学院的4021幅画的在线记忆表现,在不受限制地参
时序连接序列(CTC)算法早期由Graves等人(2016)提出,用以训练循环神经网络(Cho 等,2014;Hochreiter 和Schmidhuber,1997),并直接标记未分割的特征序列。CTC 算法在多个领域均证明了它的优异性能,例如语音识别(Graves 等,2013;Graves 和Jaitly,2014)和联机手写文本识别(Graves等,2009;Graves,2012)。
安妮 编译自 NewScientist 量子位 出品 | 公众号 QbitAI 被遗忘的钥匙、一份重要的文件、怎么也想不起来的密码、迎面走来的熟人叫什么名字……这些记忆都被大脑扔到哪了?你抓了抓脑壳,
下图就是一些我们经常使用的激活函数,从这些激活函数的图像可以看出它们有的是局部线性的有的是非线性的,有的是一个函数表达式下来的,有的是分段的。但其表达式好像都不是很常见,给人一种应凑的感觉有没有?
大多数神经科学家相信大脑通过对自身重新布线,即不断改变脑细胞或神经元之间的联接强度,进行学习。但是瑞典的德隆大学在去年发布的实验结果,暗示我们应该改变做法。他们提出大脑以类似于计算机的方式进行学习:将
来自麻省理工学院(MIT)的工程师 Hanwool Yeon、Jeehwan Kim 等人设计了一种「片上大脑」,它比指甲盖还小,内含数十万人工突触(忆阻器),其「记忆力」要比我们所知的其他芯片强上不少。我们距离模拟人脑又近了一步?
1907 年德国神经病理学家阿尔茨海默 (Alois Alzheimer) 仔细描述了一名具有进行性痴呆表现的 51 岁妇女 (Auguste Deter) 的症状:
【导读】如何对时间序列进行时空建模及特征抽取,是RGB视频预测分类,动作识别,姿态估计等相关领域的研究热点。清华大学、Google AI 和斯坦福大学李飞飞团队提出了一种具有强记忆力的E3D-LSTM网络,用3D卷积代替2D卷积作为LSTM网络的基础计算操作,并加入自注意力机制,使网络能同时兼顾长时和短时信息依赖以及局部时空特征抽取。这为视频预测、动作分类等相关问题提供了新思路,是一项非常具有启发性的工作。
呜啦啦啦啦啦小伙伴们大家好呀!过去的一周中AI圈都发生了什么?大佬们讨论了哪些问题?研究者们发布了哪些值得一读的论文?又有哪些开源的代码和数据库可以使用了?快快跟随文摘菌盘点过去一周AI大事件! 新闻
前言:本文转载自知乎专栏RL in Robotics,作者刘浚嘉,我觉得这篇文章对于记忆系统的解释对于AI算法设计很有启发,神经科学对于大脑机制的研究会持续对AI理论和技术的发展产生深远的影响,就像已经发生过的CNN、注意力机制等等。
这几天的时间里看了一下关于分类算法的一些知识,趁热打铁写下博客来拯救下记忆力不好的自己,话不读多说,马上开始! 先说一下前提的题设条件.假设我们现在有了一封邮件,那么我们应该怎么根据这个邮件里的一些
---- 新智元报道 编辑:时光 【新智元导读】最近,斯坦福大学研究团队在Nature发文称,给老年鼠注入年轻鼠脑脊液可提升记忆力,这将逆转因年龄增长而出现的记忆衰退,不过,输注技术是高风险的。 几十年来,科学家们一直试图解开记忆衰退的奥秘,而这种衰退是与年龄增长有关。 现在,研究人员发现了一种可能的治疗方法,即从年轻者身上提取脑脊液,然后注射到年老者。 实验是在小鼠身上进行,从年轻鼠大脑中提取脑脊液,注入到年老鼠,这样便可以改善年老鼠的记忆功能。 就在几天前的5月11日,这一研究成果发表在《
自编码器是一种能够通过无监督学习,学到输入数据高效表示的人工神经网络。输入数据的这一高效表示称为编码(codings),其维度一般远小于输入数据,使得自编码器可用于降维(查看第八章)。更重要的是,自编码器可作为强大的特征检测器(feature detectors),应用于深度神经网络的预训练(查看第十一章)。此外,自编码器还可以随机生成与训练数据类似的数据,这被称作生成模型(generative model)。比如,可以用人脸图片训练一个自编码器,它可以生成新的图片。
从一开始的荒芜到现在的勃勃生机,人工智能在引领人们进入更迅速的发展轨道。然而,大家都不知道舆论憧憬的“未来”是虚还是实,大家都在想。技术奇点是否真的到来,又是喜还是忧……
人工智能的发展在运算智能和感知智能上已经取得了很大的突破和优于人类的表现,而在以理解人类语言为入口的认知智能上,现在计算机已经可以实现哪些事情,未来这方面的突破和技术落地又集中在哪里? 5月25日,在
明敏 金磊 发自 凹非寺 量子位 | 公众号 QbitAI “老喽,记不住喽。” 随着年龄的不断增长,不少人都会发出这样的感叹——记忆力逐渐下降。 那么是否存在一种方法,可以让这种自然现象“逆天改命”呢? Nature说:有的。 斯坦福大学在Nature最新发表的一项研究发现: 将年轻小鼠的脑脊液(CSF)注射到老年小鼠的大脑中,它的记忆力居然提升了! 具体来说,40%的老年小鼠在植入“小鲜肉”们的脑脊液几周后,还能回想起之前体验过的应激实验。 相比之下的对照组,那一波老年小鼠的这个数据仅为18%。 (
近日,来自英特尔和康奈尔大学的研究者宣布,团队已经在神经形态芯片 Loihi 上成功设计了基于大脑嗅觉电路的算法,实现了在线学习和强记忆力能力。这项研究发表在最新一期自然杂志子刊上《Nature Machine Intelligence》上,并成为封面文章。
【新智元导读】神经科学家能通过扫描大脑知道一个人的智力水平,不仅如此,只需通过扫描大脑,还能够知道一个人的长处和短处。耶鲁大学的研究人员通过一系列不同的测试来评估参与者的记忆力、智力、运动能力和抽象思维能力。他们发现,每个人的连接体都是独一无二的,就如指纹一样。根据大脑的扫描成像,研究者能区分每一个参与者,准确率达到 99%。 你觉得你在某方面非常有天分吗?比如非常擅长某种乐器、某类运动,或某个科目,例如数学?这些“天分”可能跟你的大脑的连接方式有关。不同的人有不同的天分。这些“天分”存储于大脑的不同位置,
领取专属 10元无门槛券
手把手带您无忧上云