在同行评审期刊上发表论文的基本原则是,对方法进行充分描述以确保可重现性。因此,对于基于机器学习的研究,必须提供模型和架构的完整源代码,包括数据处理,数据清洗,模型训练和模型评估的实现细节。如果可以的话,还应该在许可的或开源许可下发布源代码,以便其他人可以重复使用,改进,协作并进一步为您的工作作出贡献。 您发布的源代码必须是完整的——也就是说,其他人应该能够逐行阅读您的源代码,执行该源代码,并获得与您相同或相似的结果。您必须列举出所需的库和其他软件的依赖项,最好列出相关的版本号。理想情况下,这些依赖项将列在“环境文件”中,其他人可以使用这些文件在其他本地系统上直接创建可运行的软件环境。如果您有使用其他人开发的任何代码或者软件包,请确保遵守其许可证。您还可以考虑将代码托管在线,如版本控制的存储库中,比如著名的GitHub, GitLab, Bitbucket, DLHub 或其他类似的在线版本。 请确保源代码文件齐全,并遵循完善的代码标准。与其编写额外的注释来解释您的代码,不如考虑以某种不需要附加注释的方式来编写代码。(当然在代码中注释是相当重要的)这需要使用明确的变量名,严格遵循格式标准(例如PEP8)并编写“显式”代码。最好添加一个“README”文件,为您的读者提供有关安装、设置、使用代码以及拷贝已发布版本的说明。为了明确在任何基础系统架构上的大规模可部署性和一致性,还可以考虑使用Docker等工具将项目作为容器化的应用程序发布。
神经网络训练中 “权重” 有多重要不言而喻。但谷歌前段时间发表的研究表明,即使抛弃神经网络权重训练,使用随机共享权重,也可以执行各种任务。
艺术源于生活,它诠释了我们在生活中的经历与情感。那么我们能搭建一个AI艺术家吗?答案是肯定的。这听起来很不可思议,我们可以使用一个艺术家的风格来训练出一个神经网络,然后让它将艺术家的画风迁移到指定的图片上。 这一切都是从谷歌研究团队公布的一篇关于“inceptionism”的博客开始的。他们使用大量的图片数据训练了一个深度卷积神经网络,它可以识别出日常生活中的一些东西,比如狗或者建筑物。一旦神经网络可以识别物体了,他们给神经网络一张小说插图,如果它在图中看到能够识别的物体,比如一朵很像狗的云,那么它就
无论是图像分类还是强化学习,在通过训练神经网络来完成一项给定任务时,都需要对神经网络中每个连接的权重进行调优。
在前面的小节中,我们仅仅泛泛而谈了机器学习、深度学习等概念,在这一小节,我们将给出它的更加准确的形式化描述。
AiTechYun 编辑:xiaoshan 在2015年,谷歌曾尝试去想象神经网络如何理解产生了迷幻图像的图像。不久之后,谷歌把其代码开源为“DeepDream”,它发展成为一个小型的艺术运动,产生各
新智元编译 来源:science、futurism 编译:克雷格、Marvin 【新智元导读】过去几年发表的AI顶会论文提出的400种算法中,公开算法代码的只占6%,只有三分之一分享了测试数据,只有一半分享“伪代码”。这是今年AAAI会议上一个严峻的报告。科学家们正在通过“可复现性挑战”鼓励复现新算法,或研究依据论文自动生成代码的工具。AI将在未来扮演越来越重要的角色,我们需要信任这些AI,那么我们必须能够复现它。一个幽灵正在AI领域上空徘徊:复现的幽灵。 科研方法认为,科学研究应该可以让其他研究人
大多数神经网络结构使用一些中间表示来捕获、控制源身份s和目标身份t的面部结构、姿势和表情等。
神经网络作为Uber机器学习系统的基础,在解决复杂问题——包括图片识别、语言理解和人机博弈方面均表现出色。不过这些神经网络通过梯度下降法到达一个停止点,逐步基于其多重训练中的表现来调整网络连接,而一旦训练结束,网络被固化,连接无法再改变,阻碍了之后的重训(仍需许多例子),也就是说,这一网络在训练结束后便终止了学习。 相比之下,生物大脑具有可塑性,神经元间的连接能够不断适应变化的生活,使生物能够迅速高效从持续的经验中学习。大脑不同区域和连接的可塑性水平不同,正是上万年进化过程的选择,让生物在有限的生命中能
在机器学习问题中,要求模型执行两个相互矛盾的任务:1. 最小化训练数据集上的预测误差 2. 最大化其对看不见的数据进行泛化的能力。根据模型,损失函数和评估方法的测试方式不同,模型可能最终会记住训练数据集(不良结果),而不是学数据的充分表示(预期结果)。这称为过拟合,通常会导致模型的泛化性能下降。过拟合可能会在各种模型上发生,尽管通常会在较复杂的模型上,例如随机森林,支持向量机和神经网络。 在模型训练期间,请在训练和验证集上观察训练指标,例如您的损失输出和r得分。比如,在训练神经网络时,您可以使用学习曲线在训练过程中跟踪每个周期的验证错误。理想情况下,随着模型的训练,验证和训练误差将会减少,您的训练误差将接近零,但这并不是我们关心的指标!您应该更密切注意验证集的错误。当您的验证错误再次增加而训练错误继续减少时,您可能会记住训练数据,从而过度拟合了数据。 过拟合可能会对模型的泛化能力产生不利的影响。也就是说,为新的和看不见的数据返回不合理的输出预测,从而使测试数据集的效果较差。如果您发现模型非常容易拟合训练数据,请考虑降低模型的复杂度或者使用正则化。
从基于jetson的服务robodog,到能够即时检测血液中癌症的算法,这些都是今年在NVIDIA开发者新闻中心报道的十大AI开发者故事。
利用卷积神经网络和最先进的图像识别技术,经典老电影将有可能重现光彩。神经网络可以优化图像质量,减少电影噪声,并为老化图像上色。
【新智元导读】 谷歌研究院的官方博客最新介绍了一种基于神经网络的自拍卡通头像生成技术,可直接在谷歌的应用程序Allo上使用,目前只支持安卓。 自拍、欣赏自拍和分享自拍,已经成了许多人的日常习惯——在车上自拍,穿衣自拍,旅行自拍,起床也自拍。除了社交功能,给自我一个肖像长期以来一直是人类探索自我身份的重要手段。对于一些人来说,这是要弄清楚自己是谁的问题。对于另一些人来说,则是要如何塑造自我形象的问题。当然,有时二者兼而有之。 自拍是非常直接的表达形式。它附带了一套由现实界定的规则。另一方面,它有助于人们界定
今天给大家介绍来自苏黎世联邦理工学院的José Jiménez-Luna、Gisbert Schneider,以及勃林格殷格翰药业有限公司的Miha Skalic、Nils Weskamp四人联合发表在JCIM期刊上的一项研究成果《Coloring Molecules with Explainable Artificial Intelligence for Preclinical Relevance Assessment》。该研究通过将积分梯度可解释人工智能(XAI)方法应用于图神经网络模型,提高了理性分子设计的建模透明度,并基于四个药理学相关ADME终点的实验,验证了所提出的方法能够突出与已知药效团基序一致的分子特征和结构元素,正确识别性质断崖,并提供了对非特异性配体-靶标相互作用的见解。
当时我学习Deep Learning已有两个月,看了很多论文、教程与博客,于是尝试着去阅读Keras的源代码来学习别人是怎么实现的,尤其是back propagation这一块。
【新智元导读】神经网络模型的可视化是解决其黑箱问题的一个解决方案,但用于神经网络可视化的大多数工具集中在图像数据集上,这激发了 Facebook 和 Georgia Tech 一道开发了一款称为 ActiVis 的开发工具的研究,这是一个用于解释大规模神经网络模型和结果的交互式可视化系统。ActiVis 将用户指定的实例或实例子集如何激活神经元进行可视化,以帮助用户了解模型如何生成其预测。用户可以自由地定义具有原始数据属性、变换特征和输出结果的子集,从多个角度实现模型检查。 关于神经网络的“黑箱”问题已经
场景描述:利用神经网络将人说话时,相应大脑区域的神经信号进行解码,然后使用循环神经网络将信号合成为语音,可帮助语言障碍患者解决语言沟通问题。
英特尔人工智能实验室已经开源了一个用于自然语言处理的库,帮助研究人员和开发人员为聊天机器人和虚拟助手等会话智能体提供运行所必需的功能,例如名称实体识别,内涵提取和语义分析,以从会话中识别人们想要做出的行动。
很多情况下,研究人员会遇到一个问题:使用机器学习框架实现的神经网络可能与理论模型相去甚远。验证这款模型是否可靠,直接方式就是不断修正和调参。
卷积神经网络又称作(ConvNet, CNN),它的出现解决了人工智能图像识别的难题,图像识别数据量大,并且在识别的过程中很难保留原有的信息,因此卷积的作用就体现在这里。比如我们经常说的像素,100W像素,那就是,1000X1000个像素点,同时每个像素点上有3个颜色参数,分别为红、绿、蓝。那么处理一张100w像素的图片,就需要输入300w个参数,这还是100w像素的图片,现在看看自己手机的照片,随便一张都是千万级别的,因此图片数据需要降维。
研究人员正在扫描人脑和从中提取可用信息方面取得重大进展。这一技术被称为脑解码,可以帮助治愈一些失明病症,利用大脑作为输入设备来控制电脑和其他设备。根据Engadget的报道,脑解码中使用的技术之一是功
众所周知,动物与生俱来就有独特能力和倾向,马出生后几个小时就能走路,鸭子孵化后很快就能游泳,而人类婴儿会自动被脸吸引。大脑已经进化到只需很少或根本没有经验就能承担起这个世界,许多研究人员希望在人工智能中重现这种自然能力。
如今深度学习技术渗透到现实世界的每一个角落,传统理工科方向纷纷靠拢深度学习,最终他们是否也能席卷设计人文等等学科呢?
#Swift for TensorFlow Swift for TensorFlow 为 TensorFlow 提供了一种新的编程模型,将 TensorFlow 计算图与 Eager Execution 的灵活性和表达能力结合在了一起,同时还注重提高整个软件架构每一层的可用性。 本项目的设计基础是 Graph Program Extraction 算法,它可以让你用 Eager Execution 式的编程模型来轻松地实现代码,同时还保留 TensorFlow 计算图的高性能优势。此外,本项目还将高级的自动
去年 5 月,曾向大家推荐一款名为 ML Visuals 的机器学习画图模板,该项目受到广泛关注,迄今已收获 2.2K Star。ML Visuals 专为解决神经网络画图问题设计,最近,这一模板进行了更新。
来源:NYT,arXiv 编译:闻菲、刘小芹 【新智元导读】《纽约时报》今日发文,记者走访Hinton在多伦多的实验室,为我们带来Hinton新作“Capsule Network”的更多信息。同时,新智元注意到Hinton和Capsule Network作者之一的Nicholas Frosst最近新发表了论文,使用训练好的神经网络创建一种软决策树(soft decision tree),以此更好地理解神经网络如何做出分类决策。一方面推倒重建,一方面更好地理解,大神Hinton,一直奋斗在深度学习第一线。 2
Minigo —— 用纯 Python 实现的神经网络围棋 AI Github:https://github.com/tensorflow/minigo 这是一个基于 TensorFlow 用纯 Py
许多动物天生就具有某些能力。马可以在出生后数小时内行走,鸭子可以在孵化后很快游泳,人类婴儿刚出生就会啼哭。动物大脑已经进化为几乎不用通过学习就可以具有某项技能,许多研究人员希望在人工智能中重现这种自然的能力。
10月19日至20日,由工业和信息化部、江西省人民政府主办的2023世界VR产业大会在江西南昌召开。香港科技大学校董会主席、美国国家工程院外籍院士沈向洋出席本次大会,并在10月19日上午举行的开幕演讲中表示,相信未来,将会在真实世界中并存一个巨大的人工智能世界,人工智能体将连接人类世界与虚拟世界,参与到人类和自然界的交互过程。以下为沈向阳演讲要点:
前言:这个系列文章将会从经典的卷积神经网络历史开始,然后逐个讲解卷积神经网络结构,代码实现和优化方向。 (以下内容来翻译自斯坦福大学课程:http://cs231n.github.io/convolutional-networks/) 在卷积网络领域有几个有名字的体系结构。最常见的是: LeNet 卷积神经网络的第一批成功应用,是由 Yann LeCun 在 20 世纪 90 年代开发的。其中最着名的是用于识别邮政编码,数字等的LeNet架构。 AlexNet 首先让卷积神经网络在计算机视觉中流行的是由
https://www.kaggle.com/c/recognizing-faces-in-the-wild/data
【新智元导读】Gamalon的CEO和创始人Ben Vigoda近日放出豪言,说他和他的团队所采用的概率编程的技术, 终将在所有的应用中彻底取代神经网络——这有可能吗? AI非指一物,它涵盖了数个思想流派。Pedro Domingos在他的专著《终极算法》中,把它们称为AI部落。 如这位华盛顿大学的计算机学家所说,每个部落都采用了看上去非常不同的技术。比如进化论者,相信他们能够在数码世界中重现自然选择。符号论者则一条规则一条规则地把具体的知识编码到计算机中。 眼下,联结主义者吸引了全部眼球。他们培育了深度
本文共1700字,建议阅读6分钟。 本文为你精选近期Github上的13款深度学习开源工具包和数据集,一起Star和Fork吧~
项目地址:https://github.com/MarkPKCollier/NeuralTuringMachine
GAN的生成——对抗属性,让他一出生就具有强烈的造假能力,GAN最让人熟知的就是臭名昭著的Deepfake。
去年 5 月,机器之心曾向大家推荐一款名为 ML Visuals 的机器学习画图模板,该项目受到广泛关注,迄今已收获 2.2K Star。ML Visuals 专为解决神经网络画图问题设计,最近,这一模板进行了更新。
当前的基于 CNN 的图像识别模型确实能在许多任务中得到很高的识别准确率、也得到了许多实际应用,但 CNN 模型的泛化性和鲁棒性仍然远逊于人类视觉 —— 面对经过细微修改的、或者带有噪声的图像,人类的视觉识别几乎不受影响,而 CNN 的识别准确率则可能大幅波动;场景和视角也能显著影响 CNN 的表现,更别提从很少的样本学习物体识别了。
本文介绍了如何使用MXNet库创建前馈神经网络、卷积神经网络和递归神经网络,并使用示例数据集进行训练和预测。主要内容包括:定义神经网络层、选择激活函数、定义损失函数和优化器、训练神经网络、使用API进行预测以及创建混淆矩阵。
枯木逢春:深度信念网络 ---- 深度信念网络的基本概念和基本原理,其要点如下: 深度信念网络是一种生成模型,能够建立输入和输出的联合概率分布; 受限玻尔兹曼机是构成深度信念网络的基本单元,是由可见层
通过上一篇 13 驯兽师:神经网络调教综述,对神经网络的调教有了一个整体印象,本篇从学习缓慢这一常见问题入手,根据Michael Nielsen的《Neural Networks and Deep L
【新智元导读】随着GAN越来越多的应用到实际研究当中,其技术中的缺陷与漏洞也随之出现。从实际角度对GAN的当前状态进行深入挖掘与理解就显得格外重要。来自Google Brain的Karol Kurach等人重现了当前的技术发展水平,探索GAN的景观,并讨论常见的陷阱和可重复性等问题。
OpenAI训练了一个神经网络,却不愿意共享。为什么?这个神经网络能够凭借单个句子中生成完全的假新闻。换句话说,这可能成为批量生成假新闻的一种工具。
---- 新智元报道 编辑:袁榭 【新智元导读】最近,DeepMind的研究人员发表论文称,大型Transformer模型之所以处理自然语言的表现独佳,是由于人类语言的特殊统计学质性最适合。 众所周知,像GPT-3这种大模型,极为擅长写情诗、编故事,以及回答各种问题。 然而,同样的优异表现却很难在其他数据类型上重现。 为此,DeepMind在进行了一番研究之后发现:既有Transformer架构特征的贡献,自然语言本身特色的优势也不容忽视。 自然语言「非统一」性,暗合「小样本学习」 根据Deep
【导读】来自意大利米兰理工大学的 Maurizio 团队近日发表了一篇极具批判性的文章,剑指推荐系统领域的其他数十篇论文,指出这些论文中基于深度学习的推荐算法大部分都存在不同程度的数据集缺失和源码缺失,导致它们无法复现,而那些可复现的算法,其性能也难以达到预期,甚至难以超越基于传统的、简单的机器学习推荐算法。
作者 | 张玉宏 (一)一入侯门“深”似海,深度学习深几许 【导言】目前人工智能非常火爆,而深度学习则是引领这一火爆现场的“火箭”。于是,有关“深度学习”的论文、书籍和网络博客汗牛充栋,但大多数这类文章都具备“高不成低不就”的特征。对于高手来说,自然是没有问题,他们本身已经具备非常“深度”的学习能力,如果他们想学习有关深度学习的技术,直接找来最新的研究论文阅读就好了。但是,对于低手(初学者)而言,就没有那么容易了,因为他们基础相对薄弱,通常看不太懂。 于是,我们推出深度学习的入门系列。在这个系列文章
当网络的构造设计完成之后,深度神经的网络能够自发去分类、提取需要使用的特征,这就大大节省了人工获取特点以及设计分类装置的不必要程序。深度神经网络的学习方式使得识别器不会进入到常见的多层次网络,避免局部选择。并且深度神经网络在训练时不需要监督,同时也不需要标签,节省了标本取样的时间。在表达复杂函数时,深度神经网络由于不需要过多的神经元,因此,识别效率得到了极大提升。
即使在光线良好的情况下,酒杯的小瑕疵或隐形眼镜中的微小褶皱也很难找出。而在几乎完全黑暗的情况下,这种透明特征或物体的缺陷几乎不可能被发现。为了解决这个问题,麻省理工学院的工程师开发出一种能够在黑暗中揭示这些难以发现的细节的技术。
初学人工智能不久,今天碰上了人工神经网(ANN),开始学的时候很懵,一大堆理论、公式、推导…..作为一名小白,还是很痛苦的,不过经过摸索,大概了 解了什么是ANN,公式的推导以及一些其他问题,下面我就总结下自己的理解,一方面作为自己的笔记,日后方便巩固;另一方面,也可以分享给其他有意者。
领取专属 10元无门槛券
手把手带您无忧上云