二十几天前,Reddit 用户「ContributionSecure14」在机器学习社区疯狂吐槽:「我花了一个星期尝试复现一篇论文,结果失败了。上网搜了一下才发现,也有其他人说这篇论文的结果无法复现。」
想象一下,你是一位从事机器学习的研究者,需要持续了解最前沿研究进展;或者你希望将最前沿的机器学习研究应用于自己从事的领域。为此,当你在浩瀚无边的论文海洋中畅游时,你最需要的找到的是 SOTA 论文。
最近被一个刚接触机器学习不久的同学问了一个问题:机器学习是不是调调包就行了,感觉门槛也没那么高。借着这个问题我谈谈我个人的看法,同时也给刚入门机器学习的同学提一些学习的建议。
眼下,人工智能已经成为越来越火的一个方向。普通程序员,如何转向人工智能方向,是知乎上的一个问题。本文是我对此问题的一个回答的归档版。相比原回答有所内容增加。
原文地址:http://www.cnblogs.com/subconscious/p/6240151.html 眼下,人工智能已经成为越来越火的一个方向。普通程序员,如何转向人工智能方向,是知乎上的一个问题。本文是我对此问题的一个回答的归档版。相比原回答有所内容增加。 一. 目的 本文的目的是给出一个简单的,平滑的,易于实现的学习方法,帮助 “普通” 程序员踏入AI领域这个门。这里,我对普通程序员的定义是:拥有大学本科知识;平时工作较忙;自己能获取的数据有限。因此,本文更像是一篇 “from t
眼下,人工智能已经成为越来越火的一个方向。普通程序员,如何转向人工智能方向,是知乎上的一个问题。本文是我对此问题的一个回答的归档版。相比原回答有所内容增加。 一. 目的 本文的目的是给出一个简单的,平滑的,易于实现的学习方法,帮助 “普通” 程序员踏入AI领域这个门。 这里,我对普通程序员的定义是:拥有大学本科知识;平时工作较忙;自己能获取的数据有限。因此,本文更像是一篇 “from the scratch” 的AI入门教程。 二. AI领域简介 AI,也就是人工智能,并不仅仅包括机器学习。曾经,符号与逻辑
本文的目的是给出一个简单的,平滑的,易于实现的学习方法,帮助 “普通” 程序员踏入AI领域这个门。
近年来,机器学习在学术研究领域和实际应用领域得到越来越多的关注。但是,在生产系统中部署机器学习模型存在许多问题和担忧。近日,来自剑桥的研究者做了一项调查,综述了在各个用例、行业和应用中部署机器学习解决方案的报告,并提取了机器学习部署工作流程各阶段需要实际考量的因素。
眼下,人工智能已经成为越来越火的一个方向。普通程序员,如何转向人工智能方向,是知乎上的一个问题。本文是我对此问题的一个回答的归档版。相比原回答(https://www.zhihu.com/question/51039416/answer/138535202 )有所内容增加。 一、目的 本文的目的是给出一个简单的,平滑的,易于实现的学习方法,帮助 “普通” 程序员踏入AI领域这个门。这里,我对普通程序员的定义是:拥有大学本科知识;平时工作较忙;自己能获取的数据有限。因此,本文更像是一篇 “from the s
在生产环境中部署机器学习模型是一个复杂的过程,需要考虑诸多因素,也存在很多挑战。近日,来自剑桥的研究者梳理了该流程常见的问题。
近日,一位来自传统行业的从业者观察了机器学习研究社区的现状,发现了一些问题并在 reddit 上发帖,不少机器学习从业者也纷纷表达观点,参与讨论。
眼下,人工智能已经成为越来越火的一个方向。拥有编程基础、具备数学思维的普通程序员在这波AI浪潮中占据了得天独厚的转行优势,相比其他基础薄弱的转行人员,程序员只需花更多精力聚焦"如何转向人工智能方向"便可以轻松驶向AI工程师的赛道。 本人也算是一名普通程序员,也刚转入AI领域,因此结合自身经验,想回答这个问题。我的回答有以下特色:较为简单,介绍学习资源不多,但有主次之分。 目的 本文的目的是给出一个简单的,平滑的,易于实现的学习方法,帮助 “普通” 程序员踏入AI领域这个门。这里,我对普通程序员的定义是:
编辑/凯霞 机器学习在加速材料研究方面具有巨大潜力。材料科学的许多领域都从它的应用中受益,但仍然存在一些挑战,该领域是否会像围绕它的大肆宣传那样,还有待观察。 机器时代即将来临。当我们提出材料科学中机器学习的焦点问题时,我们很清楚算法可以为其编写合理的开篇社论。毕竟,它不会是第一次写文章,或者就此而言,甚至也不是第一次写书。 你可以询问 Alexa 或 Siri,它会使用它的机器学习算法为你找到一些关于人工智能的好处和危险的文章。根据你过去的搜索以及他们对你的兴趣所揭示的内容,它可能会继续推测是否有太多
2013年才举办第一届的ICLR(The International Conference on Learning Representations)发展迅猛,如今已成为是最重要的国际机器学习会议之一,甚至可以和ICML,NeurIPS和CVPR这些老牌著名会议相提并论。
您需要了解哪些算法在那里,以及如何有效地使用它们。
本文的目的是给出一个简单的,平滑的,易于实现的学习方法,帮助 “普通” 程序员踏入AI领域这个门。这里,我对普通程序员的定义是:拥有大学本科知识;平时工作较忙;自己能获取的数据有限。因此,本文更像是一篇 “from the scratch” 的AI入门教程。
尤其是论文,他骂道:“最讨厌的就是那种,高高在上、假装清高、站着说话不腰疼、戳不到痛点的论文。比如那一堆只能在理论中刷存在感,实际落地中只能‘呵呵哒’的论文,根本就是浪费时间。”
营长的一位转型AI的朋友,最近对营长抱怨,“走过的最远的路,就是机器学习过程中的弯路”,然后开始各种blablabla,从论文的坑,到模型的坑,再到培训的坑...一路吐槽。 尤其是论文,他骂道:“最讨厌的就是那种,高高在上、假装清高、站着说话不腰疼、戳不到痛点的论文。比如那一堆只能在理论中刷存在感,实际落地中只能‘呵呵哒’的论文,根本就是浪费时间。” 的确,对于现在刚刚入行的机器学习新人来说,不怕吃苦,但最怕走弯路,最怕白白浪费时间。 那么,总结起来,都有怎样的弯路呢?来看几位点赞量颇高的知乎答主的总结
最近一位转型AI的朋友抱怨,“走过的最远的路,就是机器学习过程中的弯路”,然后开始各种blablabla,从论文的坑,到模型的坑,再到培训的坑...一路吐槽。
小编邀请您,先思考: 1 您擅长那种编程语言? 2 您了解深度学习,机器学习和人工智能吗? 我曾经也只是一个只懂 ACM 竞赛相关算法的普通程序员,误打误撞接触到了数据挖掘,之后才开始系统地了解机器学习相关的知识,如今已经基本走上了正轨,开始了走向 Data Scientist 的征途。 但是最高赞的一篇回答居然是关于 Deep Learning 的,这感觉就想是有人问我这山地车好高级,能不能教我怎么换挡,我告诉他说,这车太low了,我教你开飞机吧。我想即使目前开飞机(Deep Learning)的门槛一
选自 Medium 作者:Nityesh Agarwal 机器之心编译 参与:刘晓坤、李亚洲 在读完书或者完成深度学习在线课程之后,如何才能继续学习机器学习?如何才能「自给自足」地理解这一领域的最新突破?答案就是读论文,机器学习领域的论文是所有前沿思想与技术的孵化所。大多数深度学习概念与技术都是近几年提出来的,想要深入理解它们就必须要看原论文,而不能仅仅关注在线课程、博客甚至是书籍,只有论文才是根本。 在一个 Quora 问答《I want to pursue machine learning as a c
在本文的上篇,我们尝试分别从机器学习算法、计算语言处理、计算机视觉及机器人分领域对ML算法发展趋势进行总结。在本文的下篇,我们尝试打破领域的边界,形成一份全局性的总结。本文仅选取分析结论部分,详细数据及分析过程将收录在《2021-2022年度 AI科技发展趋势报告》完整版中。
这几年,AI的趋势只增不减,每年各大机器学习会议开得那叫一个如火如荼,大家仿佛都对这个领域永远充满了旺盛的探索欲。
作者 | George 译者 | 张健欣 策划 | 凌敏 在 Mindsdb 从事 3 年自动机器学习工作后,我辞职了,至少我不会在短时间内从事任何与机器学习相关的职业工作。掐指一算,我已经做了 5 年机器学习研究,但直到今天,我才终于搞清楚了很多自己之前不知道的事物,甚至我还可能觉察到一些别人不知道的东西。 本文总结了我从事机器学习工作以来总结到的收获,请不要将这当作“专家总结”,你可以把它想象成局外人的一件艺术作品——一个对时代精神进行了不同寻常的深入研究,却没有成为“社区”一部分的某个人的收获。 1机
以机器/深度学习和生理信号分类为主题,整理了近10年的500余篇学术论文,涵盖了13种不同的分类任务、10余种典型的分类模型以及4种不同类型的信号。作者把论文整体的统计分析结果和全部论文列表放到了Github上贡献给相应领域研究者。
机器之心报道 编辑:杜伟 近日,机器学习资源网站 PapersWithCode 上线了一项新功能,对于其举办的论文复现挑战赛 RC2020 中提交的一些论文,它们将提供详细的复现报告。这是 ML 社区重视「研究论文可复现性」的新信号。 现在,越来越多的机器学习(ML)研究者选择在论文发表时同步公开自己的代码,像 arXiv 这样的论文预印本平台也选择与机器学习资源网站 Papers with Code 合作,支持研究者在 arXiv 页面上添加代码链接。ICML、ICLR、NeurIPS 等一些顶会也要求
这是一个非常难写的文章,因为我希望它是真正有价值的。
Yoshua Bengio:深度学习先驱,蒙特利尔大学计算机系教授,2019 年图灵奖获得者。
机器学习领域在过去几十年中经历了巨大的变化,不可否认的是,虽然有些方法已经存在了很长时间,但仍然是该领域的主要内容。例如,最小二乘法( least squares)的概念在19世纪早期由勒让德和高斯提出,最基本的形式的神经网络( neural networks)早在1958年就引入的,并在过去的几十年中大幅提升、支持向量机(SVM)等方法则更是较新的方法,这些方法仍然占据了机器学习领域应用中的半壁江山。 随着科研的进行,有大量可用的监督学习方法被发明。使用者通常会提出以下问题:什么是最好的模型?众所周知,这个问题没有标准答案,因为模型的有用性取决于手头的数据以及具体处理的问题,合适的就是最好的。那么,可以转换下思路,换成这个问题:最受欢迎的模型是什么?这将是本文的关注点。
机器学习资源网站 Papers with Code 自创立以来,凭借丰富的开放资源和卓越的社区服务,成为机器学习研究者最常用的资源网站之一。2019 年底,Papers with Code 正式并入 Facebook AI。最近,它又有了新举措:与论文预印本平台 arXiv 展开合作,支持在 arXiv 页面上添加代码链接。
转了一篇对于ML的职业发展tips的文章,可以读读,里面的一些对于学习机器学习的方法还是可以借鉴呢。
俗话说,有人的地方就有江湖,就会充斥着各种立场和利益纠纷。科研领域亦如此,机器学习社区近来掀起来的一系列关于种族偏见的热议就是鲜活的例证。我们先回顾一下这件事情的来龙去脉:
现在,越来越多的机器学习(ML)研究者选择在论文发表时同步公开自己的代码,像 arXiv 这样的论文预印本平台也选择与机器学习资源网站 Papers with Code 合作,支持研究者在 arXiv 页面上添加代码链接。ICML、ICLR、NeurIPS 等一些顶会也要求投稿人在提交论文的时候附上代码,以供审稿人测试,确保其研究结果的可复现性。
选自phys.org 作者:Lisa Zyga 机器之心编译 参与:吴攀、李亚洲 物理学家已经开发出了一种可以处理无限维度(infinite dimensions)的量子机器学习(quantum machine learning)算法,也就是说:该算法可以处理连续变量(在一个闭合区间内拥有无限多个可能值),而不是通常使用的离散变量(只有有限数量的值)。Hoi-Kwan Lau 等研究者已经将该研究的相关论文发表到了最新一期 Physical Review Letters 上。机器之心对该论文进行了摘要介绍
机器之心报道 机器之心编辑部 CMU 机器人研究所张昊(Hao Zhang)博士论文新鲜出炉,主要围绕着机器学习并行化的自适应、可组合与自动化问题展开。 随着近年来,机器学习领域的创新不断加速,SysML 的研究者已经创建了在多个设备或计算节点上并行机器学习训练的算法和系统。机器学习模型在结构上变得越来越复杂,许多系统都试图提供全面的性能。尤其是,机器学习扩展通常会低估从一个适当的分布策略映射到模型所需要的知识与时间。此外,将并行训练系统应用于复杂模型更是增加了非常规的开发成本,且性能通常低于预期。 近日,
文章目录 一、前言 二、主要内容 🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/ ---- 一、前言 探索更高效的学习方法可能是有志者共同的追求,用好 ChatGPT,先行于未来。 📷 作为一个人工智能大语言模型,ChatGPT 可以在帮助初学者学习和实践机器学习方面发挥重要的作用。以下是一些 ChatGPT 可以做的事情: 提供基础知识:ChatGPT 可以回答关于机器学习的基本问题,例如什么是有监督学习、无监督学习、强化学习等等。初学者可以通过与 ChatGPT
科研人员进入领域时的初衷是「伟大」的:他们相信,机器学习能够真正的改善人们的生活。所以每年机器学习有关的顶会投稿数目几乎是成倍的增长,这些新的科研成果似乎真的能带来一个更好的未来。
【新智元导读】吴恩达刚刚在Quora做了一次最新session,重点回答了如何学习机器学习/深度学习,以及如何从事机器学习方向工作的问题。吴恩达认为,复现他人发表的结果是一个掌握机器学习非常有效但却被低估的方式;任何人都能成为机器学习专家,要做的只是不断学习,让自己越来越够格。 深度学习泡沫何时会破? 大约100年前关于电力也有很多炒作。那个泡沫现在也还没破,我们发现电力很有用! 讲真,深度学习已经创造了大量的价值——用于网络搜索,广告,语音识别,推荐系统等等——这些显然是不会消失的。深度学习,还有更广泛的
AI 科技评论按:「没有免费的午餐定理」一度是机器学习界最常被谈起的定理之一(真正长期被谈起的自然是「更多的数据等于更好的表现」)。不过机器学习科学家 Andreas Mueller 最近撰文表示大家都引用错定理了,其实事情比这更复杂,也有更深远的启示。
这是回到学校的时间,这里有一些论文让你在这个学年忙碌。 所有论文都是免费的。 这份清单远非详尽无遗,但这些是数据科学和大数据方面的一些重要论文。
NeurIPS 2019 已经在温哥华接近尾声。作为人工智能和机器学习领域最顶级的盛会之一,本届大会参会总人数已经超过 13000 人,比去年增加了 50%。
既然你已经在阅读这篇文章了,那么你可能已经知道该领域的先驱之一Andrew Ng是谁,并且你可能对会对他关于如何建立机器学习职业生涯的建议感兴趣。
AI科技评论按:如果说起谷歌,想必你一定不会忽略Google Brain(谷歌大脑团队)。谷歌大脑在2011年初由吴恩达、Jeff Dean牵头组成,并在后来相继有了 Greg Corrado、Quoc Le、Geoffrey Hinton等重量级大牛的加持,逐渐成长为谷歌真正的“大脑”。毫无疑问,谷歌大脑是谷歌至关重要的科研核心部门,也是全球工程师梦寐以求的乌托邦。 在回顾去年的研究历程时,Jeff Dean曾撰文动情地表示: “谷歌大脑团队的宏愿一如既往:团队致力于通过多领域的纯研究及应用性研究,创造更
专为机器学习初学者推荐的优质学习资源,帮助初学者快速入门。 这篇文章的确很难写,因为我希望它真正地对初学者有帮助。面前放着一张空白的纸,我坐下来问自己一个难题:面对一个对机器学习领域完全陌生的初学者,我该推荐哪些最适合的库,教程,论文及书籍帮助他们入门? 资源的取舍很让人纠结,我不得不努力从一个机器学习的程序员和初学者的角度去思考哪些资源才是最适合他们的。 我为每种类型的资源选出了其中最佳的学习资料。如果你是一个真正的初学者,并且有兴趣开始机器学习领域的学习,我希望你能在其中找到有用的东西。我的建议是,选
今年和往年一样,也是一篇获奖论文和两篇亚军(Runners Up),均从ICML 2023的论文集中选出,“在过去10年里持续产生影响力”。
Papers with Code果真是AI领域的学术神器,前段日子,刚和arXiv联手推出了代码链接功能,让研究er们在上传arXiv论文的时候,顺便提提交一下代码。今日,又把机器学习数据集一网打尽。
arXiv.org 很多人都知道,是一个专门收集物理学、数学、计算机科学与生物学论文预印本的网站。数据显示,截至 2014 年底的时候,arXiv 已经达到了一百万篇以上的论文藏量,并且还在以每月 8000 篇的速率增长。算是目前全球最具规模的论文数据库之一。 近日,李飞飞高徒、斯坦福大学博士生、OpenAI 的高级科学家 Andrej Karpathy 基于一份 arXiv 机器学习论文大数据,从论文数量、开源框架、数学模型和优化算法等多个方面对过去五年中的机器学习变化趋势进行了详细分析,并将分析结果发布
领取专属 10元无门槛券
手把手带您无忧上云