聊天机器人并不是人类。语言学家 Emily M. Bender 非常担心 —— 当我们忘记这一点时会发生什么。 作者丨Elizabeth Weil 译者丨ChatGPT 编辑丨孙溥茜 ChatGPT 之风愈演愈烈,华盛顿大学语言学家 Emily M. Bender 公开反对让大模型(LLM)过度介入人们的生活。 谷歌和亚马逊在论文中提到,LLM 已经具有了思维链条(Chain of Thought,CoT),和自发性地结构涌现(Emergence),也就是说,LLM 开始学会了人类的“慢思考”思维模式,学会
大数据文摘授权转载自AI科技评论 作者:Elizabeth Weil 译者:ChatGPT 编辑:孙溥茜 ChatGPT 之风愈演愈烈,华盛顿大学语言学家 Emily M. Bender 公开反对让大模型(LLM)过度介入人们的生活。 谷歌和亚马逊在论文中提到,LLM 已经具有了思维链条(Chain of Thought,CoT),和自发性地结构涌现(Emergence),也就是说,LLM 开始学会了人类的“慢思考”思维模式,学会了基于逻辑推理的回答,而不再是单单基于直觉的回答。 作为一名语言学家,Bend
选自GitHub 机器之心编译 参与:吴攀 在正在举行的 WWDC 2017 上,苹果宣布发布了 Metal 2,详情可参阅机器之心的报道《苹果开发者大会 WWDC 2017:首次全面展示苹果的人工
“我们越来越趋向于一个接口,类似人与人互动的接口。我们的整个趋势是与机器的互动更加亲密,并且每个阶段,机器所做的事情越来越成为我们生活的核心。”——Paul Saffo,科技预言员,斯坦福大学 人类与机器人的连结 虽然未来不可能会给我们带来一个Bender Rodriguez,那个嗜酒如命、经常吸烟的高科技折弯机器人,在动画片Futurama中,它一直与人类工作和生活在一起,但可以肯定的是更多的人类与机器人的连结将会出现。 “我认为人们与机器人之间的关系形成非常自然。我们希望与技术有个相关体验。人们几
---- 新智元报道 编辑:David Joey 【新智元导读】AI冒充哲学家,成功率有多少?一半的人分不出来。 Daniel Dennett是一位哲学家,最近他有了一个「AI替身」。 如果你问他,人是否可以造出一个有信仰、有欲望的机器人,他会怎么说? 他可能这么答:「我认为,我们制造的一些机器人已经做到了。例如,麻省理工学院研究团队的工作,他们现在正在建造机器人,在一些有限和简化的环境中,机器人可以获得需要归结为认知复杂性的各种能力。」 或者,他也可能会这么说:「我们已经建立了真理的数字化生成
---- 新智元报道 编辑:David 武穆 【新智元导读】AI与深度学习如何彻底走出寒冬,终成「显学」?一切始于2012年AlexNet那篇论文,10年过去,今天的AI怎么样了? 2012年9月,一篇题为「用深度卷积神经网络进行ImageNet图像分类」的论文,让此前沉寂多年的人工智能领域热度骤起。 文中提出的AlexNet深度卷积神经网络,在当年的ImageNet分类任务比赛ILSVRC-2012上,以碾压之势轻松夺冠,大幅刷新了此前的SOTA。 说是碾压,毫不夸张。AlexNet一举将 to
AI 研习社按:移动设备相较于 PC ,携带便携,普及率高。近年来,随着移动设备的广泛普及与应用,在移动设备上使用深度学习技术的需求开始涌现。
八月,斯坦福大学的研究人员在arxiv 上传了一篇报告,宣布人工智能的新时代已经到来,一个建立在巨大的神经网络和数据海洋之上的时代。
自然语言处理(Natural Language Processing,NLP)领域的发展取决于语言资源的存在:书面、口头或手语的数字化资源集合,通常会带有高级的标签或者注释,反映了NLP系统对当前任务的预期输出(例如,语音识别系统的高级文本或者对话系统中高标准用户的意向标签,如Siri、Alexa或Google Home等)。无监督、弱监督、半监督或远程监督的机器学习技术降低了对标记数据的总体依赖性,但即使使用了这些算法,也还需要有足够的标记数据来评估系统的性能,并且通常需要更多的未标记数据集来支持需要大量数据的机器学习技术。
面对用户不断被Tiktok抢走,日活不断下降的现实,Meta给出的回应是——继续抄别家的产品。
自然语言并不等于英语。然而,目前NLP的研究中,大家潜意识里却认为英语是一种具有足够代表性的语言。而除英语以外的其他语言研究则通常被认为是“特殊语言”,在审稿人的眼中同等情况下对它们的研究则不如英语研究重要。这本质上是对语言的“以偏概全”。近日华盛顿大学语言学家Emily M. Bender为此撰写了一篇文章《The Bender Rule: On Naming the Languages We Study and Why It Matters》,指出其中存在的问题,以及提出对学习语言进行命名和标记的方案。AI科技评论对其文章做如下不改变原意的编译。
大数据文摘授权转载自AI前线 作者:Sharon Goldman 译者:核子可乐 策划:冬梅 2022 年,当我们回望这生机勃勃、万物竞发的 AI 黄金十年,新的问题涌上心头:我们可以从这十年来的深度学习发展之路中总结出什么?这一颠覆世界的革命性技术,未来又将何去何从? 人工智能(AI)先驱 Geoffrey Hinton 是十年前深度学习初创“革命”的开拓者之一。在他看来,未来 AI 技术的发展势头仍将一路加速。 2012 年,为 AI 带来首个重大突破的关键神经网络研究横空出世。而值此十周年纪念日之际,
Python 由于本身的易用优势和强大的工具库储备,成为了在人工智能及其它相关科学领域中最常用的语言之一。尤其是在机器学习,已然是各大项目最偏爱的语言。 其实除了 Python ,也不乏有开发者用其他语言写出优秀的机器学习项目。在此,列出其中一些个人认为值得关注的开源机器学习项目,比如C、C++、Go、Java、Javascript、PHP、Ruby、Objective C、Swift、Scala等等,看看人工智能的语言适配性吧~~~ ➤ 1、C Darknet —— 神经网络框架 https://g
Bender可作为个人书签及导航工具在家庭、个人和小型企业的使用场景中,都可以帮助用户组织和管理他们的书签,并提供快速访问和分组功能,提高效率和方便性。
选自venturebeat 作者:Sharon Goldman 机器之心编译 编辑:蛋酱、杜伟 深度学习未来会更好还是走下坡路?AI 圈先驱们展开了设想。 自 2012 年,以 AlexNet 为代表的深度学习技术突破开始,至今已有 10 年。 10 年后,如今已经成为图灵奖得主的 Geoffrey Hinton、Yann LeCun,ImageNet 挑战赛的主要发起人与推动者李飞飞如何看待过去十年的 AI 技术突破?又对接下来十年的技术发展有什么判断? 近日,海外媒体 VentureBeat 的一篇专访
选自AI Snake Oil 作者:Arvind Narayanan、Sayash Kapoor 机器之心编译 ChatGPT 代替程序员,是我们想多了? 在 OpenAI 发布 GPT-4 之后,一场有关「AI 取代人类劳动力」的讨论正变得越来越激烈。该模型的强大能力及其可能带来的潜在社会影响引发了很多人的担忧,马斯克、Bengio 等人甚至联名写了一封公开信,呼吁所有 AI 机构暂停训练比 GPT-4 更强的 AI 模型,为期至少 6 个月。 但另一方面,对于 GPT-4 能力的质疑也是此起彼伏。前几天
大数据文摘出品 作者:Caleb ChatGPT现在有多火相信大家已经是有目共睹。 根据ARK风险投资公司首席未来学家Brett Winton统计的数据,ChatGPT日活量突破千万,只用了不到两个月的时间。作为对照,上一个现象级软件Instagram达到这一成就花了355天。 1月中旬,《纽约时报》报道称,北密歇根大学的哲学教授Antony Aumann在世界宗教课程评分时,惊喜地读到了一篇“全班最好的论文”。学生用简洁的段落、恰当的举例和严谨的论据,探讨了罩袍禁令的道德意义。然而,在Aumann的追
The Gradient 是一个致力于让更多人轻松了解人工智能,并促进人工智能社区内讨论的组织。我们目前开展的项目包括 The Gradient 杂志、The Gradient 播客、The Update 通讯以及 Mastodon 实例 Sigmoid Social。
---- 新智元报道 编辑:袁榭 桃子 【新智元导读】谷歌雇员与人工智能聊天聊出真感情,称LaMDA模型已经觉醒出人类儿童的智能,此事在全球AI界引发讨论。Gary Marcus发文怒喷其胡说八道。 一夜之间,谷歌工程师与AI聊出感情在人工智能社区炸圈。 这个哥们叫Blake Lemoine,给近来大火的谷歌语言模型LaMDA做了一次采访后,更加相信LaMDA具有人格。 周日,Lemoine将自己和AI的聊天记录公布于众,在网上引起轩然大波。 这不,加里·马库斯(Gary Marcus)为了让
容器和 Ansible 可以很好地融合在一起:从管理和编排到供应和构建。在本文中,我们将重点介绍构建部分。
作为谷歌用来应对GPT-4的“杀手锏”,Gemini一经亮相就有了两个硕大的标签:超过人类专家,碾压GPT-4。随便单拎一条出来,都是目前其他大模型所不能比拟的成绩。
CADD 领域可以追溯到 70 年代后期个人计算机的出现。1981 年,CADD 登上了《Fortunate》杂志的封面,被誉为“下一次工业革命”。
我最近被问到,如果不是不可更改性(Immutability),那么区块链的意义是什么。 我之前写过为什么我不认为不可更改性是一个好的术语——因为不同的人对它有着不同的理解,一些情况下“不可更改性”描述的是资产(例如交易记录),而另一些情况下“不可更改性”仅仅是指“未能改进和创新”。 但是像区块链这样的共识系统的目的是什么呢?在我看来,其目的十分简单:区块链提供一种非强制性的方法以在一些事情上达成共识。区块链具有非强制性有以下两点原因:第一点,区块链上的操作是透明的,这意味着任何人都可以检查系统的当前状态
---- 新智元报道 编辑:Aeneas 【新智元导读】震惊,鹦鹉已经学会给自己的小伙伴打电话了!可别再说大语言模型是随机鹦鹉了。 大语言模型是随机鹦鹉?不,它们还差得远。 美国东北大学的研究人员发现,鹦鹉们想念自己的朋友时,会主动给朋友打视频。 LeCun转发了这篇文章,评论道:「称LLM为随机鹦鹉,真是对鹦鹉的侮辱。」 「随机鹦鹉」这个梗,出自华盛顿大学语言学家Emily M. Bender等人在21年发表的一篇论文《随机鹦鹉的危险:语言模型是否太大了?》。 随后,人们时常用这个梗来讽刺Ch
「arXiv 是个毒瘤,它以貌似实物出版的形式促进垃圾『科学』的传播,并一直在宣扬盲目跟风 + 任何超过 6 个月的内容都过时了的计算机科学文化。」
1. 从前,作者被禁止在审稿期间公开发布论文的非匿名版本(尤其是提交日期前一个月到accept的匿名期间)。
在Waymo,机器学习几乎在自动驾驶系统的每个部分都起着关键作用。它可以让汽车看到周围环境,感知和了解世界,预测其他人的行为方式,并决定他们的下一步行动。 感知:我们的系统采用神经网络的组合,以便我们的车辆能够识别传感器数据、识别物体并随着时间的推移跟踪它们,以便它能够深入了解周围的世界。这些神经网络的构建通常是一项耗时的任务;优化神经网络架构以实现在自动驾驶汽车上运行所需的质量和速度是一个复杂的微调过程,我们的工程师要完成一项新任务可能要花费数月时间。 现在,通过与Brain团队的谷歌AI研究人员合作,我们将前沿研究付诸实践,用来自动生成神经网络。更重要的是,这些最先进的神经网络比工程师手动微调的质量更高,速度更快。 为了将我们的自动驾驶技术带到不同的城市和环境,我们需要以极快的速度优化我们的模型以适应不同的场景。AutoML使我们能够做到这一点,高效,持续地提供大量的ML解决方案。
答:我在英国剑桥长大,很小的时候就对数学感兴趣。我喜欢做奥数题,本科时在剑桥大学学习纯粹数学。虽然数学很有意思,但我想研究一些与现实世界联系更强的东西,于是我转向了计算机科学(CS)。幸运的是,剑桥(有时被称为「硅沼泽」)也是科技聚集地,如微软的研究机构分支就在这里,因此我开始通过实习逐渐转向 CS。
一般认为计算语言学(CL)是语言学的一个分支,自然语言处理(NLP)是计算机科学的一个子学科。但是现在由于CL和NLP之间的界限越来越模糊,甚至两个领域的人常常去参加同样的会议,交流起工作来也完全没有障碍,于是一个问题出现了:NLP是跨语言学和计算机科学的交叉学科吗? 近日在NLP学术圈里,因为Twitter上的一个推文引发了对这个问题的一场小争论。 一、The Beginning 过程大概是这样的: 华盛顿大学著名的语言学教授Emily M. Bender在审核一篇跨语言应用的论文时,为作者数据集的混乱不
0x01 前言 继续上一篇的内容,往下闯关。想了解如何搭建的同学可参考第一篇文章。 看第一篇:黑客游戏 Owasp juice shop (一) 0x02 玩耍 第二十三关:Product Tampering 要求修改O-Saft商品的描述 这题参考第十八关XSS Tier 3,通过put方法修改0-Saft的商品描述 1.先找到该商品的id。 2.通过PUT修改该商品的描述,如下图。 📷 注意必须增加Content-Type该值必须设为application/json(之前会崩溃就是因为没设置这个值)。
选自news.northeastern 机器之心编译 机器之心编辑部 美国东北大学的研究人员称,鹦鹉学会了通过视频通话与其他鹦鹉聊天,然后发展友谊。 视频聊天在一定程度上拉近了人类之间的距离。但令人没想到的是,鹦鹉之间也能。就像下图,一只鹦鹉隔着屏幕在和对方进行视频聊天。 这是美国东北大学的研究人员与 MIT 和格拉斯哥大学的科学家合作进行的一项新研究。他们调查了一群被驯养的鸟类在使用手机或平板电脑进行视频聊天后会发生什么。 结果表明,视频通话可以帮助鹦鹉模仿鸟类在野外的交流方式,改善它们在主人家里的行
盖瑞·马库斯(Gary Marcus)贴上了这个图,配文是:「GPT在继续挣扎」。
---- 新智元报道 来源:外媒 编辑:LQ 【新智元导读】谷歌「解雇AI伦理学家Timnit Gebru」事件持续发酵,不仅引发了员工起义,也引起了国家劳工部门的诉讼,可谓是内忧外患。 圣诞假期临近,但谷歌却被持续的内忧外患所笼罩。 近日解雇AI伦理学家Timnit Gebru导致了谷歌内部员工起义的爆发;在解雇事件当天,谷歌还遭美国国家劳工关系委员会(NLRB)提起诉讼,其指控谷歌非法监视雇员,报复性解雇有兴趣加入工会的雇员,也和Timnit Gebru有关。 周三,美国包括德克萨斯州在内的1
AI 科技评论按:继 2017 年的温哥华之旅后,ACL 2018 在澳大利亚墨尔本举办,举办地点为墨尔本会展中心,也是 IJCAI2017 举办地。
0x01 前言 继续上一篇的内容,往下闯关。想了解如何搭建的同学可参考第一篇文章。 看第一篇:黑客游戏| Owasp juice shop (一) 0x02 玩耍 第二十三关:Product T
2022 年 1 月 17 日,剑桥——人工智能 (AI) 正在为语音和图像识别铺平道路,AlphaFold DB的推出彻底改变了蛋白质结构预测。然而,当涉及到其他领域,包括转化为药物发现时,该技术似乎落后了。尽管有大量媒体关注其加速这一领域的潜力,但人工智能尚未被证明是一种有效的解决方案。人工智能需要改变什么来推动药物发现?
来源:机器之心本文约1800字,建议阅读5分钟美国东北大学的研究人员称,鹦鹉学会了通过视频通话与其他鹦鹉聊天,然后发展友谊。 视频聊天在一定程度上拉近了人类之间的距离。但令人没想到的是,鹦鹉之间也能。就像下图,一只鹦鹉隔着屏幕在和对方进行视频聊天。 这是美国东北大学的研究人员与 MIT 和格拉斯哥大学的科学家合作进行的一项新研究。他们调查了一群被驯养的鸟类在使用手机或平板电脑进行视频聊天后会发生什么。 结果表明,视频通话可以帮助鹦鹉模仿鸟类在野外的交流方式,改善它们在主人家里的行为,甚至可能改善它们的生活
每天给你送来NLP技术干货! ---- 译者 | 谈修泽 单位 | 东北大学自然语言处理实验室 01 引言 NAACL 会议是 ACL 的北美分会,每年举办一次,也是 NLP 领域备受关注的顶会之一。NAACL 主要涉及对话、信息抽取、信息检索、语言生成、机器翻译、多模态、统计机器学习等多个方面。 本篇文章的作者Antoine SIMOULIN协助了NAACL 2022,他结合今年一些论文的情况,就大规模预训练语言模型的应用、表现、期望等做了概述,总结并思考了当今计算语言学的发展趋势、不足与挑战。 02 原
最近发现pixel bender有两个特殊点: 1、Input Image4,不单单可以用BitmapData来初始化,也可以用Vector.<Number>初始化。 2、ShaderJob,可以使用Vector.<Number>接收pb的运算结果,同时,这个输出结果不限于[0-1]。结果会从上往下一行一行的把每个像素的各通道信息填入到Vector中 基于这两点,就可以发现,可以把复杂的数学运算交给pb。尤其是类似于图像这样二维的信息,例如3d建模中,水面波动的计算。 AS代码: var width :in
机器之心编译 机器之心编辑部 早在 2016 年,Hinton 就说过,我们不用再培养放射科医生了。如今几年过去,AI 并没有取代任何一位放射科医生。问题出在哪儿? 近年来,AI 在大数据、大模型的深度学习之路上一路狂奔,但很多核心问题依然没有解决,比如如何让模型具备真正的理解能力。在很多问题上,继续扩大数据和模型规模所带来的收益似乎已经没有那么明显了。 在 Robust.AI 创始人、纽约大学名誉教授 Gary Marcus 看来,这预示着深度学习(准确地说是纯粹的端到端深度学习)可能就要「撞到南墙」了
AI 科技评论按:《哈佛商业评论》(Harvard Business Review)最近发表了一篇文章《不想被偏见左右?那就用算法!》作者是亚历克斯·p·米勒。这篇文章谈到,人类常常做出有带有偏见性的决定(确实如此),所以他认为更多的地使用算法代替人类做决定是一个不错的选择。
机器之心报道 编辑:泽南、张倩 在 ChatGPT 巨人的肩膀上又有了改进。 ChatGPT 给 AI 领域带来的变革,可能正在催生一个新产业。上周末,有消息称 AI 初创公司 Anthropic 即将获得大约 3 亿美元的新融资。 Anthropic 由 OpenAI 前研究副总裁 Dario Amodei、GPT-3 论文一作 Tom Brown 等人在 2021 年共同创立,目前已筹集了超过 7 亿美元的资金,最新一轮的估值达到了 50 亿美元。他们开发了一种对标老东家知名产品 ChatGPT 的人工
谷歌利用它们来改善其搜索结果和语言翻译。Facebook、微软和英伟达等科技公司也在开发语言模型。
WHERE name IN ('Sweden', 'Norway', 'Denmark')
今天为大家介绍的是来自Tiago Rodrigues团队的一篇论文。机器学习(ML)有望解决化学领域的重大挑战。尽管ML工作流程的适用性极广,但人们通常发现评估研究设计多种多样。目前评估技术和指标的异质性导致难以(或不可能)比较和评估新算法的相关性。最终,这可能延迟化学的大规模数字化,并使方法开发者、实验人员、审稿人和期刊编辑感到困惑。在这篇综述中,作者批判性地讨论了不同类型的基于ML的出版物的方法开发和评估指导原则。
在Waymo,机器学习几乎在我们自动驾驶系统的每个模块都起着关键作用。它可以帮助我们的汽车看清周围的环境、感知世界、预测其他人的行为,并决定自己下一步最佳移动。
点击 机器学习算法与Python学习 ,选择加星标 精彩内容不迷路 机器之心编译 早在 2016 年,Hinton 就说过,我们不用再培养放射科医生了。如今几年过去,AI 并没有取代任何一位放射科医生。问题出在哪儿? 近年来,AI 在大数据、大模型的深度学习之路上一路狂奔,但很多核心问题依然没有解决,比如如何让模型具备真正的理解能力。在很多问题上,继续扩大数据和模型规模所带来的收益似乎已经没有那么明显了。 在 Robust.AI 创始人、纽约大学名誉教授 Gary Marcus 看来,这预示着深度学习(
近年来,AI 在大数据、大模型的深度学习之路上一路狂奔,但很多核心问题依然没有解决,比如如何让模型具备真正的理解能力。在很多问题上,继续扩大数据和模型规模所带来的收益似乎已经没有那么明显了。
自 ChatGPT 火爆以来,有关其取代搜索引擎的讨论不绝于耳,微软更是直接 ChatGPT 融入到 Bing 以对抗 Google。近日,来自华盛顿大学的两位教授给出了他们的回答:“ChatGPT 和 LaMDA 之类的大型语言模型并不适合作为访问信息的渠道”。 原文链接:https://iai.tv/articles/all-knowing-machines-are-a-fantasy-auid-2334 作者 | Emily M. Bender,Chirag Shah 译者 | 弯月 责
作者 | Ben Batorsky 编译|钱磊、Ailleurs 编辑 | 陈彩娴 受到技术进步和开源数据集的推动,过去十年中人工智能经历了一次复兴,其进步之处主要集中在计算机视觉和自然语言处理(NLP)等领域。ImageNet在2010年制作了一个包含2万张内容标签的图片的公开语料库。谷歌于2006年发布了万亿词语料库(Trillion Word Corpus),并从大量的公共网页中获得了n-gram频率。NLP的进步使得机器翻译质量大幅提高,数字助理的应用也迅速扩大,诸如“人工智能是新的电力”和“人工智
领取专属 10元无门槛券
手把手带您无忧上云