大型语言模型经过训练可以模仿人类来解释人类的决策。然而,LLMs能否自解释呢?以及在此维度上如何评估呢?为此,「本文提出评估自然语言解释的反事实可模拟性,即,基于该解释能否让人类准确的推断出模型的输出」。例如:如果给定模型的输入问题是“老鹰能飞吗”,模型给出的回答为:“是”,并给出的解释为:“所有的鸟类都会飞”;那么人们基于该解释,可以推断出:当模型输入问题为:“企鹅会飞吗?”(反事实问题),给出的答案应该同样为“是”。如果解释准确,那么模型的答案应该符合人类的期望。
我现在已经有 100 nm 大小了,我还有很多触角,人类把我的触角称为冠,所以给我起了个学术名:冠状病毒。对于这个学术名,我一直不满意,怎么能用外貌来取名呢,这是以貌取毒。
今天早上要开会,所以文章早点放出来。 如果说git终于让工程师在合作撰写代码的过程中找回了丢失已久的乐趣,那么,code review的过程还是让人相当地抓狂。我用过的所有code review的工具,没有一款能让code review的过程轻松起来。 公司内部使用的工具自不必说,那是反人类的极致体验。 reviewboard和gerrit不那么反人类,但submit review和review的流程也不太方便,而且体验并不一致。submit review可以在命令行下方便地完成,但review需要点开邮件
众所周知,在Java中final String中的值是一成不变的。大家都知道String的+(拼接)运算会丢弃内存引用并在内存中重新开拓地址,事实上也确实如此。但final的变量真的是一成不变的吗?谨以此文打开程序员思路,跳出定式思维,希望本文会给你的程序员生涯带来新的思考。 一个简单的例子 这个例子很久远,早有前辈做过,但并不是所有的程序员都接触过。通常喜欢“猎奇”的程序员对此不会陌生。 例子中,通过final初始化一个String,然后反射获取String类中名为value的Field,并重新赋值v
尽管我们的企业使用了一系列的AWS工具,我们还是希望能进一步提升数据的安全措施。那么,在AWS中,有哪些可用的工具来确保数据和资源的安全性呢? AWS拥有一系列的安全服务,包括身份识别和访问管理、虚拟私有云(VPC),以及大量的加密选项和审计工具。然而,特定行业的云客户,如金融、健康事业,他们大部分希望寻求第三方工具来确保公有云资源 的安全,或提升信息安全控制。下面有一些值得考虑的选项。 Alert Logic为AWS用户提供了大量的服务,包括威胁管理产品——它提供了漏洞扫描和网络入侵检测服务。该产品通过分
简介Linux常用命令ls、pwd与cd,分享自己的学习经验。新手上路,第一次写自己的博客,有什么不对的地方请大神们多多指教。
话说,在远离人间纷扰的计算机系统中,世界也并不太平,各进程奋力厮杀抢夺计算机资源,就是CPU。为了争夺计算机系统中这一点点可怜的资源,各进程也可谓疯狂,各出奇招,你给我下病毒,我给你整死机…
根据“拯救犀牛”的统计数据,南非每年有1000多头犀牛死亡。这些令人痛心的偷猎统计显示了这个美丽物种黯淡的未来。尽管在过去十年中已经进行了许多尝试来打击偷猎的破坏性结果,但该国的犀牛数量仍未出现同比逐年稳步下降的趋势。
每当别人跟我提起“无人驾驶”汽车技术如何强大,又被大众赋予了怎样的期待,我都会想起HBO电视剧Silicon Valley《硅谷》中的一个情节:
Linux有非常多的版本,比如世面上常见的有 Ubuntu、RedHat、Fedora、Centos等等,这么多的版本我们究竟该选哪一个呢?今天我带大家对各个版本进行一下分析和比较,帮助大家来做出更好的选择。
4、据说某俄国特工经过九死一生偷到了NASA的太空火箭发射程序的源代码的最后一页!
【立委按】隆重推出立委版人工智能新概念【反伊莉莎效应】,以后如果进了AI历史,各位都是见证人,发明权属于立委。 我: 人工智能里面有一个著名的现象,叫伊莉莎效应(Eliza Effect),说的是人可以过度解读机器的结果,读出原来不具有的意义。维基百科对“伊莉莎效应”定义如下: “计算机科学中所谓伊莉莎效应,指的是人有一种趋向,在下意识中以为电脑行为与人脑行为相似。其实只是以简单的语言模式识别为基础的巧妙运用。从具体形式上看,伊莉莎效应指的是,‘人们阅读由计算机把词串成的符号序列,往往读出了这些符号并不具备
本文不是为C/C++站台,宣传其为全宇宙最好的语言,而以近二十年的从业经验来分析C/C++的优劣势,提出指导性建议。
交流源于内心本真的需要,通过交流来降低信息的不对称,今天的交流对象是一个集大成者的老学者,当然是由 Claude2 扮演,相信会有不一样的收获。
--- 拔出你心中最困惑的刺!--- 在这个用过即弃的时代,不要让你的求知欲过期。 今日拔刺: 1、为什么李开复说中国芯还有很长的路,但AI超越美国只需5年? 2、阿里达摩院自主研发的Al芯片,能否完全替代美国的依赖? 3、如果人类科技达到极限,人类会因此灭绝吗? 本文 | 2418字 阅读时间 | 5分钟 为什么李开复说中国芯还有很长的路 但AI超越美国只需5年? 李开复一直对中国的AI产业持积极看法,这不是什么新闻。而且李开复先生的创新工场在中国的AI领域属于非常活跃的投资者。因此,李开复先生看好
塔勒布在《反脆弱》一书诠释了尼采的那句经典名言:“杀不死我的,使我更强大。” 过去人类一再诅咒的压力、混乱、波动和不确定……生命中的许多事物反而会受益于它们。借鉴本书浓郁的辩证式思维,笔者认为在可穿戴领域可以根据“强连接”衍生出一个叫“反强连接”的词汇。这等同于我们经常所言的“手握得越紧,沙漏得越快”的道理。 拿可穿戴领域最红火的手环为例,该产品形态自身就存在很多背悖的层面。比如,用户必须时时佩戴才能呈现的完整数据与短命的电池续航就是一对天生矛盾,更深层次的还是来自用户。 手环要求24小时人类全在线,甚至连
近年来,人工智能和机器学习成为解决不同领域复杂问题的强大工具。在医疗诊断方面,机器学习辅助诊断有望通过大量病人数据提供精确、个性化的诊断,从而革新临床决策和诊断。
一个神奇的事情,我复制的明明是地址栏链接,到了微信这里就变成了网页名,一种反人类的优化(是觉得自己很智能吗)。。。
本章主要介绍了公众常有的对经济社会的系统性偏见,其中包括:反市场偏见、排外偏见、就业偏见以及悲观主义偏见。
机器之心专栏 编机器之心编辑部 最近,AIGC 行业的火爆得益于人工智能 (AI) 技术的快速发展,元宇宙数字人、游戏 NPC、复杂场景的控制和决策等越来越多的应用对模型认知能力的强烈需求日益凸显。以预训练大模型为基座,着力于探究语言模型的认知能力是 IDEA 研究院认知计算与自然语言研究中心(IDEA-CCNL)“盖亚计划”的重要方向。 “盖亚计划”由 IDEA 研究院认知计算与自然语言研究中心发起,致力于在预训练大模型时代建设 AIGC 的基础设施。 为赋能中文 AIGC 行业,IDEA-CCNL 封神
35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论神经网络是否能实现类似人类的系统泛化。
机器学习的巨大成功带来了 AI 应用的爆炸式增长以及对具备人类级别智能的自动化系统不断增长的期望。然而,这些期望在很多应用领域中都遇到了基本的障碍。其中一个障碍就是适应性或鲁棒性。机器学习研究者注意到当前的系统缺乏识别或响应未经特定编程或训练的新环境的能力。人们在「迁移学习」、「域适应」和「终身学习」[Chen and Liu 2016] 这些方向进行大量理论和实验研究就是为了克服这个障碍。
这几天,OpenAI 人工智能在 TI8 上与人类的比赛中,人类方的出场队伍一直被赛会保密,而今天代表人类的出场阵容被公布时,大洋彼岸的我们瞬间兴奋了起来:
从历史发展的轨迹来看,中兴跟华为原本是并驾齐驱的国内通信设备巨头,但是华为的企业发展更胜一筹,二者差距不断被拉大,丝毫看不出中兴具有反超的迹象。单从手机行业来看,当年的国内智能手机第一阵营是“中华酷联”,中兴和华为都位列其中。但是几年过去了,中兴彻底掉队了,已经不再是主流手机生产商,而华为已经成长为世界第三的手机制造商。更加让中兴雪上加霜的是,由于中兴的运营不规范,被美国人抓住了小辫子,又是巨额罚款,又是技术封锁的,差点就要搞破产了。虽然最终死里逃生,但也元气大伤。而华为近年来发展势头强劲,企业经营蒸蒸日上。两相对比,中兴和华为的发展可以说是大相径庭。华为在不断成长,中兴则是发展受阻。这种情况下,很难相信中兴会有机会反超华为。
以前我们介绍过chrome headless的用法(https://www.cnblogs.com/apocelipes/p/9264673.html)。
对初学者来说,Linux桌面可能是他们遇到的第一个难题,无论是从Win还是OSX过来的人,刚开始的时候可能连桌面的概念都不知道。我接下来的分析建立在这样的基础之上:台式计算机或主流笔记本,配置不太差(Pentium E以上,内存不少于1G),无触控输入。一般人们讨论桌面就是桌面,发行版就是发行版,但实际上,不同发行版对不同桌面的优化真的区别很大。所以后面的讨论中我不会避讳对发行版的评价和选择。IceWM,WMaker,i3,openbox,fvwm等等一众窗口管理器和LXDE,Razor-QT,LXQT,e17等超轻量级桌面不在讨论范围内,用他们的肯定不是初学者。
我们正在进入语音时代,从智能语音助手到智能家居,这些智能语音产品已经开始融入我们的生活了。
内容来源:本文摘编湛庐文化出品书籍《AI的25种可能》书评文章,本书作者约翰.布罗克曼(John Brockman) 。
企业都想借大数据技术浪潮,反大数据和算法的公司、社交平台却掀起一阵小波澜,是大数据出了问题吗?
2021 年的年度网络热词榜中,有一个诞生于科幻作品中的词语“元宇宙”火出了圈。随着 Facebook 正式更名为“Meta”,“元宇宙”的概念在全世界范围成为了人们争相议论的焦点,2021 年也因此成为了“元宇宙元年”。
计算机的基本硬件系统由运算器、控制器、存储器、输入设备、输出设备5大部件组成。计算机组成原理是计算机的底层内容的学习,了解学习它,对今后解决这个问题从根本上非常轻松的理解,然而在学习这块地内容时遇到了非常多关于进制的计算、系统来回处理数据的分析,都是相当不错的。非常有意思。主要是计算的语言里面仅仅有0、1,勾勒出了这么色彩缤纷的世界,真的是太奇妙啦,让我们通过学习这些基础内容来从还有一个角度来认识计算机。同一时候思考人类的智慧的结晶多么的不可深測,算法的巧妙,虽然引入了非常多的内容都是在为了更好的服务我们人类的生活、工作,我们能够结合生活中去理解它、使用它,相信对我们的影响不简单就是0、1,而是很多其它人类思维的转变、创造。
本文转载自CSDN博客:https://blog.csdn.net/fei2636/article/details/78999318? 程序员有时候很难和外行人讲明白自己的工作是什么,甚至有些时候,跟
来源:arXiv 编辑:新智元编辑部 【新智元导读】图灵奖得主、贝叶斯网络之父Judea Pearl日前在arXiv上传了他的最新论文,论述当前机器学习理论局限,并给出来自因果推理的7大启发。Pearl指出,当前的机器学习系统几乎完全以统计学或盲模型的方式运行,不能作为强AI的基础。他认为突破口在于“因果革命”,借鉴结构性因果推理模型,能对自动化推理做出独特贡献。 深度学习理论研究已经引发了越来越多的关注,但是,机器学习也存在理论上的局限性。 然而,对于这个问题的关注,似乎还没有掀起多大波澜。 近日,图灵奖
机器之心报道 编辑:小舟、力元 当提供更多数据时,人们不会做出更好的决定,那么为什么假设 AI 会呢? 随着人工智能技术的兴起,AI 中存在的问题也被逐步暴露出来。AI 做出的决策与人类最佳决策仍然存在差异,并且往往包含一些偏见。那么问题出在哪里呢?近日在一篇文章中,作者 Marianne Bellotti 阐明了相关原因,并提出了自己对 AI 设计原则的看法。我们来看一下文章的具体内容。 越来越多的数据 据专家指出,数据科学家花费大约 80%的时间来清洗数据,实现由人工智能驱动的集中式决策的关键是打破各
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 「ChatGPT克星」,升级了! 没错,就是之前华人小哥Edward Tian所打造出来的那个GPTZero,几秒内就能摸清文字是人类还是AI写的。 而时隔近一个月,小哥所推出的版本名叫GPTZeroX,并且他还说: 这是专门为教育工作者打造的AI模型。 消息一出,立即吸引了大批网友涌入,一天之内便有40万的访问量和220万的服务请求。 那么这一次,这位「ChatGPT克星」又带来了哪些新能力? 混写也能测,还支持Word等格式 升级的一大特点,就
目前,我们很多货真价实的人类,对AI有一个经典的威胁论认识,那就是人工智能给我们带来的危险,除了替代人类毁灭人类外,就是造成大量失业。而最近的一次年会演讲中,让人工智能导致大量失业的恐慌论又一次甚嚣尘上。 看得出,我们大多数的人,都认可人工智能带来的巨大革命,它们会颠覆我们的生活,并淘汰掉大量的工作,让很多人失业。那么,不知道一人客的各位朋友,你对它们的到来怀着怎样的态度?你,怕不怕AI机器人? 📷 很多人对AI的害怕,犹如对未来未知的恐惧;而有的人,对AI的恐惧,则是一种丢饭碗被取代的恐惧。前者是对不确定
近日,伊利诺伊大学香槟分校(UIUC)的李博教授及其团队与斯坦福大学共同发表的工作 “DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT Models”一文,提出了一种评价大模型可信性的方法,重点关注 GPT-4 和 GPT-3.5。此文也被多个平台包括Huggingface AMiner 学术平台转发.
程序员有时候很难和外行人讲明白自己的工作是什么,甚至有些时候,跟同行的人讲清楚“你是干什么的”也很困难。比如我自己,就对Daivd在搞的语义网一头雾水。所以我打算写一篇博客,讲一下“爬虫工程师”的工作内容是什么,需要掌握哪些技能,难点和好玩的地方等等,讲到哪里算哪里吧。
**计算机性能:** 横向扩展 集群:人多力量大 负载均衡集群 高可用集群
作者丨陈江捷 1 前言 如何根据一个新的条件来改写一个故事的结局?这个问题的自动解决需要机器具备反事实推理能力,即根据原故事和新条件来想象新的故事结局的能力。故事改写任务的核心问题在于:我们能否只对原始结局进行最少的编辑就能产生一个新的合理的故事结局?更重要的是,我们如何在无监督的情况下想象未来的可能性? 本文介绍了复旦大学、字节跳动人工智能实验室等机构的研究者的最新工作EDUCAT,相关工作已经被AAAI 2022录用 (oral)。EDUCAT采用了基于MCMC采样的文本编辑框架来改写反事实故事结局,并
【新智元导读】AlphaGo之后,又一人机大战被登上了Science 封面,这一次是德州扑克AI 程序DeepStack。来自加拿大和捷克的几位计算机科学研究者提出一种新算法 DeepStack,在一对一无限注德州扑克中打败了人类对手。这是AI 在不完美信息博弈中堪称里程碑式的突破。 计算机在象棋和围棋游戏中已经能击败人类。这些以及其他类似的游戏,对于当下的游戏状态,所有的玩家能够获得的确定性信息是相同的。但是,在扑克游戏中,由于无法看到对手的牌,教计算机玩好扑克是很棘手的。来自加拿大和捷克的几位计算机科学
参考资料:Python爬虫,你是否真的了解它?: https://www.bilibili.com/read/cv4144658
网络安全一直以来是人类智慧和经验高度凝结的领域,也是很多科幻电影中人类对抗外星种族或邪恶机器最后的防线。当有一天人工智能开始获得了人类黑客的行为方式后会发生什么?
要说 reCAPTCHA,就要先说一说 CAPTCHA,全称是 Completely Automated Public Turing test to tell Computers and Humans Apart,即全自动区分计算机和人类的图灵测试,也就是通常说的 “验证码”,目的就是要把计算机和人区分开来。在互联网站上,为了防止不安全的、重复暴力的登陆密码破解等操作,需要使用验证码来将机器行为拒之门外。
这3年左右的时间,我大概看了近50本科幻小说,软硬科幻都有。我认为阅读科幻小说不不仅仅是一种娱乐,任何一本科幻小说应该说是作者对未来或者人性的一种思考。有些科幻小说很大程度上可以预言未来发展的方向,比如在19世纪甚至18世纪小说中出现的微型电脑、飞机、宇宙飞船……d等东西都在现在成为现实,或即将成为现实,这个最典型的例子就是凡尔纳的《海底两万里》。更有些能揭露出人性,宝树的《时间之墟》就是这样。接下来进入正题,推荐一些好的科幻小说给大家。
【新智元导读】 2017年刚开年,人机大战激战正酣:从围棋上孤独求败的 Master 到人脸识别的小度,现在,国外科学家宣布,机器已经在一对一的无限注德州扑克中赢过人类。扑克是典型的不完美信息博弈游戏,也是人工智能面临的长期挑战。一对一无限注中包含10的160次方(1后面160个0)决策点(decision points)——每个点都根据出牌方的理解有不同的路径。另外,作者还在论文中介绍了一种新的算法DeepStack,让系统可以在比赛中拥有“直觉”。 来自加拿大和捷克的几位计算机科学研究者近日在 arXi
语音识别是人工智能领域的一个重要方向,现在已逐渐发展为一个具有广阔前景的高新技术产业,许多企业在语音识别技术上潜精研思。例如,百度借助自己的人工智能生态平台,推出了智能行车助手CoDriver;科大讯飞与奇瑞等汽车制造商合作,推出了飞鱼汽车助理;搜狗与四维图新合作,推出了飞歌导航;云知声、思必驰在导航、平视显示器等车载应用方面推出了多款智能语控车载产品……在如今的语音技术市场中,大量产品被人们开发出来并运用到实处上,语音识别技术的发展前景如火如荼。
什么是中微子?用发现者核物理学家Clyde Cowan的原话讲,中微子是人类所能设想到的最微小的物质:质量轻微、不带电、自旋为1/2,是构成物质世界的基本单元。
2008年我刚毕业,那一年,是金融危机爆发的一年,也许也是年景不好,工作都特别难找,连网吧网管都有抢的。
领取专属 10元无门槛券
手把手带您无忧上云