首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

2024 年软件架构趋势:AI 加速,鸿沟拉大,架构师如何应对?

讨论要点 人工智能和 ChatGPT 等大型语言模型(LLM)各个领域(尤其是软件开发)应用得愈加深入。我们相信产品设计、软件架构“可解释性”和系统运维(“AIOps”)方面还有改进空间。...是否需要一个分布式系统才能获得这种好处?认为不是这样,人们现在正在寻找合适规模服务。一个故事组织从函数即服务转向了单体应用,还节省了资金。...当我们这样做,我们如何确保我们做事情是“正确”?这些都是我们要讨论东西。觉得我们作为一个行业正在慢慢朝着更加道德方向发展,这也与领导力有关。我们正在驱动一艘油轮,而不是一支快艇编队。...多年来有过很多案例,其中人们都以为自己了一套良好且稳定依赖体系,其实你并不知道你究竟依赖是什么东西。 当我们处于闭源环境,所有代码都是公司自己人写。是的,你拥有这一切。...认为,当我们停止谈论人工智能,人工智能就真正达到了它一开始要达到目标。希望我们不要在每次交流中都提到人工智能,因为这意味着我们还没搞定它。

12810

微服务能付出什么, 得到什么

这篇文章目的是强调,只有当我们付出足够努力来处理我们将要面对组织和分布式计算问题,才能获得微服务并从中受益。在后面的段落,您将发现我们从真正微服务得到了什么,以及它们从我们这里得到了什么。...可伸缩性 扩展我们应用程序两个主要原因。第一个是因为我们想要更大负荷。第二个是关于我们希望失败提供弹性单片架构,我们需要用所有的组件来扩展整个系统。...弹性 已经提到了弹性在前款规定,但我需要添加,除了单个服务范围,提供弹性自治提供给我们机会去隔离特定服务问题和错误,所以其他不受影响,因此,系统仍然可以工作。...使用这组工具,您可以很容易地发现系统哪个部分造成了瓶颈。当我们讨论应用程序日志,我们考虑查找已经发生错误源。微服务体系结构,对主机、cpu、内存、网络延迟、响应时间等实时监控也是无价。...有人可能会说“可以每个实例搜索日志”。这需要一些时间,但我可以处理它。

46930
您找到你想要的搜索结果了吗?
是的
没有找到

软件2.0-Andrej Karpathy

相反,我们对一个理想程序行为(例如输入输出对实例一个数据集)指定了一些约束,并使用我们可用计算资源来搜索程序空间寻找满足约束条件程序。...神经网络情况下,我们将搜索限制程序空间一个连续子集,在那里搜索过程可以用反向传播和随机梯度下降(有点令人惊讶地)有效 事实证明,大部分现实世界问题具有收集数据比明确写入程序要容易得多性质。...当然,你可以动态计算图,执行流程通常仍然受到很大限制。这样我们也几乎可以保证永远不会发现自己处于无意识无限循环中。 常量内存使用。...优化结束,我们剩下大型网络运行良好,很难说清楚。许多应用领域,我们将会选择使用我们理解90%精确模型,或者99%精确模型。...从长远来看,软件2.0未来是光明,因为许多人越来越清楚,当我们开发AGI,肯定会写成2.0软件。 和软件3.0?这完全取决于AGI。

61620

【谷歌工程师机器学习干货总结】从表现力、可训练性和泛化三方面看2017年进展

“学习”期间,我们从一个可能非常巨大模型空间中,寻找一个比较好,能够利用数据知识做出决策模型。这个搜索过程通常被定义为解决模型空间优化问题。 优化几种类型 ?...另一方面,RNN仍然非常棘手,研究界正在取得很大进展,将LSTM放入一个复杂机器人策略并期望它“正常工作”已经不再是一件疯狂事情。...对于那些时间步长超过1环境,我们正在寻找一个模型,推理进行优化。一个内部优化过程,其中模型推理得出最优控制,而外部一个优化循环则只使用智能体看到数据库,学习这个最佳模型。...然而,这类模型仍然大量改善空间ImageNet上训练分类器还不是普遍适用,少数据学习问题仍然没有得到解决,并且仍然容易受到对抗样本攻击。...一些高风险领域(比如医学、执法)工作ML客户和政策制定者需要了解这一点,这也可以阐明泛化问题:如果我们发现模型提供诊断方式与与人类医学专业人士会得出这些结论很大不同,这可能意味着模型推导过程存在边缘情况

785170

与Thomas Gleixner对谈实时Linux内核补丁集

实时补丁从根本上不同于位于源代码树某个角落设备驱动程序。设备驱动程序未被维护不会造成任何更大损坏,当它达到最终位腐烂状态,可以很容易地删除它。...相比之下,一个位腐蚀驱动程序只会影响到那些依赖于它设备少数人。 JP:传统上,当我想到 RTOS 想到是基于封闭系统遗留解决方案。为什么我们一个开源替代品是必要?...PREEMPT_RT 缺点是它不能被完全验证,这将它排除特定应用程序空间之外,目前正在进行一些工作,例如 LF ELISA 项目,以填补这一空白。...很久以前,就放弃了对这一现象理解,尤其是当我看到大量资金投入到当今过度炒作技术上。...尽管对该行业很大一部分来说至关重要,低水平基础设施缺乏吸引关注和成为头条新闻流行词魅力——但它仍然需要支持。

1.5K30

AI浪潮仍处于早期阶段,公司未来最大威胁是执行力不足

对此,皮查伊似乎并不担心。他强调:“我们是搜索领域先行者,也是电子邮件或浏览器开创者。相信,我们仍处于人工智能发展初期阶段。”...不过,有时孩子在数学上向我求助也会感到有些棘手。有时,我会假装沉思,其实也在用Google Lens寻找答案。 担任谷歌CEO十年 学会了抓大放小 艾米丽:你印度钦奈长大。...相信我们能力平衡这一点。随着我们搜索引入人工智能或新功能,我们一直测试广告效果。根据我们目前看到数据,这些基本原则在这个阶段仍然保持不变。...人们往往过于关注眼前微观时刻,却忽视了它在未来宏大图景是多么渺小。当我看到我们面前所有的机会深知,我们首次拥有了利用人工智能技术力量。...支持与中国AI领域合作, 相信谷歌能实现AGI 艾米丽:我们上次谈话,你提到了中国人工智能领域将处于领先地位预测。那么,政策制定者制定相关政策,应该如何考虑这一趋势?

22310

NP 五十年:AI正在解决不可解问题

50年后今天,世人仍然试图解决这个计算机领域中最著名问题。其实在12年前(2009年),也曾经就该问题进行了一些讨论,大家可以看之前《P与NP问题现状》综述。...从2009年那篇文章发表以来,P与NP问题及其背后理论并没有发生显著变化,计算世界确实发生了变化。比如说云计算,就推动了社交网络、智能手机、经济、金融科技、空间计算、在线教育等领域飞速发展。...但是,当我们问到谁从给定初始设置获胜,我们是不是就没办法给出准确回答了呢?...尽管如此,我们还是无法孤注一掷认为多边形方法能够不久将来解决P和NP问题。 10 不可能可能性 当我们反思P和NP问题,我们看到这个问题很多不同含义。...Garey和Johnson故事,如果是老板,可能不会解雇那名倒霉员工,而是建议他使用一些新方法,比如混合整数编码、机器学习以及暴力搜索方法进行破解。

64811

迈向深度学习终结和AGI开端

后来虽然离开了这个领域偶尔也会关注下新进展。下面是最近看一篇很有意思文章。...当我 Jeff 书中读到 Mountcastle 想法想起了伟大科学家 Robert Sapolsky 一次有趣演讲。...当我们在这些参照坐标系改变位置,就会产生思考。所以你现在在想什么,你脑子里现在在想什么,取决于你大脑皮层列在这些不同参考坐标系位置。当你大脑在这些结构运转,你思想也不断进化。...因此,深度学习对抗样本“终结”,所说“终结”并不是指绝对终结,只是达到一定弹性、一致性和灵活性水平,类似于我们作为人类所拥有的水平,将有可能通过以下组合实现: 运动: 物理或虚拟。...当我们做到这一点,我们将能够隐藏或扰乱我们系统某些部分,但仍然保持稳定预测。 正如 Jeff 指出那样,随着我们试图将人工智能系统应用于需要大量灵活性和弹性场景,这将变得越来越重要。

27541

AI机器学习年度2018年度进展综述

最后,我们都能从这些伟大资源获益,所以请继续努力吧! ? (图)pytorch VS tensorflow 搜索量趋势 有趣是,框架空间中另一个框架空间有着诸多有趣发展是强化学习。...虽然不认为强化学习研究进展像前几年那样令人印象深刻(只想到DeepMind最近Impala工作),令人惊讶是,一年间里,我们看到所有主要人工智能厂家都发布了强化学习框架。...似乎深度学习最终消除了对数据智能需求,事实远非如此。围绕着改进数据想法,该领域仍有一些非常有趣进展。...不完全同意辛顿观点,他说缺乏创新是因为这个领域“一些资深人士和无数年轻人”,尽管科学领域确实存在一种趋势,即突破性研究是较晚年龄完成。...在我看来,目前缺乏突破主要原因是现有方法和变化仍然许多有趣实际应用,所以很难冒险采用那些可能不太实际方法。当该领域大部分研究由大公司赞助,这一点就更加重要了。

48250

神经网络结构搜索(NAS)简介

这个领域包含了一组工具和方法,它们将使用搜索策略搜索空间中测试和评估大量架构,并通过最大化适应度函数选择最能满足给定问题目标的架构。...2016 年标志着 NAS 开始,Zoph 和 Le 或 Baker 和 al 工作实现了最先进图像识别和语言建模架构与强化学习算法。这项工作对这一领域很大推动作用。...虽然早期工作可以被视为概念证明,当前研究正在解决跨多个行业和研究领域更具体需求。...这一知识有助于加快搜索过程,它将指导搜索从而算法将更快地收敛到最优解。 最近算法(如 PNAS 方法)试图预测未来大致性能,这些预测器必须进行微调并且仍然是近似值。...现在一些实际研究集中使用受生物学启发算法作为 NAS 方法。这些算法对于优化任务非常有效,因此似乎寻找神经网络最佳架构理想候选者。

92920

Nat Rev Drug Discov|人工智能何时可以带来药物发现成功

排名靠前模型六个使用了某种形式新一代机器学习。...计算化学空间是相当巨大,以至于将每一种化合物都对接到口袋里仍然是一项挑战。几个团队正在尝试将人工智能作为一种加速器来挑选要对接化合物,VirtualFlow 1.0使用大量CPU来高效并行对接。...LRRK2挑战赛参赛者大多是学术团体,CBLB挑战赛参赛者中有近50%是生物技术公司。 Schapira说:“情况似乎正在发生变化。"...迄今报道大多数研究,使用晶体结构虚拟筛选似乎仍然优于依赖预测结构虚拟筛选。...已经公司瞄准了LRRK2激酶结构域,WDR结构域小分子结合剂仍然难以捉摸。

8310

神经科学带来新突破、导出智能统一框架,Hinton:早有洞见

所以你正在想什么,或者你脑子里正在想什么,取决于你大脑皮质柱此刻在不同参考系位置。当你大脑在这些结构中导航,你思维会不断进化。 请注意,运动概念开始无处不在。...很喜欢Jeff所用类比,即我们需要找到一种好方法来组织对某个领域掌握知识,我们需要内在地创建该领域出色参考系或地图,这样才能成为任何领域专家。...只要我们不断地感知同一个物体,当我们保持与这个元素互动,这些投票神经元状态就不会改变。当我们移动或物体移动,其他神经元会改变它们状态,投票神经元会保持稳定。...因此深度学习对抗性示例就此“终结”。而“终结”并不意味着绝对结束,仅仅是达到一个类似于我们人类具备弹性、一致性和灵活性水平,将有可能结合以下几点: 运动:物理或虚拟。...当我们实现这一点,我们将能够隐藏或扰乱系统某些部分,并且仍然保持稳定预测。 正如Jeff指出那样,当我们尝试将AI系统应用于对灵活性和弹性需求量大场景,这将愈发关键。

39020

谷歌AutoML创造者Quoc Le:未来最好的人工智能模型将由机器生成

机器之心原创 作者:Tony Peng 过去十年,谷歌人工智能领域重重突破,很大一部分和 Quoc Le 有关。...所以需要做决定非常多,也就存在大量可能架构。可能性也许能达到数万亿,人类现在只会检查这些可能一小部分。 ?...基本而言,我们想法就是创造一个包含了所有可能性巨型网络,然后该网络搜索一条路径(以最大化验证集上预期奖励),这就是所要寻找架构。某些权重会在下一次实验得到重复使用。...因为这种方法,我们实际上能实现很多个数量级加速。原始 NAS(神经架构搜索)算法要更灵活得多,成本太高了。ENAS 基本上是一种更快新算法,限制也更多一点。...您怎么看待围绕 AutoML 炒作? 很难评论围绕 AutoML 炒作,当我看到很多人都想使用机器学习认为在帮助机器学习更广泛可用方面还存在很大能做出成绩空间

55820

开发丨Python、R、Java、 C++ 等:从业界反馈看机器学习语言趋势

非常显著是 “Python 是大趋势”这一论调,似乎它即将在机器学习领域一统天下。那么这种说法到底几分事实? 首先要指出是,大多数对编程语言讨论都比较主观。...它展示出公司、雇主们都在寻找哪些语言技能。注意: 这并不能精确体现各公司开发人员正在使用哪些语言。 这是美国机器学习业界趋势,与中国、学界关系不是那么紧密。...然后,把搜索结果限制机器学习领域(去掉数据科学),数据其实差不多: 图2:机器学习领域各语言雇主招聘指数对比 这张折线图中包含了 Lua,但由于它招聘职位实在太少,代表 Lua 线与坐标轴重合。...我们能从这两组数据推断出什么? Python 是市场领先者,作为最受欢迎机器学习语言当之无愧。 另外,Python 与 Java 之间差距正在被拉开。...但是,当我们聚焦于细分领域“深度学习”,数据就变得很不一样: 图4:深度学习领域各语言雇主招聘指数对比 深度学习市场,对 Python 招聘需求仍然最高。

1.1K70

Solr-选择您开源搜索引擎

组织正在寻求实现您第一个搜索引擎,并切换到另一个搜索引擎-呼吁所有Google Search Appliance(GSA)用户寻找替代品!-或尝试通过开源来省钱。...从那时起,Kibana,Logstash和Beats创建者加入了Elasticsearch,创建了Elastic Stack产品系列,该产品系列已成为搜索和日志分析领域强大参与者。...仍然需要进行大量改进,但是就可以Solr摄取和搜索数据集大小而言,前途一片光明。 供应商支持 几家公司不得不决定哪种产品最适合他们。...可视化 许多方法可以Elasticsearch和Solr可视化数据-您可以构建自定义可视化仪表板,也可以使用搜索引擎标准可视化功能(可能需要进行一些调整)。但是一个区别值得一提。...它仅表示每个搜索引擎不同用例和需求中都有自己优势,而您选择将在很大程度上取决于您组织要完成工作。

93230

如何为kNN 搜索选择最佳 k 和 num_candidates?

搜索多维空间中进行,生成与给定查询向量最接近向量。 从上述查询,可以注意到两个属性:num_candidates 是考虑初始候选池,k 是最近邻数量。...它本质上定义了每个分片搜索空间——分片中初始候选书籍池,从中识别出最相关 K 个邻居。当我们发出查询,我们期望提示 Elasticsearch 每个分片“x”数量候选者运行查询。...例如,假设我们书籍索引包含 5000 本书,均匀分布五个主要分片中(即每个分片约 1000 本书)。当我们执行搜索,显然选择每个分片所有 1000 个文档既不可行也不正确。...它扩展了搜索空间——即考虑更多候选者——因此导致搜索时间略有增加。因此,较高值通常会提高准确性(因为遗漏相关向量可能性减少),代价是性能。...索引电影 我们可以使用 _bulk 操作来索引一组电影——正在重用《Elasticsearch in Action》第二版书籍创建数据集——可以 这里 找到: 为完整性考虑,这里提供了使用 _

13710

现金不是储蓄,稀缺性本身不会创造价值

比特币和其他加密货币投资仍然在世界各地积极地进行宣传。最近东京之行看到发光广告牌上有巨大比特币标志,书店里桌子上堆满了关于NFT书籍。...当我走过旧金山市中心,FTX创始人Sam Bankman-Fried(SBF)脸浮现在面前,告诉:"投资未来就是加密货币,你要加入吗?"...许多人似乎有这样想法:互联网下一次迭代将涉及对数字环境独家访问(例如,没经过允许,你不能来我家),就像土地在数字领域。房地产物理世界占了很大一部分财富,那么为什么不在数字世界也这样呢?...但是,即使大量需求,人为地限制供应可能根本就不会使价格上涨多少。原因是,供应转变效果取决于需求弹性(投机),让我们画个图。...互联网神奇之处在于,它为每个人提供了空间——在数字环境创造更多“空间成本非常低,因此人们不会像在现实世界那样被限制在他们可以建造东西上。

41510

Keras之父François Chollet:棋下得好、游戏玩得棒未必就是真智能

限制了被问问题集合,限制了人们所追寻的想法空间认为现在研究者应该清醒面对这一事实。 问题 2:您在论文中还提出 AI 要想有所进展需要对「智能」提供更好定义。...如果打算利用深度学习以超人水平「解决」《魔兽争霸 3》,那么大家可以确定只要足够工程人才和算力(大概需要数千万美元),就能达到目标。但是之后呢?关于智能或泛化性,学到了什么呢?什么也没有。...(人工智能在 Dota 2 和星际争霸 2 达到冠军水平之前,就已经这么说了。) 问题 4:您认为这些项目的真正成就是什么?这些项目的结果多大程度上被误解?...此外,认为我们对智能衡量指标应该更显性地利用「类人性」(human-likeness)。或许存在不同类型智能,当我们谈论通用智能,类人智能才是我们真正要讨论。...关于 1453 年君士坦丁堡之战有这么一个故事:整座城市奋力对抗奥斯曼军队,君士坦丁堡学者和统治者正在辩论天使性别。

33210

Andrej Karpathy:神经网络是“软件2.0”,而非机器学习一种工具

作者认为,Software 2.0未来是光明,因为当我们开发通用人工智能,肯定会写成Software 2.0。 有时看到人们把神经网络称为“机器学习工具箱另一种工具”。...神经网络例子,我们把搜索限制程序空间一个连续子集,在这个空间中,搜索过程可以利用反向传播和随机梯度下降奏效。...机器翻译:机器翻译通常是采用基于短语统计技术方法,神经网络正在迅速成为主导。...典型神经网络正向传递每一次迭代都需要完全相同FLOPS量。基于不同执行路径,你代码可能会通过一些庞大C ++代码库来实现。当然,你可以动态计算图,执行流程通常仍然受到很大限制。...最后,也是最重要一点,很大一部分有价值垂直领域中,神经网络比你或所能编写代码块更好,目前这至少涉及图像/视频、声音/语音和文本。

91480

麻省博士机器学习经验干货分享

不过现在,已有三四个关系较好的人了,真希望当时能早点找到他们!曾经淹没在谷歌搜索条目中。现在,当我遇到一个问题后会直接询问他人,而不是自己想办法,最终陷入困惑。...更重要是,良好可视化经常会使想法或代码 bug 更加明显、明了。这里还有一些自我激励的话要说:当我完成这个代码,我会做一份漂亮数据或视频给大家看!...同样也可以向这些教授发送邮件询问额外参考(即使他们太忙没有回复也不要介意)。寻找不那么有名或被忽视旧论文一种持续方式是 Google scholar 搜索关键词。...学会判断死胡同,并退回来 强大研究者花费更多时间想法上,因为他们糟糕想法上所用时间较少。能够识别好想法和坏想法似乎很大程度上是经验问题。然而,任何水平研究者都会经常遇到下面的决策问题。...仍然会一直研究一个问题,即使已经非常累了,即使没有进展也不休息。当停下来深呼吸,我会非常高兴。希望科研生涯下一个阶段能够继续内化这件事。

29510
领券