在多年的工作中,我提出了以任务为核心的 BTSD 设计模型,为完成商业目和提升用户体验助力。 一、什么是 BTSD 模型? 1....BTSD 模型的定义 首先,我们先来看一下以任务为中心的 BTSD 模型: B=商业价值 Business T=用户任务 Task S=设计策略 Strategy D=设计方案 Design 商业价值引出了用户任务...DTSD 模型的由来 你已经发现,BTSD 是增长设计的变体;增长模型是商业价值引领设计策略,设计策略决定设计方案,设计方案赋能商业价值。 二者的却别在于 BTSD 引入了用户任务的模块。...二、任务的基本概念 1. 任务的定义 「任务」可以理解为有目标的活动。 对于以屏幕为载体的界面设计,「用户任务」可以理解为界面之上系统和用户共同完成的有目标的活动; 2....每个公司职能部门都有不同,我们可以通过实际工作、与相关人员聊天,查阅公司资料,跨部门参加会议等手段,尽量丰富我们对公司的了解,从中挖取本职产品的定位和诉求,从而发觉设计的机会点。
从历史上看,以客户为中心的公司比其他关注中心的公司更有利可图。这种以客户为中心的趋势导致企业在原本停滞不前的市场中蓬勃发展。然而,您如何开始让您的运营更加以客户为中心?...作为回报,公司变得更加以客户为中心,能够以更好的方式提供客户想要的东西,甚至更多。它的组成部分是什么?卡诺模型由三个不同的部分组成,每个部分都衡量客户的偏好。...如果这些产品不是这样,客户将不会高兴,并将他们的业务转移到其他地方。虽然客户确实认为某些产品是理所当然的,但它们确实塑造了您的组织以客户为中心的方式。...尽管服务和飞行路线可能相同,但座位大小的微小差异将您的航空公司分开并提高您的以客户为中心。最后,卡诺模型还测量了“兴奋度”这一指标不仅提高了客户忠诚度,还巩固了您作为市场领导者的产品和服务。...然而,这并不是组织从使用这种方法中获得的唯一好处。除了提高以客户为中心之外,卡诺模型还将增强您的企业文化。这方面的例子包括增加员工和客户之间的沟通,以及更好地了解哪些方法可以改进您的产品和服务。
Knife4j YAPI是去哪儿为推进API标准化,研发的一款API治理工具。...值得一提的是,模型在不同的项目下是相互隔离的,原则上一个项目只能使用该项目下的模型,如果想要跨项目使用模型,必须先建立项目之间的绑定关系。...MOM参考了Java的设计,项目以文件夹形式进行管理,模型所处的文件路径,决定了模型最终的生成位置。...契约系统独立维护了一套描述性极强的模型结构,对于不同的生成契约类型,只需要根据不同契约的生成规则,定制不同的契约模板即可。..., 契约修改经常冲突 如果你想把契约的变更,及时通知到各个关注方 那你可以参考MOM以模型为中心的契约管理方案,也可以持续关注MOM的后续消息。
一说到性能优化,大家可能立马就会想到和加载相关的时间了,比如首字节时间、白屏时间、首屏时间、用户可交互时间、DOMContentLoaded时间、onLoad时间等等,但是不同的人也许会有不同的衡量标准...我们大部分人都没有足够的时间投入到优化工作中,我们需要一个权威的标准来告诉我们哪些重要的事情是必须优化的和哪些次要的。 对此,Chrome团队提出了一个以用户为中心的性能模型:RAIL。...一个20ms的操作很慢?那么0.5s或者10s呢?... 显然不同的操作是需要不同数量级时间的,脱离了这个操作的上下文谈快慢是没有任何意义的。...,其实就是用户觉得这个操作怎么样,毕竟我们的站点是为用户而建的。 这就是RAIL所谓的“Focus On The User”。...小结 本文只是简单地介绍了一下chrome团队的RAIL性能模型,它为我们的性能优化工作提供一个参考模型,我们所要做的就是参照这个模型,利用Chrome的Timeline工具来进行性能优化。
工业设计的新模型会是什么样子的? 坦诚地说,到现在仍然没有什么按图索骥的方法。然而,公司和个人工程师都有在探索,数以百计的实验正在进行中。这些都显示,很多不同的主题正在出现。...另外还有第二个障碍:在大型工程公司中,CAD文件已被放在大型产品生命周期管理(PLM)系统中,数以百计的工程师可以同时为一个新汽车或飞机而工作。...还需要制定的是流程规则,以让更多厨师能接触到汤,却不会将汤打翻。 一切同步。当所有利益相关者都能够接触到一个共同的数据模型,设计流程就从按序开发变成了同步开发。...当那个资源池被组建为社区而你有工具去让合作变得可行,你就可以确信那个工作有了合适的人选,不论这个人是在哪。 应需调整的能量。在今天,增添资源是件很麻烦的事情,雇员名额的增加必须要提出申请且被批准。...一旦所有人都在同一个基于云的CAD模型上工作,许多质量问题都将消失了。 流程加快。通过同步、整合的开发和灵活的众包,从理念到商店货架的全部流程将加快许多——并且不会停止。
跑完分类模型(Logistic回归、决策树、神经网络等),我们经常面对一大堆模型评估的报表和指标,如Confusion Matrix、ROC、Lift、Gini、K-S之类(这个单子可以列很长),往往让很多在业务中需要解释它们的朋友头大...valid_p可以看到,一些实际上是good的客户,根据我们的模型(阈值p取0.5),却预测他为bad(套用我们假设检验的黑话,这就犯了“弃真”的错误),对一些原本是bad的客户,却预测他为good(“...但从上面我们看到,一些实际上是good的客户,根据我们的模型,却预测他为bad,对一些原本是bad的客户,却预测他为good。...(每个指标分中英文两行): 1....以上我们用列联表求覆盖率等指标,需要指定一个阈值(threshold)。同样,我们在valid_roc数据中,看到针对不同的阈值,而产生的相应的覆盖率。
为了使模型尽可能多地学到负样本特征,采用随机负采样为正样本配平负样,初期正负样本1:4。 由此引发了学习过程中最大的问题——模型无法收敛。...因此,每个batch包含的数据差别较大,以batch论,这些batch已经“不算一个数据集”了。解决方法就是随机打乱数据,使其分布没有“特点”,batch之间越接近,数据分布越好。...因此以某一维度的softmax输出逼近1为学习目标,几乎不可能实现,即损失函数的学习目标太难。...由此,以0.4作为softmax输出的学习目标,间接达到softmax的输入值大于0.9,即query与正样本的相似度大于0.9。更改损失函数后,模型loss迅速下降,终于可以正常训练。...模型差异较大 模型调试阶段,一直以A语料为训练数据,以Top10的语义召回率R为评价指标,随着参数调优,R从0.6逐渐上升,一度达到0.91,由此确定了模型的最佳参数。
Neural Machine Translation by Simplification: The Case of Encoder-free Models 摘要:本文试图通过简化NMT结构和训练无编码器NMT模型来理解神经机器翻译...在无编码器模型中,字嵌入和位置嵌入的和表示源.译码器是一个标准的变压器或递归神经网络,直接关注嵌入通过注意机制。...实验结果表明:(1)无编码器模型中的注意机制是一个很强的特征提取机制;(2)无编码器模型中的嵌入词与传统模型相比具有竞争力;(3)非上下文化的源表示导致性能下降;(4)无编码器模型对汉英两种语言的对齐质量有不同的影响
通常的做法是建立一个独立的文档解析Pipeline,判断文档类型并进行预处理。它主要分为三个部分: 第一个部分将不同类型的文档解析为基础文档表征。...第二个部分将基础文档表征进行处理,如版面分析、跨页合并、节点关系处理,将多元异构不同格式文档输出为可理解的顺序文档。 最后一个部分,将结果输出为markdown。 ...它能够选取合适的流程,将电子档或扫描档解析为独立的元素,再整合成为遵循大模型可理解的阅读顺序的输出。 第二部分是文档树引擎。通过目录树准确地识别主标题、子标题、子段落、表格标题。 ...归功于这两样核心技术,TextIn在双栏、非对称双栏、含表格双栏、无线表格、合并表格层级目录文档的解析上都有出色表现。...展望 合合信息的研究成果为各行业提供了实用的解决方案。合合信息开发出了高效、准确的图像处理算法和工具,为各种应用场景提供了优化的解决方案。
简单来说,就是采用 LangChain 这样的动态 prompt 工具,以根据用户的不同输入,来动态生成 prompt。又或者是,在本地采用相关性模型与算法,优化 prompt。...高级篇:面向特定场景的 LLM 应用 每个不同的通用大语言模型,受限于语料、算法、强化方式,在能力上是不同的差异。而对于现有的、开源的大语言模型来说,这种差异就更加明显了。...而由于微调后的模型是指针特定领域的,所以我们需要考虑适用于自身场景 LLM 架构方案: 动态的 LoRA 加载。诸如于针对不同场景下,可以动态经过不同的 LoRA 来处理数据。...若是想充分运用大模型,我们需要控制好 Prompt,而其中的关键就是对于上下文的工程化。 总结 本文介绍了以 LLM 为核心的程序员技术指南,包括应用篇、高级篇和上下文工程。...总之,本文提供了一份全面的 LLM 技术指南,为程序员和开发人员提供了在这一领域提高效率的方法和策略。
我们已经见识了在监督机器学习中,以模型为中心和以数据为中心两种方法之间来回摇摆的状态。 在 2010 年代后半段的一系列项目中,特征质量是关键。在旧模型中,特征是编码领域知识的工具。...基础模型的神奇特征看起来稳定且可商业化,数据被视为其中造成差异化的点。 现在可能就是以数据为中心的基础模型时代了? 我们是否在重复以数据为中心的监督学习转变?换言之,模型和工程是否在商品化?...和在测试时充分利用伟大的开源模型(在测试时调整输入和上下文数据至关重要!)都很有必要: 数据管理和以数据为中心的标度律?预测:更智能的数据集收集方法能造就小而美的模型。...我们预感,真正重要的应该是有重叠和阶次的实际信息位 —— 像熵这样的信息理论概念或能推动大小基础模型进化。 测试时的信息输入和计算。基础模型不一定立即可用,但以新的方式进行测试时计算会大为不同。...我们仍然认为,Snorkel 对数据的看法是未来的发展方向 —— 你需要编程抽象,一种通过表达、组合和反复纠正不同数据源和监督信号的方法,为最终任务训练可部署模型的方法。
在框架层,不同框架对于基于大语言模型应用的基础模块抽象正在逐渐达成共识,例如对长期记忆和 RAG 框架的抽象和对提示模板的抽象。...这一趋势将有助于不同框架更好地协同发展,实现互相兼容,从而推动更广泛的应用和创新。 在模型层,大语言模型未来的发展主要包括以下 5 个方向。...大语言模型就像计算机中的中央处理器,它的批处理大小相当于CPU的核心数,而每秒处理的 token数量则相当于CPU的主频,以Hz为单位。这些参数决定了模型的计算能力和处理速度。...《大语言模型应用指南:以ChatGPT为起点,从入门到精通的AI实践教程(全彩)》一书将帮助大家更好地理解和使用大语言模型,即使你对人工智能技术或编程技术一窍不通,也不用担心。...; 二是紧跟当前大语言模型技术的更新动态,介绍GPTs的创建,以GPT-4V和Gemini为例讲述多模态模型的应用,还包括无梯度优化、自主Agent系统、大语言模型微调、RAG框架微调、大语言模型安全技术等
Transformer 大语言模型的 SOTA 训练技术 2. 以 GPT-175B为例,最新训练技术量化分析 3. 大模型性能调优过程的显存开销、通信开销和计算开销分析 4....02 以 GPT-175B 为例,最新训练技术量化分析 1. GPT-3 模型分布式训练技术:模型并行 首先简单地介绍下一些经典的并行化技术。...在做 TP 拆分时做了一次优化,也就是对第一个 Linear 层做列拆分,对第二个 Linear 层做行拆分,因此在每次 Forward 或 Backward 时只需要一次通信就能完成两个 Linear...同时,对 Linear 层做了行拆分。...首先是显存开销,以GPT-3 为例子,主要分为三个部分,第一部分是模型占用的显存,即模型状态的显存,包括参数、梯度和 Optimizer 状态;第二部分是 Activation 占用的显存,也就是模型的
这些假设也导致了两种方法的不同重点。频繁主义者的方法涉及大量异常值、匹配方差和样本大小的概念,即它是以数据为中心的,不太关心模型。...另一方面,贝叶斯方法是关于先验、可信度和抽样的,这意味着它们以模型为中心。...为了理解这如何帮助我们更好的描述以模型为中心和以数据为中心的AI之间的区别,让我们先考虑一下统计学中最重要的方程:贝叶斯定理: 这意味着通过了解我们对模型(即 p(model) )和数据(即 p(data...因此,在以模型为中心的方法中,试图完全避免处理这个问题。在典型的拟合优度度量(贝叶斯因子、似然比等)中,我们只是提出证据概率。...所以就想出了很多可以使用的方法: 监控数据质量以控制数据中的噪声和倾斜 进行更多的预处理,以减轻训练和线上推理时异常值的影响 用不同的模型处理不同的数据子集,提高了系统的整体性能 这些方法非常重要,尤其是在刚开始开发人工智能产品时
就像其他大语言模型一样,GPT模型的架构主要基于Transformer,以文本和位置信息的向量为输入,使用注意力机制来建模词之间的关系。...比如,我们通常会聚焦于几个基准数据集,然后设计各式各样的模型去提高预测准确率。这种方式我们称作以模型为中心(model-centric)。...准确率高的模型只能确保很好地「拟合」了数据,并不一定意味着实际应用中会有很好的表现。 与model-centric不同,Data-centric更侧重于提高数据的质量和数量。...需要注意的是,「Data-centric」与「Data-driven」(数据驱动),是两个根本上不同的概念。后者仅强调使用数据去指导AI系统的搭建,这仍是聚焦于开发模型而不是去改变数据。...比如,以ChatGPT/GPT-4为代表的大模型上的突破很可能会带动计算机视觉的进一步提升,也会启发很多AI驱动的应用场景,例如金融、医疗等等。
该文提出了一种新的生成模型,该模型通过将蛋白质结合口袋的3D结构信息整合到条件RNN(cRNN)模型中,以控制类药分子的生成。...在控制模块中,每一个控制层接收口袋描述符作为输入,连接两个独立的dense层,其输出用于设置RNN模块的单元状态或隐藏状态以生成SMILES。...控制模块中dense层的大小为256,每个RNN层包含256个神经元。批量标准化应用于所有RNN层。 实验结果表明,本文提出的方法在多个指标上取得了令人满意的结果。...首先,蛋白质结合口袋组成的残基划定在在配体原子周围6.5Å半径范围内;其次,从20种标准氨基酸中提取11种片段,定义为结合口袋的关键要素。它们代表蛋白质侧链中的官能团以及可能与配体形成相互作用的骨架。...最后,为每个片段设置一个虚拟原子,其坐标为片段的质心。为了表示不同大小的结合口袋,片段的最大原子数量是预定义的。当特定类型片段的真实数量小于预定义的最大时,就会加入一系列位于无穷远的幽灵原子。
简单来说,他们就是试图对秀丽隐杆线虫的整个神经元系统进行编辑“模拟”,以用于控制机器人。 线虫是什么?为什么选择线虫?...天,平均繁殖力为300-350个(但若与雄虫交配,可产生多达1400个以上的后代)。...研究尚处于第一阶段,该阶段内,他们计划通过建立包含302个神经元和95个肌肉细胞的模型来模拟蠕虫运动。...目前,此项目的物理引擎Sibernetic已经建好,神经连接组和肌肉细胞也已创建为NeuroML格式,整个蠕虫的三维解剖模型可以通过浏览器自由查看。...总的来说,整个模拟出来的机器人,运动、反应都酷似线虫,不同于现在的神经网络,它不需要事先的数据训练和学习,遇见墙或者障碍物,它会自动尝试转个方向走。
领取专属 10元无门槛券
手把手带您无忧上云