首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

在过去的几个月里,为了探索了 LLM 结合 SDLC、BizDevOps 的可能性,我们(Thoughtworks 开源社区)创建了 ClickPrompt、 AutoDev、DevTi 等一系列的开源项目。从个人的经验来看,未来越来越多的应用将围绕于 LLM@Core 设计,所以我们挖了一个新的坑、新的试验:ArchGuard Co-mate:https://github.com/archguard/comate,欢迎来入坑一起探索和研究。

Why is Co-mate ?

我们发起 Co-mate 项目的原因,可以归于:在 LLM 优先的应用开发时代,掌握相关的开发技能。这些相关的技能包含但是不限于:

探索是否存在更好的交互模?如基于 Chat 的动态 UI(DSL)生成 等。

适用于 JVM 体系下的 LLM 应用开发?如 JVM 版 LangChain、Embedding 等。

如何辅助上下文理解、构建的本地小模型?即 Sentence Transformer + ONNX 的本地处理。

如何设计新一代、适用于 LLM 的软件 API?即如何以确定性的方式与 ArchGuard API 交互。

如何更好地构建上下文,以工程化的方式构建 AI 应用的上下文(即 prompt)?

而出于架构治理的场景,我们则是想探索:

如何让 LLM 解释软件架构给人听?毕竟,让人理解构建都是一件费力的事情。

如何让 LLM 基于代码、分层、依赖关系等,解释架构、业务?

如何让 LLM 更好地理解规范,从文档出发,去设计软件架构?

每个问题都足够的有意思,并且具备一定的业务和技术复杂度,足以让我们掌握基于 LLM 的软件架构所需要考虑的因素。

What is Co-mate ?

作为一个探索性的项目,解释 Co-mate 的用途并不是一件容易的事情。一个架构师的助手能做到什么程度,我们还没有想得足够的清晰 —— 因为我们还没对架构的定义达到一致意见。

但是呢,先让我们看看 Co-mate 当前的处理流程:

从表面上看,基本上和主流的 AI 应用没有区别;从实际代码上来看,和主流的 AI 应用也看不出多大的区别。还是让我们看看两个典型的 Co-mate 场景。

示例 1:介绍一下这个系统

当用户在 Co-mate 中去分析 Co-mate 时,会返回类似于如下的结果:

Co-mate 项目是一个 AI 助手应用程序,使用了 Jetpack Compose、RxJava、DataStore 等一系列相关的库来构建设计和治理工具等功能。该应用还使用了一些第三方库来构建用户界面,如 Coil-Compose、Voyager Navigator 等,以及进行深度学习推理任务,如 Kotlin Deep Learning API、Inference API 等。该应用需要考虑高效的算法和模型推理能力等非功能需求。

对于这个场景下,其数据处理过程如下:

匹配本地相关的指令(如 “分析系统”)

如果匹配到,则直接调用 AG API 来构建上下文。

如果没有匹配到,则调用 LLM 进行选择命令,然后可以调用 AG 原有 API。

调用 AG API 构建上下文(项目信息、软件依赖信息等)。

调用 LLM 进行总结,并返回给用户。

所以,我们尝试构建两个新的 API:本地语义分析、(动态)上下文收集 API。

示例 2:API 规范性检查

基于 ArchGuard 的能力,我们挑选的第二个场景是检查 API 是否规范。当你有一个 Controller 里的 API 需要检查是否符合 API 规范时,就可以执行:  。

假设你的 API 是:  ,并且已经通过  (还没有实现)转换了你的 API 规范。

最后,Co-mate 会返回:

API '/api/blog/get' 不符合 URI 构造规范,Rule: uri construction regex: \/api\/[a-zA-Z0-9]+\/v[0-9]+\/[a-zA-Z0-9\/-]+,建议 API 修改为 '/api/blog/v1/get'。

(PS:垃圾 GPT 3.5 Turbo,居然认可了 /get)

所以,当你有了完整的架构规范时,那么就可以进入下一代架构生成:

这也是我们想进一步探索的工作。

How Co-mate works ?

众所周知 GPT 充满了各种不确定性,人们对于 GPT 理解的能力也是不同的。因此,从架构设计的角度来说,我们需要分解 GPT 的原子能力,诸如于总结、分类、提取、翻译、逻辑推理,消除其中的不确定性因素,再由我们的软件封装 API 提供动态能力。

分层架构与 ArchGuard 能力映射

在示例 1 中,我们做的第一件是分解架构与数据按不同的架构元素分析。因为我们对于架构缺乏统一的定义,所以我从 Global 的 slides 找了一个适合于 LLM 理解的分层架构、并且也适用于 ArchGuard 表达。随后,构建了一个不太成功的分层与所需要的上下文数据映射:

于是在示例 1 里,我们给的 prompt 模板是:

项目是一个 应用程序,使用了 Jetpack Compose、 和一系列相关的库来构建 等功能。该应用还使用了一些第三方库来构建用户界面 ,以及进行 等任务。该应用需要考虑 等非功能需求。

在这个 prompt 里,它依赖于两个主要数据:项目介绍与项目的技术栈(依赖信息)。技术栈可以直接从 ArchGuard SCA 中获取,而项目介绍则是从 README.md 中解析得到的。

LLM 与 Co-mate API 的能力映射

在示例 2 中,我们做的第一件事是分解 API 文档按不同 LLM 的原子能力进行分解。构建出四种不同的原子能力:

推理出适用于 URI 的正则表达式。

推理出一个合理的 example。

提取一些 checklist,诸如于状态码、HTTP Action 等。

将剩下的不确定性内容,扔到一起。

如下图所示:

在右侧,我们则构建了一个 Kotlin Typesafe DSL,以动态的加载到系统中(未来),每一个函数对应到一个 Rule。

作为一个 demo,这个 DSL 依旧具备很大的完善空间。其中比较有意思的部分在于 security 和 misc 部分,这些不确定性正好适用于 LLM 进行推理。所以,在执行对应的 misc、security 规则检查时,会再调用 GPT 来检查:

以将其中的确定性与不确定性更好的结合,进而充分地利用了 LLM 与 ArchGuard 的能力,并减少对 GPT 的消耗。

Welcome join us

下图是,当前 ArchGuard Co-mate 的所有模块:

简单介绍如下:

Comate-Core 提供了 CLI 和 GUI 所需要的基本能力,

Meta-Action 则是定义了基本的 Action

Architecture 定义了什么是 Co-mate 理解的架构

LLM-Core 则是对于 LLM 的调用 。

Spec Partitioner 则是计划对于规范的提取与自动生成(当前都是手动 prompt)

而我们在采用 JVM 技术栈的时候,遇到了几个坑 KotlinDL 和 Deep Java Library 都是通过 JNI/Rust 的方式调用了 HuggingFace Tokenizers、ONNX API,导致了应用在 macOS 下 crash。而一种理想的方式应该是通过 JSON RPC 的方式来调用,所以我们计划使用 Rust 构建一个新的模块:Comate Agent。

总结

该文介绍了 Thoughtworks 开源社区创建的一系列开源项目,探索了大语言模型与架构治理、架构设计的可能性。其中,ArchGuard Co-mate 是一个探索性的项目,旨在探索架构师助手的能力,包括本地语义分析、动态上下文收集 API、架构规范检查等。文章还介绍了分层架构与 ArchGuard 能力映射、LLM 与 Co-mate API 的能力映射等内容。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230608A08MJT00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券