前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >通过 Devoxx Genie IntelliJ 插件可访问本地或云端 LLM 模型

通过 Devoxx Genie IntelliJ 插件可访问本地或云端 LLM 模型

作者头像
深度学习与Python
发布2024-07-12 11:19:23
1050
发布2024-07-12 11:19:23
举报
文章被收录于专栏:深度学习与python
作者 | Johan Janssen

译者 | 马可薇

策划 | Tina

百分百基于 Java 的 JetBrains IntelliJ IDEA 插件,Devoxx Genie 使用本地或云端的大语言模型(LLM)生成单元测试,并解释、审查和改进源代码。

该插件支持本地 LLM 供应商,如 Ollama、LM Studio 以及 GPT4All。本地的 LLM 为不愿将源码上传至云端的公司提供了很好的解决方案。此外,插件也支持以下基于云端的 LLM 供应商:OpenAI、Mistral、Anthropic、Groq 以及 DeepInfra。

Devoxx(4kids)的创始人,Stephan Janssen 于 2024 年 4 月发布了 Devoxx Genie,这项插件的最低版本需求为 JDK17 和 IntelliJ IDEA 2023.3.4。

该插件可通过 JetBrains 市场安装,或在 IntelliJ 内的菜单选项“设置 -> 插件”,再选择 DevoxxGenie:

该插件对本地 LLM 需求至少一条 URL,云端 LLM 则需求一个 API 密钥,但也可同时配置多个模型。配置选项可在“设置 -> Devoxx Genie 设置”中修改:

最后,在选择源码后,插件控制面板可使用 /help、/test、/review、/explain 及 \custom 提示词:

不过 LLM 的使用可能会导致大模型幻觉,也就是说答案通顺且语法正确,但事实上却不正确或无意义。检索增强生成(RAG)可被用于改进传统 LLM 的生成结果,原理是利用向量数据库或特征存储,通过提供上下文提示来增强传统的 LLM。

Stephan 还于 2024 年 4 月推出一款 LLM 的 RAG 原型,RAG Genie,用于评估嵌入和拆分策略。这项工具通过 GUI 提供详细信息,如句子的分割位置等。Stephan 在未来计划将 RAG 纳入 Devoxx Genie 插件,将其用于上下文和问题回答。RAG 还可以根据答案的质量和成本对模型进行协调,对不太重要的答案使用价格较低的模型,对较为重要的答案使用价格较高的模型。

Stephan 在法国 Devoxx 的一次分享中介绍了 RAG Genie 和 Devoxx Genie。

查看英文原文:

The Devoxx Genie IntelliJ Plugin Provides Access to Local or Cloud Based LLM Models (https://www.infoq.com/news/2024/05/devoxx-genie-intellij-plugin/)

声明:本文为 InfoQ 翻译,未经许可禁止转载。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
向量数据库
腾讯云向量数据库(Tencent Cloud VectorDB)是一款全托管的自研企业级分布式数据库服务,专用于存储、检索、分析多维向量数据。该数据库支持多种索引类型和相似度计算方法,单索引支持千亿级向量规模,可支持百万级 QPS 及毫秒级查询延迟。腾讯云向量数据库不仅能为大模型提供外部知识库,提高大模型回答的准确性,还可广泛应用于推荐系统、自然语言处理等 AI 领域。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档