一、系统概述
AI生成测试用例智能体平台是一款基于人工智能技术的测试用例自动生成工具,利用RAG(检索增强生成)技术,能够结合项目相关知识文档和历史用例,智能生成高质量的测试用例。
本平台适用于测试团队快速创建测试用例,提高测试效率和质量。
主要功能
二、安装与配置
系统要求
安装步骤
1、克隆或下载项目代码
https://xxx.git (项目源码可联系作者获取)
cd rag_testcase_plafform
2、创建并激活虚拟环境
# Windows
python-m venv venv
.\venv\Scripts\activate
# Linux/macOS
python-m venv venv
source venv/bin/activate
3、安装依赖包
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
4、安装Ollama(默认本地模型,可选)
从Ollama官网下载并安装最新版本
5、下载模型(使用Ollama时)
ollama pull qwen2.5:7b
6、启动应用
streamlit run rag_test_agent.py
三、界面介绍
应用启动后会在浏览器中打开,界面分为三个主要标签页:
3.1 生成测试用例
左侧区域用于输入需求描述和配置生成参数,右侧显示知识库状态。
3.2 知识库管理
用于上传和管理知识文档,查看已有知识库内容。
3.3 模型设置
配置AI模型类型、参数和API连接信息。
四、生成测试用例
4.1 输入需求描述
有两种方式输入需求描述:
4.2 配置生成参数
4.3 生成测试用例
1、确认输入和参数后,点击"🚀 生成测试用例"按钮
2、系统首先会从知识库中搜索相关信息(如启用了增强功能)
3、调用AI模型生成测试用例
4、生成完成后显示结果,并自动保存到历史记录中
5、点击导出按钮,可直接导出Excel测试用例
4.4 查看生成结果
结果以四种形式展示:
五、知识库管理
5.1 上传知识文档
1、切换到"知识库管理"标签页
2、上传文档(支持PDF、Word、TXT、Markdown、JSON格式)
3、点击"处理文档"按钮
4、系统会自动分析文档内容并提取知识段落
5、处理完成后显示提取的段落数量
5.2 查看知识库内容
六、模型设置
6.1 选择模型提供商
6.2 配置模型参数
根据选择的提供商配置相应参数:
Ollama:
OpenAI:
Custom:
七、导出功能
7.1 导出为JSON
1、生成测试用例后,切换到"导出文件"标签
2、点击"导出为JSON"按钮下载JSON格式文件
7.2 导出为Markdown
1、生成测试用例后,切换到"导出文件"标签
2、点击"导出为Markdown"按钮下载Markdown格式文件
3、可在"Markdown预览"中查看导出效果
Markdown格式包含:
4、导出md文件后,在xmind中导入,进行用例评审
八、常见问题解答
8.1 生成的测试用例质量不高
8.2 模型连接失败
8.3 文档上传失败
九、最佳实践
9.1 提高测试用例生成质量
9.2 知识库管理建议
9.3 效率提升技巧
通过本文档,相信你应能够快速上手LLM+RAG的生成测试用例智能体平台,高效地生成和管理测试用例。
原文出处:https://chengaoyi.blog.csdn.net/article/details/146918842