首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Dify x AiOnly平台:手把手教你调用GPT-5从零构建AI工作流!

Dify x AiOnly平台:手把手教你调用GPT-5从零构建AI工作流!

原创
作者头像
中杯可乐多加冰
发布2025-09-25 13:15:55
发布2025-09-25 13:15:55
3310
举报

引言

今年,全球 AI 大模型持续快速迭代,无论是GPT、Gemini、Claude等系列,还是DeepSeek、Qwen、Doubao等系列,都在不断演进,近期备受关注的Gemini 3.0,据说也将正式发布。在这一发展浪潮中,Dify 作为一款开源低代码大模型应用开发平台,为开发者和企业提供了全新的 AI 应用构建体验。

本文将结合热门的 Dify 与 AiOnly 平台,逐步介绍如何从零开始调用模型,构建专属 AI 工作流,并以互动故事机的聊天机器人为例。

一、集成顶尖大模型的MaaS平台

1.1 常见的接入挑战

若想搭建专属 AI 工作流,第一步便是挑选合适的大模型API进行调用,然而,在考虑 GPT-5、Gemini 2.5、Claude 4.1等热门大模型时,却常常会遇到以下问题。

1.1.1 访问困境

网络访问是接入这些模型的首个挑战,即便使用魔法,简单的文本生成请求也可能耗时数秒甚至超时失败,而在进行多轮对话、图像生成等大流量交互时,连接中断更是家常便饭。

1.1.2 地区限制、注册门槛

除了网络问题,地区支持也是一大障碍,国内开发者即使完成注册,也可能因 IP 归属地问题被拒绝服务。注册本身也存在门槛,比如要求境外手机号、信用卡、邮箱等,让人难以触及。

1.1.3 多平台管理难、使用成本高

在模型调用方面,不同模型需要独立的 API 密钥、调用协议和参数格式,开发者需为每个模型编写适配代码,仅参数配置文件就可能多达十余份。模型版本更新、密钥过期或权限调整时,需逐一登录相应平台进行操作,流程繁琐且容易出错,维护不及时还可能引发服务中断。

在Token费用方面,各平台计费规则也不统一,比如订阅制、积分制等多种方式,不仅提高了使用成本,还可能因规则不透明,导致超额扣费或资源闲置。

1.2 AiOnly全球大模型服务平台

为了便于开发者一站式调用API,MaaS大模型服务平台日渐兴起,成为项目开发必不可少的工具

除了集成自研大模型的厂商,最近意外发现了AiOnly平台,提供企业级的API服务,极大降低了海外访问成本,以及模型Token使用成本,同时,高并发支持,多账号轮询超越原厂水平,尤其是高速专线,国内直连最新顶尖大模型,比如最近很火的Nano Banana。

深度体验了一下AiOnly,平台注册简便,开箱即用,并提供免费体验额度,而且采用按量计费(Token或次数),灵活性高。模型广场涵盖了大部分主流和热门模型,满足文本、图像、视频、语音等多类场景需求,不仅支持API调用,也可在线体验各种AI多模态生成能力。

二、前期部署+环境准备

2.1 安装Docker 环境

Docker 是一个开源的容器化平台,用于开发、交付和运行应用,使应用及其依赖能够以轻量级、可移植的方式打包并运行在任何环境中。Dify 平台基于 Docker 进行部署,因此我们需要先安装 Docker 环境。

2.1.1 下载并安装Docker Desktop

这里我们直接进入 Docker 的官网:https://www.docker.com/,选择Docker Desktop点击下载

2.1.2 配置国内镜像源

然后,点击 安装包 进行安装,出现这个界面后,直接点击 OK,进行下一步操作。

安装完成后,我们启动 Docker Desktop ,然后选择 Google 账号或 GitHub 账号 登录即可。

之后,点击 设置 更换为 国内镜像源,不然我们在部署Dify时会出现拉取报错、网络访问不畅等情况。

暂时无法在飞书文档外展示此内容

复制粘贴到 Docker Engine ,然后点击 重启与应用 就好了。

2.2 使用Docker快速部署Dify

2.2.1 拉取并部署Dify

这里点击访问 https://github.com/langgenius/dify,本地部署的话,直接选择下载 ZIP 文件或使用 Git 克隆项目。

2.2.2 启动Dify服务

然后,解压进入 Dify 文件的Docker 文件,将隐藏文件 .env.example 改为 .env

然后,进入该目录的终端操作界面,就可以一键部署Dify了。

2.2.3 访问 Dify 平台

等待部署完成后,我们只需要在浏览器输入 http://127.0.0.1 即可访问 Dify 平台,进行注册使用即可。

三、AiOnly+Dify 应用构建实战

3.1 添加 OpenAI模型插件

进入Dify前端界面后,打开 Dify 的 Settings 进行设置。

选择导航栏 Model Provider ,添加兼容 OpenAI 接口的模型插件,比如 GPUSTACK。

然后,安装一下插件。

3.2 获取 AiOnly GPT-5 大模型 API

3.2.1 添加模型名称

3.2.2 创建 AiOnly key

注册登录 AiOnly ,进入控制台左侧的资源管理,点击 创建API Key 。

前往 模型广场,直接开通 GPT-5 的模型服务,然后,在开通管理里,就可以看到模型名称。

3.2.3 添加顶尖大模型

我们点击 Dify 的设置进入模型供应商选项中,添加模型。

然后,添加模型时,填写我们的 模型名称和API key,API endpoint URL 处填写: https://api.aiionly.com/v1

设置完成后,便可在模型列表中,看到我们新增的模型了。

3.3 构建 AI 应用

Dify 主界面,选择 创建空白应用

由于我们此次要构建的是聊天机器人,因此直接选择支持记忆功能的复杂多轮对话工作流即可。然后,还需为聊天机器人拟定名称,并描述其所需具备的功能

3.4 编排工作流节点

点击创建,我们就进入到Agent里的工作流编排,在这里,可以对模型进行调整、预览效果等等。

点击此处功能模块,就可继续对 Agent 应用的搭建与配置。选择支持提供下一步操作建议、文件上传等实用功能,让我们的聊天机器人进一步完善,提升交互体验与实用价值。

3.5 启动工作流查看运行效果

在Agent 工作流编排期间,我们还可以对应用进行调试,选择合适的大模型接入。在AiOnly平台,我们无需额外配置,仅一个接口就可以使用各种全球大模型。这里我选择了 GPT-5、gemini-2.5-flash、claude-opus-4 进行了测试。

其中备受争议的GPT-5,推理和输出token效果最好,尽管生成用时略长,但它所创作的故事内容丰富详实、情节生动精彩。相比之下,Gemini 与 Claude 的其他版本,在文本故事生成场景中表现稍逊,不仅整体效果不及GPT-5,生成的故事文本长度也明显不足。由于版本能力差异,以上仅供参考。

四、AiOnly 平台更多实用功能

除了基础的大模型服务之外,AiOnly还提供一系列增强功能,例如 Prompt 优化工具与 RAG 知识库管理系统,帮助用户更高效地构建和应用AI能力。

4.1 Prompt优化工具的创作实践

对于缺乏 AI 使用经验的用户而言,编写有效的 Prompt 可能存在困难,很多并不擅长如何向AI表达自己的需求,要么表述过于笼统,比如仅一句 “帮我写篇文章”,让 AI 无从判断内容方向、风格基调与核心重点,要么遗漏关键信息,而Prompt优化工具就可以完美帮我们解决这个事情。

当我们给 Prompt 优化工具分配任务时,它会按步骤展开工作:先分析输入 prompt 的结构,识别出指令不够明确、格式要求不清晰等问题,再直接将其优化重构为专业度极高的 prompt。

4.2 RAG知识库管理系统

要让 AI 应用提供更精准的服务,融合私有数据是核心前提。但自建完整 RAG 系统的高昂成本,成为了许多用户的痛点。AiOnly 的现成解决方案恰好解决了这一问题,其不仅支持多种格式文档上传,还能自动完成数据清洗与向量化处理,通过多源数据的智能抽取与清洗,实现深度语言理解与向量检索的高效融合。

4.3 第三方集成工具的无缝衔接

除此之外,AiOnly 平台还支持与 WPS、Cherry Studio、纳米 AI 等常用工具及平台的深度集成。仅需在对应软件内完成 API 配置,即可轻松调用 AiOnly 平台所支持的全部模型,实现功能与数据的高效联动。

目前,平台的集成范围正持续拓展更新,以下工具 / 平台已完成适配并支持集成:通用 AI 客户端 Cherry Studio、纳米 AI;代码开发工具 Cursor、Cline、Dify;浏览器插件 Sider、Glarity等,可参考平台具体配置文档。

结语

最后,全球AI大模型技术虽在飞速迭代,但对许多刚接触AI的新手而言,技术门槛和使用复杂度仍是一大挑战,往往令人望而却步。AiOnly 正如一把钥匙,帮助大家轻松打开这扇门,无需繁琐配置,不必担心成本,只需访问平台官网,即可一键调用全球顶尖AI大模型,再结合 Dify 等开发工具,快速落地我们的AI应用。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 引言
  • 一、集成顶尖大模型的MaaS平台
    • 1.1 常见的接入挑战
      • 1.1.1 访问困境
      • 1.1.2 地区限制、注册门槛
      • 1.1.3 多平台管理难、使用成本高
    • 1.2 AiOnly全球大模型服务平台
  • 二、前期部署+环境准备
    • 2.1 安装Docker 环境
      • 2.1.1 下载并安装Docker Desktop
      • 2.1.2 配置国内镜像源
    • 2.2 使用Docker快速部署Dify
      • 2.2.1 拉取并部署Dify
      • 2.2.2 启动Dify服务
      • 2.2.3 访问 Dify 平台
  • 三、AiOnly+Dify 应用构建实战
    • 3.1 添加 OpenAI模型插件
    • 3.2 获取 AiOnly GPT-5 大模型 API
      • 3.2.1 添加模型名称
      • 3.2.2 创建 AiOnly key
      • 3.2.3 添加顶尖大模型
    • 3.3 构建 AI 应用
    • 3.4 编排工作流节点
    • 3.5 启动工作流查看运行效果
  • 四、AiOnly 平台更多实用功能
    • 4.1 Prompt优化工具的创作实践
    • 4.2 RAG知识库管理系统
    • 4.3 第三方集成工具的无缝衔接
  • 结语
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档