2025年10月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型广场 | 全新上架系列大模型,支持一键部署推理服务。 1. [Hot]DeepSeek-V3.2-Exp 2. DeepSeek-V3.1-Terminus-AngelAcc 3. DeepSeek-V3.1-AngelAcc 4. Qwen3-VL-235B-A22B-Instruct | 2025-10-15 | |
模型评测 | [Hot]全新上线“聚合指标”功能,支持将评测任务中评测集所包含的原始指标计算为聚合指标。 1. 支持通过雷达图直观对比不同模型的聚合指标。 2. 支持以表格形式查看聚合指标值。 | 2025-10-15 | |
在线服务 | 1. [Hot]新增“ CLB 调用”模式,支持将 CLB(负载均衡)直连在线服务,在大流量场景下提升服务调用的性能和稳定性。 2. 升级流量控制能力,支持按密钥限制服务最大并发数。 3. 升级监控能力,新增大模型监控指标“Token 利用率”,便于观测 KV Cache 剩余可用空间。 4. 升级内置开源镜像 vLLM 到 0.10.2 版本。 5. 优化前端交互,明确“新增版本”和“更新”功能的差异(“新增版本”适用于模型/镜像文件的迭代升级;“更新”适用于服务参数的修改)。 | 2025-10-15 | 在线服务部署 在线服务调用 |
资源组管理 | 新增连通性检测功能并展示节点 IP,支持检测平台 VPC 与节点 VPC 的网络是否互通,避免因网络原因导致节点不可用。 | 2025-10-15 | - |
2025年09月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型广场 | 全新上架系列大模型,支持一键部署推理服务。 1. [Hot] DeepSeek-V3.1-Terminus 2. Kimi-K2-Instruct-0905 3. Qwen2.5-VL-32B-Instruct 4. gemma-3-27b-it 5. gemma-3-12b-it 6. GLM-4.5V | 2025-09-24 | |
任务式建模/开发机 | 优化列表体验,支持快速勾选仅运行中的任务/实例。 | 2025-09-24 | - |
数据中心/任务式建模 | 更新内置大模型训练格式,支持 messages 格式。并同步更新数据构建内置 pipeline 的输出数据格式。 | 2025-09-24 | |
模型评测 | 自动评测完成系列体验优化。 1. 裁判模型支持单独设置 System Prompt。 2. 放宽待评测模型的 System Prompt 字符限制。 3. 优化“单条打分结果查看”,支持通过快捷键快速随机选取一条数据。 4. 优化“选择内置评测集”,支持通过模糊搜索定位内置评测集。 5. 优化代码编辑器交互框,增加语法高亮。 6. 优化自动评测报错提示。 | 2025-09-24 | |
资源组管理 | [Hot] 新增“算力配额管理”功能,支持配置指定用户在资源组内的可用资源上限。 | 2025-09-24 | |
任务式建模 | 针对任务自动重启场景,优化记录和日志展示,便于快速定位。 1. 任务详情页新增“执行记录”,展示手动执行和自动重启的运行记录。 2. 支持按照任务执行记录区分展示日志和事件。 | 2025-09-19 | |
资源组管理 | [Hot] 新增“热备资源组”功能,支持自动替换故障节点,减少故障恢复时间。 | 2025-09-19 | |
数据中心 | 大模型数据集新增对接 GooseFSx 存储。 | 2025-09-11 | - |
任务式建模 | 1. 任务列表页默认按照任务启动时间排序。 2. 优化日志页面节点筛选交互细节,支持按照节点名称检索,同时下拉的节点列表按照节点编号顺序排列。 3. 自动重启和健康检测扩展至 Ray 模式训练任务。 | 2025-09-11 | - |
模型评测 | [Hot] 全新上线“自动评测”功能,支持基于裁判模型的自动打分,并支持灵活定义打分流程。 1. 支持自定义评测集并支持抽样预览,支持自定义评测指标。 2. 支持灵活定义评测流程,可配置前处理、后处理及裁判模型打分配置。 3. 支持正式发起评测任务前进行调试。 4. 支持查看整体评测结果和单条打分结果的分步骤展开。 原主观评测更名为人工评测;原客观评测更名自动评测,包含本次新上线的裁判模型打分功能,和原有的内置评测集自动打分功能。 | 2025-09-11 | |
资源组管理 | 优化节点列表,单页数据范围扩展至50条/100条。 | 2025-09-11 | - |
2025年08月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
在线服务 | 新增内置 ComfyUI 推理镜像,支持文生图推理场景。 | 2025-08-28 | - |
大模型广场 | [Hot] 全新上架 DeepSeek-V3.1 模型,支持一键部署推理服务。 | 2025-08-22 | |
任务式建模 | 优化细节体验,支持在详情页中启动、停止、复制、删除任务,以及打开 TensorBoard 监控页面。 | 2025-08-21 | - |
在线服务 | 1. 优先级抢占策略扩展至在线服务,低优先级在线服务现在可被高优先级在线服务或者任务式建模抢占,以提升全局调度灵活性; 2. 在线服务支持跨资源组调度,当服务部署时选择的原资源组不足时,可调度到已配置资源出借的其他资源组(该功能属于公测阶段,如有测试需求请联系产品经理开启白名单); 3. 针对模型来源为“资源组缓存”的服务部署,支持用户配置自定义 CFS 文件,实现灵活挂载服务依赖的配置等文件。 | 2025-08-21 | |
资源组管理 | [Hot] 新增文件预加载功能,支持将模型/数据等文件预先缓存至资源组节点的数据盘,以提升训练任务/在线服务的启动速度。 | 2025-08-21 | |
全局 | 日志检索功能及页面交互优化。新增返回顶部/底部的快捷按钮,新增全文检索功能,优化页面顶部控件布局。 | 2025-08-21 | - |
大模型广场 | 全新上架系列大模型,支持一键部署推理服务。 1. [Hot] gpt-oss-120b、gpt-oss-20b 2. [Hot] Kimi-K2 3. DeepSeek-R1-Distill-Qwen-32B-AngelACC 4. Cosmos-reason1-7b | 2025-08-15 | |
任务式建模 | 优化任务复制时的自动命名规则,精简名称长度。 | 2025-08-13 | - |
开发机 | 支持配置自定义端口,用于访问开发机中启动的服务。 | 2025-08-13 | |
在线服务 | 支持按用户密钥 Authtoken 维度筛选展示各用户调用大模型服务处理的 Tokens 总量监控信息。 | 2025-08-13 |
2025年07月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
在线服务 | 1. 新增支持用户按照 LLM 场景下通用的监控指标“处理中请求数”进行自动扩缩容。 2. 升级内置自研 angel-vllm 推理镜像到最新版本 0.9.2。 | 2025-07-24 | |
资源组管理 | 新增子网 IP 校验,支持在增加节点时判断 CVM 机器所属 VPC 子网的剩余可用 IP 是否充足,避免部署超时。 | 2025-07-24 | |
大模型广场 | [Hot] 全新上架 Kimi-K2 模型,支持发起一键部署推理服务。 | 2025-07-21 | |
在线服务 | 1. [Hot] 新增大模型监控指标:总 Token 耗时(TRT,Total Response Time)、平均输出速率(OTPS,Output Tokens Per Second)、每分钟处理 Token 数(TPM,Tokens Per Minute)。 2. 支持在服务更新时切换资源组。 | 2025-07-17 | |
资源组管理 | 节点列表支持按“可用 GPU 卡数”排序,以快速找到空闲/繁忙的节点。 | 2025-07-17 | - |
健康检测 | 新增检测项“慢节点检测”,便于定位性能较差的异常节点。支持在新建任务式建模时发起检测,以及在资源组中直接对节点进行检测。 | 2025-07-17 | - |
开发机 | 支持在 VSCode WebIDE 页面展示开发机实例名称。 | 2025-07-11 | - |
在线服务 | 1. 单机部署模式下支持选择 vRDMA 机型。 2. 升级内置 vLLM 镜像到 V0.9.1 版本。 | 2025-07-11 | - |
模型评测 | 模型评测新增支持 GooseFSx 和数据源,为评测集和模型增加可选来源。 | 2025-07-11 | |
数据源管理 | [Hot] 全新上线数据源管理功能。 1. 支持将腾讯云 CFS/GooseFSx 的目录注册为数据源,并在数据集、任务式建模、开发机、模型评测、在线服务中快速使用。 2. 支持对数据源的挂载权限进行控制(需搭配使用访问管理(CAM)和标签(Tag))。 | 2025-07-11 | |
全局优化 | 1. 优化列表页的检索体验,支持自动识别 ID 类型的检索关键词并进行更准确的检索,覆盖数据中心、任务式建模、开发机、在线服务。 2. 当挂载 Turbo 类型 CFS 根目录时进行风险提示,减少因挂载根目录而造成的读写性能异常,覆盖任务式建模、开发机、模型评测、在线服务、数据源管理。 | 2025-07-11 | - |
在线服务 | 在“按量计费”模式下,大幅优化部分机型上的在线服务部署/扩容性能。 | 2025-07-02 | - |
计费 | 优化平台欠费策略,适当延长欠费后保留数据的时长: 1. 当机器来源为“从 CVM 机器中选择”时,欠费后数据将保留15天。 2. 当机器来源为“从 TI-ONE 平台购买”时,欠费后数据将保留2小时。 | 2025-07-02 |
2025年06月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
开发机 | 1. 支持在“提交中”状态下手动停止开发机。 2. 支持在详情页中打开 WebIDE。 | 2025-06-25 | - |
任务式建模 | 当训练任务因异常而自动重启时,增加显性提示,展示异常重启状态和重启次数。 | 2025-06-25 | - |
在线服务 | 1. [Hot] 支持对线上服务进行版本切换,支持设置切换批次和查看每批次的详细进度,支持暂停、继续、终止切换。 2. 实例列表增加节点 IP 信息,便于用户快速定位异常节点。 | 2025-06-25 | |
开发机 | 支持修改运行中实例的 SSH 公钥。 | 2025-06-12 | - |
在线服务 | 1. [Hot] 支持 DeepSeek-R1-0528 模型部署后的 Function Call 能力。 2. 新增支持在线服务一键复制,可快速实现同地域或跨地域的服务迁移部署。 | 2025-06-12 | |
模型评测 | [Hot] 支持直接评测在线服务,包括 TI 平台部署的在线服务以及第三方模型服务,提升用户评测效率。 | 2025-06-12 | 客观评测 主观评测 |
2025年05月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型广场 | [Hot] 全新上架 DeepSeek-R1-0528 模型,支持发起训练或一键部署推理服务。 | 2025-05-29 | |
任务式建模 | 1. 新增支持 HCCPNV6e 机型的自驾行业镜像,支持运行 vRDMA(当前仅支持 BEVFormer 和 Sparse4D)。 2. 创建任务并配置 COS 作为下载存储路径时,支持选择到文件。 | 2025-05-27 | - |
开发机 | 1. [Hot] 全新支持在开发机中构建和运行 Docker 镜像。 2. 支持开发机实例闲置回收告警。配置告警后,将提前24小时和30分钟发送告警信息(需在可观测平台-事件总线配置相应告警规则)。 3. 优化 SSH 远程连接密钥配置,扩大密钥支持的最大字数范围、支持放大密钥输入框、自动处理空格/制表符等非法字符。 4. 内置自驾行业镜像支持可选 HCCPNV6e 机型。 | 2025-05-27 | |
在线服务 | 1. [Hot] 在线服务全新支持排队功能。当资源不足时,在线服务部署将进入排队队列。 2. 升级在线服务列表页细节,支持快速筛选“我的服务/运行中服务”,并新增“模型来源、创建者、开始排队时间、更新时间”等关键字段。 3. 支持一键复制和批量导入环境变量。 | 2025-05-27 | |
模型评测 | 客观评测新增以下内置开源评测集:TheoremQA、TruthfulQA、Winogrande、IFEval/IFEval。 | 2025-05-27 | |
资源组管理 | 1. 优化释放节点时的提示信息,提示 CVM 机器不会自动释放。 2. 支持直接购买和自动续买“竞价实例”类型的 CVM(公测中,如有测试需求请联系产品经理开启白名单)。 | 2025-05-27 | |
大模型广场 | 全新上架 Llama4 系列模型,支持一键部署推理服务。 | 2025-05-15 | |
任务式建模 | 1. [Hot] 创建任务时支持配置健康检测,已支持 NCCL 网络检测,用于检测训练任务多卡或者多节点之间的通信性能,帮助用户提前发现异常节点。 2. 支持日志分类展示,可按照平台日志(健康检测)、平台日志(初始化)、训练代码日志进行日志过滤,方便用户针对性的查看所关心的日志分类。 | 2025-05-15 | 创建任务 任务管理 |
模型评测 | 1. 客观评测新增内置开源评测集 MATH-500/AIME2024/GPQA Diamond。 2. 选择待评测模型时,支持设置更多参数(如服务部署参数、性能参数等),帮助用户高效评测模型。 | 2025-05-15 | |
在线服务 | 1. [Hot] 新建服务支持配置健康检测:支持“存活/就绪/启动”三种探针类型,支持“HTTPGet/TCPSocket/Exec”三种检测机制。 2. 支持配置服务滚动更新的“MaxSurge/MaxUnavailable”策略,保障线上服务的平滑升级或回滚。 3. 标准部署和多机部署模式下新增支持边车容器配置(Sidecar),边车容器通过提供额外的服务或功能(如日志记录、监控等)来增强或扩展主应用容器功能。 4. 支持主动隔离服务运行中的异常实例,隔离后流量将不再分配到被隔离的实例上。 | 2025-05-14 | |
资源组管理 | [Hot] 支持创建节点维度的健康检测任务,目前已支持 NCCL 网络检测。当节点内多卡或者多节点之间的通信性能出现异常时,帮助用户快速定位并排查问题。 | 2025-05-14 | |
国际站 | [Hot] 全新上线“新加坡”地域。 | 2025-05-13 |
2025年04月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
在线服务 | 1. [Hot] 升级服务鉴权与流量控制功能。支持面向单个服务配置多个密钥,并支持基于 Tokens 计数进行大模型流量控制,可实现精细化的调用方管理和流量控制。 2. 新增支持 gRPC 协议。 3. 支持用户通过环境变量(model_name)自定义调用模型名称。 | 2025-04-25 | |
数据中心 | 升级 MLLM 多模态大模型标注能力,新增"位置框"标注组件(ImageBoxList),支持文档解析等场景下的标注。 | 2025-04-25 | |
任务式建模 | 1. 任务式建模支持对接 Git 存储库。 2. 任务式建模支持 COS 挂载(以白名单方式支持)。 3. 在机器来源为“从 TIONE 平台购买”的情况下,修复使用 TIKit 提交训练任务时,指定 VPC 和子网未生效的问题。 | 2025-04-18 | |
开发机/任务式建模 | 任务式建模和开发机新增内置自驾行业通用镜像,支持快速启动 BEVFusion、FastBEV、MapTR、HiVT、UniAD、Sparse4D、PanoOcc 模型训练。 | 2025-04-02 |
2025年03月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型广场 | [Hot] 全新上架 DeepSeek-V3-0324 模型,支持一键发起训练或部署推理服务。 | 2025-03-26 | |
数据中心 | 数据构建内置 Pipeline 支持调用第三方模型服务接口,从而更便捷完成面向模型蒸馏场景的数据萃取过程。 | 2025-03-25 | |
开发机/任务式建模 | 1. [Hot] 支持 Ray 和 MPI 分布式训练模式,内置于 Tilearn-llm0.9-torch2.3-py3.10-cuda12.4-gpu 镜像中; 2. [Hot] 全新内置自驾行业通用镜像,支持快速启动 BEVFormer 模型训练; 3. 优化开发机实例停止时的数据持久化提示,提示用户注意数据保存; 4. 资源监控面板支持手动刷新数据。 | 2025-03-25 | |
模型评测 | 1. [Hot] 客观评测新增内置开源评测集,可快速启动评测任务; 2. 优化客观评测过程中的状态和进度展示,支持查看模型在单个评测集上的评测进度以及整体评测任务进度,支持查看评测任务剩余时长; 3. 优化客观评测详情页基本信息、结果输出展示,方便用户直观查看任务 ID、机器资源、评测结果等信息; 4. 评测 DeepSeek 系列模型时,支持自动为用户推荐所需机器资源,增加评测时选择资源的便利性。 | 2025-03-25 | |
在线服务 | 1. [Hot] 全新上线面向 DeepSeek R1 / V3 模型的 Angel-ACC 加速能力,大幅提升推理性能; 2. [Hot] 支持 DeepSeek V3 模型部署后的 Function Call 能力; 3. [Hot] 服务监控支持首 Token 延时、Token 总调用量、每分钟 Token 消耗等大模型常用监控指标。 4. 大幅降低部署平台内置大模型服务时,将模型文件加载到计算节点的时长; 5. 部署在线服务时,支持选择来源为 GooseFsx 存储的模型; 6. 支持关闭服务的公网调用路径(以白名单方式支持); 7. 优化服务告警信息,可在告警消息中查看服务 ID、服务名称和服务描述。 | 2025-03-25 | 在线服务部署 在线服务调用 在线服务运营 |
数据中心 | 1. 优化 LLM&MLLM 数据集的全生命周期报错提示,包括新建异常、 Schema 解析异常、标注异常等; 2. 进一步提高 LLM&MLLM 数据集详情预览页的可读性,重点优化多字段、内容复杂、大段文本等情况下的样本展示效果; 3. 优化 LLM 数据标注操作台的布局,只读组件统一展示在左侧、可编辑组件统一展示在右侧,提升标注页面的空间利用率; 4. 针对 MLLM 数据标注操作台,新增支持旋转、全屏、放大、缩小等图片操作。 | 2025-03-14 | |
大模型广场 | 1. 内置的 Hunyuan-Large 大模型升级到20241116版本; 2. 自动驾驶云区域上架大模型广场模块,支持 DeepSeek 系列模型和 Llama 系列模型的一键发起训练和部署。 | 2025-03-14 | |
资源组管理 | [Hot] 支持基于优先级策略的训推一体潮汐调度,同一个资源组内的高优在线服务/训练任务可以抢占低优训练任务的资源。 | 2025-03-14 |
2025年02月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
开发机 | [Hot] Notebook 产品模块升级为开发机,并升级相关特性,更好满足在线编码和调试需求。 1. 新增内置 VSCode WebIDE; 2. 新增闲置实例自动回收和通知机制; 3. 支持配置环境变量; 4. 实例列表页新增展示镜像信息。 5. 支持修改实例名称。 | 2025-02-24 | |
任务式建模 | 优化任务式建模功能和体验细节。 1. 支持在资源组管理页面查看训练任务队列; 2. 新增任务开始排队、任务开始运行、任务被停止事件状态通知; 3. 新增遍历排队策略和优先级不抢占策略; 4. 支持修改任务名称。 | 2025-02-24 | |
在线服务 | 优化在线服务的功能和稳定性细节问题。 1. 优化新建服务时的重试策略,服务启动失败时默认最多重试启动5次,同时支持用户自定义最大重试次数; 2. 在线服务日志新增支持全文检索,最高可加载的日志条数增至100万条; 3. 修复直接登录在线服务容器时,页面内容过多导致的 session 崩溃的问题。 | 2025-02-24 | |
大模型广场/任务式建模 | [Hot] 全新上线 DeepSeek 全系列模型精调功能,支持两种精调方式,并发布官方实践教程。 方式一:对 DeepSeek R1 满血版直接进行有监督精调(SFT) 方式二:使用 DeepSeek R1 作为教师模型,蒸馏精调其他较小尺寸的学生模型 支持 DeepSeek 全系模型: DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-671B DeepSeek-V3-671B | 2025-02-18 | |
大模型广场/在线服务 | [Hot] 新增支持 DeepSeek R1 蒸馏系列模型。参数规模最小低至1.5B,可使用更小算力资源进行部署。新增支持的模型包括: DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Llama-70B | 2025-02-02 | 大模型广场 |
2025年01月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型广场 | [Hot] 全新上线 DeepSeek 模型,支持一键部署推理服务。支持的模型包括: DeepSeek-V3 DeepSeek-R1 | 2025-01-27 | |
Notebook/任务式建模 | 1. Notebook 新增 Python 环境轻量基础内置镜像; 2. Notebook 远程 SSH 连接支持 VPC 内访问地址; 3. Notebook 和任务式建模统一 CFS 路径配置体验,支持在配置 CFS 源路径时直接创建新路径; 4. Notebook 和任务式建模创建实例时合并 CFS 和 CFS Turbo 选项卡统一为CFS; 5. Notebook 支持挂载 COS 存储桶(该功能属于公测阶段,如有测试需求请联系产品经理开启白名单)。 | 2025-01-23 |
2024年12月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
Notebook/任务式建模 | 1. Notebook 支持一键复制,方便用户基于已有实例快速创建新实例; 2. Notebook 和任务式建模实例名称限制放大到256个字符; 3. 任务式建模列表页新增任务创建时间字段并且支持排序; 4. Notebook 和任务式建模日志体验优化,日志加载条数扩展到百万级别,且新增日志全文检索支持; 5. 完成 Tikit 的若干优化。包括:提交任务配置自定义镜像支持输入鉴权信息;支持 GooseFS 和 GooseFSX 的挂载对接;支持任务配置自动重启;补齐训练任务列表占用资源和创建者字段展示;精简获取单个训练任务的展示信息。 | 2024-12-25 | |
资源组管理/计费 | 1. 支持配置和展示节点名称,提升节点管理的便利性; 2. GPU 虚拟化功能新增对于A800机型的支持; 3. 新增节点故障自动恢复功能: 当节点出现机器故障、GPU 故障、RDMA 故障等可能通过自动重启解决的故障时,平台将尝试进行自动重启和故障恢复,并给出相应提示; 当节点出现其他需要人工介入的故障时,也将给出相应提示。 | 2024-12-25 | - |
Notebook/任务式建模 | 1. 优化 Notebook 和任务式建模的列表页体验,当从列表页进入详情页再返回后,将保留列表页的筛选/搜索条件和结果; 2. Notebook 和任务式建模新增实例所调度节点的信息展示,方便用户进行问题和故障定位; 3. 优化 Notebook 和任务式建模的 CFS(包括 CFS Turbo)文件系统下拉展示,同时展示可用和非可用状态的文件系统,其中非可用文件系统置灰展示; 4. 任务式建模对接腾讯云可观测平台事件总线,支持配置训练任务完成的事件通知。 | 2024-12-16 | |
大模型广场 | 全新上架 Llama 3.2 系列开源大模型,支持一键精调(限文生文模型)和服务部署。 | 2024-12-16 | - |
Notebook/任务式建模 | 1. Notebook 和任务式建模列表页和详情页新增展示任务/实例创建者用户名称; 2. Notebook 保存镜像提示文案优化更新,强调镜像保存前不能停止实例,且镜像保存过程中无法打开和使用 Notebook。 | 2024-12-10 | - |
资源组管理 | 全新支持将 CPU 机型的 CVM 机器管理进 TI-ONE 平台用于 Notebook、推理。 | 2024-12-10 |
2024年11月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
数据标注 | [Hot] 优化大模型标注操作台体验,进一步提升标注效率,并全面对外开放,欢迎直接登录使用。 1. 优化多文本/多图片场景下的组件布局; 2. 展示未/已标注状态; 3. 支持自定义文本显示大小; 4. 新增 Markdown 解析开关; 5. 支持提交后自动跳转到下一待标注样本; 6. 完成其他细节体验优化。 | 2024-11-19 | |
资源组管理 | 1. 资源组节点列表页的实例 ID 支持直接点击跳转到该 CVM 详情页,便于查看该机器的更多细节信息。 2. 资源组总节点数不再统计“已不使用”和“已释放”的节点,“已不使用”和“已释放”的节点将自动收进历史节点记录中,以便回溯查看。 | 2024-11-19 | |
在线服务 | vllm 推理镜像新增 function call,基于该镜像部署具有 function call 能力的大模型后,可通过 API 调用其 function call 能力。 | 2024-11-19 | - |
计费相关 | 全新支持将按量计费的 CVM 机器管理进 TI-ONE 平台用于 AI 训练、推理,TI-ONE 软件费也对应按量计费收取。 | 2024-11-19 | |
大模型广场 | [Hot] 上架腾讯混元最新开源模型 Hunyuan-Large。 1. 支持在线对话体验、一键精调和服务部署; 2. 提供腾讯云镜像地址支持模型下载; 3. 发布面向 Hunyuan-Large 的上手指南和精调实践案例。 | 2024-11-07 | |
Notebook/任务式建模 | 1. 任务式建模和 Notebook 新增内置镜像核心库和支持的卡型说明; 2. 任务式建模新增任务排队时长等提示; 3. Notebook 生命周期脚本和 Git 存储库接入 CAM 和标签; 4. 任务式建模 TensorBoard 支持提前校验 summary 目录是否存在。 | 2024-11-07 | |
模型优化 | 优化模型优化交互界面及操作文档,包括:完善 Tensor 信息填写指引、明确支持的模型框架种类和模型格式等。 | 2024-11-07 |
2024年10月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
Notebook/任务式建模 | 1. 针对调度在含数据盘节点的任务或实例,优化磁盘写满退出逻辑,避免系统磁盘写满的情况下实例崩溃或任务异常中止。 2. 创建任务过程中提供 GPU 资源概览信息(包括各卡型号的 GPU 总卡数,整机和非整机卡数)和节点详细剩余可用和总资源信息,以帮助用户科学配置任务资源,有效降低整体资源的碎片化情况,提升 GPU 总体利用率。 3. 提供内置大模型精调训练资源指南。 4. 支持任务按照 GPU 预设比例自动配置 CPU 和内存资源,从而减少资源碎片化,提高资源利用率(该功能属于公测阶段,如有测试需求请联系产品经理开启白名单)。 | 2024-10-17 | |
模型评测 | [Hot] 模型评测功能全面升级。 1. 全新上线大模型评测结果可视化功能,支持以雷达图形式,直观对比不同模型在不同数据集上的客观评测和主观评测结果。 2. 新增支持9种客观评测集,覆盖 Agent、Code、推理、考试、理解、知识等场景,具体如下: Agent类:T-Eval Code类:HumanEval、MBPP 推理类:BBH、HellaSwag 考试类:CMMLU、ARC-C/E 理解类:XSum 知识类:TyDiQA 3. 新增支持5种客观评测集指标,具体如下: F1 分数:正确预测的样本数与总样本数的比例 ROUGE-1:将模型生成的结果和标准结果按每个单词拆分后,计算出的召回率 ROUGE-2:将模型生成的结果和标准结果按每个相邻单词拆分后,计算出的召回率 =ROUGE-L:忽略停用词后,衡量了模型生成的结果和标准结果的最长公共子序列,并计算出召回率 pass@1:每个问题生成1个代码样本且该代码通过测试的比例 | 2024-10-17 | |
资源组 | 1. 新增支持在 TI-ONE 侧管理的节点上,使用 CVM 机器上新挂载的数据盘的功能。 2. 展示 CVM 机器的系统盘、数据盘的大小;补充 CVM 机器被管理进 TI-ONE 平台,对其系统盘和数据盘大小的要求和清空数据盘的风险提示。 | 2024-10-17 |
2024年09月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
数据中心 | 1. 全新上线面向大语言模型(LLM)和多模态大模型(MLLM)的数据集管理功能,支持新建、预览存储在 CFS 上的数据集,支持基于标签分类管理。 2. 全新上线面向大语言模型(LLM)和多模态大模型(MLLM)的数据标注功能,通过配置 Schema 来自动生成个性化标注工作台,满足文生文、图生文、图文改写、图文混合4大主流场景下的全部细分任务场景。 (上述功能属于公测阶段,如有测试需求请联系产品经理配置白名单) | 2024-09-13 | |
Notebook/任务式建模 | 1. 支持对接存储类型为 CFS 的数据集。 2. 优化启动流程,新增任务启动进度详情展示。 3. 针对调度在本地盘的 Notebook 实例和训练任务,优化磁盘写满退出逻辑,避免系统磁盘写满的情况下实例崩溃或任务异常中止。 | 2024-09-13 | |
计费 | 在选择训练和推理资源时,增加按量计费和包年包月的计费信息说明。 | 2024-09-13 | |
存储 | 支持自动挂载活跃用户的活跃 CFS,挂载完成后可在数据中心、训练工坊、在线服务配置 CFS 时支持路径补全,降低用户的 CFS 手动配置成本。 | 2024-09-13 | - |
2024年08月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
任务式建模 | 1. 训练任务支持自定义排队和优先级调度策略。 2. 优化任务式建模的存储路径设置,支持展示和配置存储用途。 | 2024-08-21 | |
模型评测 | 新增评测日志,并优化评测失败提示,便于用户更快定位评测失败原因。 | 2024-08-21 | |
在线服务 | 在基于内置 vllm 镜像进行在线服务部署时,开放服务更新和扩缩容功能。 | 2024-08-21 | - |
日志 | 日志下载支持展示进度条。 | 2024-08-21 | - |
模块下线 | 公有云下线自动学习、可视化建模模块(以白名单形式支持存量用户,后续将聚焦在私有化版本服务好政企客户)。 | 2024-08-21 | - |
2024年07月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
数据构建 | 1. 支持用户自定义 tokenize 来对样本进行分词统计。 2. 优化数据处理的中间信息展示。新增数据去重、清洗的处理进度条;记录去重过程中被去掉的样本;优化处理进度的数字展示,更直观反映全部样本的处理进度。 | 2024-07-29 | |
任务式建模 | 1. 优化任务提交校验机制。当存在权限不足、资源不足等情况时及时进行提示,避免提交无效任务。 2. 优化异常任务的识别机制。当识别排队中的训练任务存在权限、资源等根本问题时,提示用户进行任务停止等操作。 3. 优化自定义训练镜像的检查机制。当由于镜像不符合规范导致训练出错时,给出分级的、更明确的报错提示,并在日志中反馈更多细节信息。 | 2024-07-29 | |
Notebook | 优化自定义训练镜像的检查机制。当由于镜像不符合规范导致训练出错时,给出分级的、更明确的报错提示,并在日志中反馈更多细节信息。 | 2024-07-29 | |
大模型精调 | 全新上架 Llama 3.1 系列开源大模型,支持一键精调和服务部署。 | 2024-07-24 | |
文档中心 | 对快速入门、实践教程、操作手册内容进行重新组织,提升文档查询效率和阅读体验。 | 2024-07-15 | - |
2024年06月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
模型评测 | 全新上线面向 LLM 大模型的【模型评测】功能,支持轻量体验、客观评测、主观评测三阶段评测能力,保障模型效果。 | 2024-06-07 |
2024年05月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
训练加速 | 升级 Angel 训练加速框架,支持 3D 并行加速,支持 Llama3 开源大模型。 | 2024-05-22 | - |
任务式建模 | 新增支持单任务多数据来源,提升训练数据配置的灵活性。 | 2024-05-14 | - |
Notebook | 新增支持单实例多数据来源,提升训练数据配置的灵活性。 | 2024-05-14 | - |
2024年04月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
数据构建 | 1. 数据构建 pipeline 新增原始数据分析和处理后数据分析环节。 2. 新增 Markdown 格式规整、记录数据清洗过程功能。 | 2024-04-29 | |
存储及资源组管理 | 1. 新增支持 CFS 存储的目录级访问控制。 2. 资源组新增支持可用节点数过滤,便于快速查找可用资源组。 | 2024-04-29 | - |
大模型精调 | 全新上架 Llama 3 系列开源大模型,支持一键精调和服务部署。 | 2024-04-24 | - |
Notebook | 新增支持挂载裸金属机器本地磁盘。 | 2024-04-24 | - |
资源组管理 | 新增支持故障节点自动隔离,提升资源管理效率和资源鲁棒性。 | 2024-04-24 | - |
训练加速 | 升级 Angel 训练加速框架,支持混元系列模型及 Llama、Baichuan、Qwen 等主流开源大模型。 | 2024-04-24 | |
推理加速 | 升级 Angel 推理加速框架,支持混元系列模型及 Llama、Baichuan、Qwen 等主流开源大模型。 | 2024-04-24 |
2024年03月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
数据构建 | 在数据中心全新上线【数据构建】功能。 1. 内置 3 大类数据处理 pipeline,支持开源灵活配置,并可通过预置 Notebook 快速发起数据构建作业。 2. 内置 12 大类 LLM 应用场景下100多万条精调配比数据,训练时可根据客户实际样本量和任务类型智能分配配比数据量,可有效改善模型“过拟合”或“能力遗忘”。 | 2024-03-28 | |
资源组管理 | 新增支持 H800、PNV5b 机型。 | 2024-03-28 | - |
资源组管理 | 新增支持 L40 机型。 | 2024-03-07 | - |
2024年02月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
地域扩展 | 新增“上海自动驾驶云”地域,更好满足出行行业的 AI 业务需求。 | 2024-02-07 | - |
在线服务 | 新增支持存量在线服务开启鉴权,提升在线服务管理的灵活性。 | 2024-02-01 | - |
2024年01月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
云监控 | 接入腾讯云可观测平台(TCOP),支持对 TI 核心服务和资源信息进行监控。 | 2024-01-24 | - |
Notebook | 支持挂载多个数据源,提升训练数据配置的灵活性。 | 2024-01-24 | - |
任务式建模 | 1. 新增支持对接 GooseFSx,便于用户将 GooseFSx 中的数据用于模型训练。 2. 新增任务 ID 信息展示,并支持基于任务 ID 进行检索。 | 2024-01-09 | - |
Notebook | 1. 新增支持对接 GooseFSx,便于用户将 Goose FSx 中的数据用于模型训练。 2. 新增实例 ID 信息展示,并支持基于实例 ID 进行检索。 | 2024-01-09 | - |
2023年12月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
资源组管理 | 资源组升级为支持合并管理。不再强制针对训练、推理区分不同的资源组,提升用户资源购买和管理的灵活性。 | 2023-12-07 | - |
任务式建模 | 1. 新增【小任务优先】的排队策略。可根据当前资源空闲情况选择第一个资源满足的任务调度执行,提升部分场景下的资源利用效率。 2. 新增【高优抢占】的排队策略。当用户提交高优先级任务时,系统将终止低优先级任务的执行,提升部分场景下的任务调度灵活性。 | 2023-12-07 | - |
资源组管理 | 新增支持 4090、V100 机型。 | 2023-12-07 | - |
2023年11月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
资源组管理 | 新增支持将用户已购买的 CVM 纳管至 TI 平台,可用于在线服务部署。 | 2023-11-27 | |
在线服务 | 新增支持部署 Stable Diffusion WebUI 的页面(GUI)模式。 | 2023-11-27 | |
大模型精调 | 将训练任务的资源监控细化至实例层级,并增加 GPU 监控维度。 | 2023-11-15 | - |
任务式建模 | 优化训练任务报错提示,针对 COS 路径不存在、训练数据格式错误、训练资源不足等情况给出更明确报错信息。 | 2023-11-15 | - |
在线服务 | 在线服务日志增加推理接口调用信息。 | 2023-11-15 | - |
Tikit | 新增命令,支持查看资源池剩余算力。 | 2023-11-15 | - |
2023年10月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型精调 | 1. 新增支持 LLM 大模型的 LoRA 训练方式。 2. 开放更多的 LLM 大模型训练超参数。新增超参数 MaxSequenceLength(最大文本序列长度),灵活支持超长文本场景,或在短文本场景下控制训练资源开销;新增超参数 Validation ,支持设置验证集占整个数据集的比例。 3. 新增支持按 checkpoint 查看 loss 曲线、困惑度(Perplexity)、ROUGE 三类客观评测指标,提升训练过程中的模型评测能力。 | 2023-10-16 | - |
任务式建模 | 1. 任务式建模 TensorBoard 新增支持 LLM 大模型训练,提升大模型训练过程中的指标观测能力。 2. 任务式建模新增支持 CFS Turbo 按量计费。 | 2023-10-16 | - |
Notebook | Notebook 新增支持 CFS Turbo 按量计费。 | 2023-10-16 | - |
在线服务 | 1. 新增支持将 LoRA 训练方式得到的大模型一键部署为推理服务。 2. 当模型文件来源于 CFS、COS 时,支持基于自定义镜像部署在线推理服务,提升模型服务化的灵活性。 | 2023-10-16 | - |
2023年08月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
大模型精调 | 全新上线“大模型精调”一级功能入口,内置主流开源大模型,支持快速发起精调训练任务,或部署为在线推理服务。 | 2023-08-28 | — |
2022年11月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
自动学习 | 1. 新增支持 NLP 场景下的“单标签/多标签文本分类”任务,支持从数据导入、自动学习模型训练、模型评测、服务发布全流程。 2. 自动学习图片分类、目标检测场景支持腾讯超大规模预训练模型;自动学习模型支持通过模型优化降低推理时延(部署卡型支持T4,V100);自动学习支持训练成功或异常终止后发送消息提醒。 | 2022-11-03 | - |
训练工坊 | 1. 任务式建模新增支持对接 EMR(HDFS),包括对接带 Kerberos 认证的 HDFS 数据源,新增支持对接 CFS 文件系统。 2. 新增对接支持数据治理开发平台 Wedata,可以通过Wedata平台统一调度周期任务。 3. 任务式建模新增支持任务训练完成和异常消息提醒。 4. Notebook 新增支持挂载 CFS 数据源和 Wedata HDFS 数据源;Notebook 新增发布 TI 实践教程案例笔记本。 | 2022-11-03 | - |
模型管理 | 1. 模型优化新增4种格式的模型支持:Hugging Face 、Detectron2、MMDetection、TensorFlow; 2. 模型优化新增3种场景常用模型推理加速覆盖:CV、NLP、OCR; 3. 模型优化新增 Tensor 种类支持:动态连续维度、动态离散维度; 4. 模型优化新增部署机型支持:V100; 5. 模型优化个性化支持:增加高级参数配置,使模型优化更加灵活可调; 6. 模型优化易用性提升:一个优化任务支持批量模型优化场景; 7. 模型仓库新增框架以及相应运行环境支持:Detectron2、MMDetection、TensorFlow; 8. 模型仓库新增 TF Serving 热更新支持:导入至现有版本、模型自动清理; 9. 模型仓库模型包丰富:增加优化模型 demo 支持,客户可基于 demo 体验测试模型仓库、模型优化和模型服务全流程; | 2022-11-03 | - |
模型服务 | 1. 模型服务新增基于 QPS 策略的自动扩缩容,新增支持定时扩缩容;新增支持混合弹性伸缩(包年包月 + 按量计费模式); 2. 模型服务新增模型自动热更新和 CFS 挂载能力; 3. 模型服务支持定时停止; 4. 模型服务支持服务异常,服务长时间无调用量消息提醒。 | 2022-11-03 | - |
2022年06月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
新版上线 | 新版 TI-ONE 上线,支持数据中心、数据标注、自动学习、任务式建模、Notebook、模型仓库、模型优化、模型服务、资源组管理等功能。 | 2022-06-06 | - |
2020年07月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
工作流日志分级 | 工作流算子中的日志根据 error、info、warning 分类展示日志 | 2020-07-03 | - |
定时任务提醒 | 工作流工程增加定时任务标签 | 2020-07-03 | - |
2020年06月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
多版本框架支持 | 工作流 TensorFlow 框架算子新增多版本支持,支持 1.12,1.14,2.0 | 2020-06-26 | - |
算力资源 | 新增2卡 P40 机型支持,TI.GN8.3XLARGE112.2xP40 | 2020-06-26 | - |
2020年05月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
迭代优化内置深度学习算子 | 主要优化内容包括: 1. 算法库支持统一的日志格式 2. 目标检测算法 SSD、RFCN、FasterRCNN 支持多卡训练 3. 目标检测算法、DeepLab 图像分割算法支持可视化预测结果 | 2020-05-31 | - |
支持可视化查看 Notebook 实例创建进度 | 支持用户在 Notebook 实例创建的等待过程中,单击列表中的“状态”栏按钮查看详细的实例进度记录弹窗 | 2020-05-28 | - |
Notebook 列表页增加“监控与日志”功能 | 1.可查看 CPU 使用核数、使用率;GPU 使用卡数、使用率;内存、内存使用率等资源信息 2. 单击日志一键跳转日志详情 | 2020-05-28 | - |
2020年04月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
Notebook 支持生命周期脚本 | 用户可以自定义初始化 Notebook,在创建/重启 Notebook 实例时可运行用户预设的 shell 脚本。 | 2020-04-01 | - |
Notebook 支持与 Git 存储库对接 | 通过与 Git 存储库的对接,用户可以避免误删的数据丢失,同时方便与伙伴协同开发与版本控制,公开库里的 Notebook文件也可 load 下来进行学习与编辑。 | 2020-04-01 | - |
新增支持 R 内核与多个框架 | 新增支持 R 内核,PyTorch/MXNet 等框架。 | 2020-04-01 | - |
增量训练 | 支持用户在 Notebook 中使用 TI SDK 进行增量训练。 | 2020-04-01 | - |
2020年03月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
上海地域服务上线 | 2020-03-07 | - |
2020年01月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
平台在控制台正式上线 | 平台在腾讯云官网控制台正式上线 | 2020-01-15 | - |
广州地域服务正式商业化 | 平台广州地域服务正式商业化 | 2020-01-15 | - |
2019年12月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
广州地域服务上线 | 平台正式上线广州地域服务 | 2019-12-12 | - |
广州地域支持 TI SDK 功能 | 您可以使用 TI SDK 提交机器学习和深度学习训练任务到 TI-ONE。目前支持在平台广州地域的 Notebook 内使用,后续将提供开源版本,支持在本地环境使用 | 2019-12-12 | - |
广州地域 Notebook 全新升级 | 广州地域的 Notebook 全新升级:新增 PyTorch 内核,开放 Root 权限,支持自由选择是否使用 Root 权限访问 Notebook,支持自由选择配置自有的 VPC 网络,支持访问外网 | 2019-12-12 | - |
2019年09月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
新增任务列表功能 | 支持在任务列表中查看任务运行状态、运行时长、占用资源等信息 | 2019-09-24 | - |
支持特征组合 | 支持机器学习特征的组合和选择 | 2019-09-24 | - |
支持多机多卡 | 支持基于 Horovod 的 TensorFlow / PyTorch 多机多卡训练,支持基于 Parameter Server 的 TensorFlow 多机多卡训练 | 2019-09-24 | - |
2019年08月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
支持数据统计展示 | 支持对结构化数据进行统计展示,方便对中间数据的分布情况进行快速判断,且支持对中间结果数据以 CSV 格式导出 | 2019-08-19 | - |
支持算法可视化 | 支持树形算法(如决策树、随机森林)对算法结果进行可视化展示,您可以更直观地看到特征的分布和判断路径 | 2019-08-19 | - |
算法更新 | 新增 BERT-CRF 算法,BERT 中文问答算法,图片分类算法增加 finetune 时仅训练全连接层功能 | 2019-08-19 | - |
2019年05月
动态名称 | 动态描述 | 发布时间 | 相关文档 |
新增 Notebook 功能 | Notebook 是平台为开发者量身打造的灵活的交互式开发工具,您可以在腾讯云 TI 平台 Notebook 中完成数据准备、数据预处理、算法调试与模型训练,无需多平台切换 | 2019-05-28 | - |
典型案例内置 | 支持直接从案例模板创建任务流,文档同步说明,让您一分钟轻松上手 | 2019-05-28 | - |