暂无搜索历史
大语言模型驱动的智能体(Agent)近年来在复杂任务上展现了惊人的能力——从多轮推理、跨工具调用,到信息检索与整合。然而,性能的提升往往伴随着成本的飙升:更多的...
思维链 (Chain-of-Thought, CoT) 提示技术已被证实能显著提升大语言模型 (Large Language Model, LLM) 在多类任务...
具备可验证奖励机制的大规模强化学习(RLVR)已证实其在挖掘大语言模型(LLM)单次推理任务潜力方面的有效性。在实际推理场景中,大语言模型常借助外部工具辅助任务...
图形用户界面 (Graphical User Interface, GUI) 定位技术将自然语言指令映射到精确的界面坐标以实现自主交互。现有强化学习方法采用二元...
LLM 刚开始火热的时候,有个词非常热门,叫做提示词工程,甚至有各种网文声称市面上可能会招聘大量的提示词工程师,当初在一些招聘网站上倒是也的确能搜索到这样的岗位...
大语言模型 (LLM) 的推理性能本质上取决于其所接收的上下文信息。本综述系统性地提出了上下文工程 (Context Engineering) 这一新兴学科领域...
随着大语言模型(LLM)能力的持续扩展,研究者和开发者逐渐意识到,若要真正迈向通用人工智能(AGI),模型不仅需要强大的语言生成能力,更应具备长期一致性、知识演...
我们提出一个端到端框架,通过强化学习将视觉语言模型(VLMs)的推理能力扩展至长视频领域。针对长视频推理的独特挑战,我们整合了三个关键组件:(1) 大规模数据集...
更有意思的是,马斯克的X平台上个月据说已经将推荐系统切换为基于其自家GroK大模型的版本,我想也这不是巧合,而是真的可以实现的一种思路。
本文提出GLM-4.1V-Thinking视觉语言模型(Vision-Language Model, VLM),旨在提升通用多模态理解与推理能力。我们重点介绍了...
现代参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)方法(如低秩适应(low-rank adaptation, LoR...
我们正式发布MiniMax-M1,这是全球首个开源权重的大规模混合注意力推理模型。该模型采用混合专家(Mixture-of-Experts, MoE)架构与闪电...
本研究提出强化预训练 (RPT) 作为大语言模型和强化学习 (RL) 的新型扩展方法。具体而言,我们将下一 token 预测重构为基于 RL 的推理任务,模型通...
我们提出了一种基于自我反思和强化学习的大语言模型性能提升方法。当模型回答错误时,通过激励其生成更高质量的反思内容,我们证明即使无法合成训练数据且仅能获得二元反馈...
本文介绍 Mutarjim,一个专为阿拉伯语-英语双向翻译设计的紧凑型高性能语言模型。尽管当前大规模大语言模型在机器翻译等自然语言处理任务中展现出显著优势,我们...
我们提出 Seed1.5-VL,这是一个旨在提升通用多模态理解与推理能力的视觉-语言基础模型。Seed1.5-VL 包含一个 5.32 亿参数的视觉编码器和一个...
推理是智能的核心能力,决定了系统在决策、结论推导及跨领域泛化方面的表现。在人工智能领域,随着系统日益需要在开放、不确定和多模态环境中运行,推理成为实现鲁棒性与自...
我们提出了CameraBench,这是一个用于评估和提升摄像机运动理解能力的大规模数据集与基准。CameraBench包含约3,000个多样化的互联网视频,所有...
Kuwain 1.5B:通过语言注入(Language Injection)构建的阿拉伯语小型语言模型(Small Language Model)
我们推出InternVL3,这是InternVL系列的重大突破,采用原生设计的多模态预训练范式。不同于将纯文本大语言模型(LLM)改造为支持视觉输入的多模态大语...
暂未填写公司和职称
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市