首页
学习
活动
专区
工具
TVP
发布

机器之心

专栏成员
9145
文章
6872770
阅读量
281
订阅数
昆仑万维携手南洋理工大学抢发Q*算法:百倍提升7B模型推理能力
自 OpenAI 的 Q* 项目曝光后,引发业内众多讨论。据现有信息汇总,Q* 项目被视作 OpenAI 在探索人工通用智能(Artificial General Intelligence, AGI)道路上的一次重大尝试,有望在包括数学问题解决能力、自主学习和自我改进等多个层面对人工智能技术带来革新性突破。
机器之心
2024-06-27
1230
清华等高校推出首个开源大模型水印工具包MarkLLM,支持近10种最新水印算法
本文由清华大学、上海交通大学、悉尼大学、UCSB、香港中文大学、香港科技大学、香港科技大学(广州)联合完成。主要作者包括:潘乐怡(第一作者),清华大学本科生,研究方向为大模型水印等;刘瑷玮,清华大学博士生,研究方向为安全可信大模型等;何志威,上海交通大学博士生,研究方向为大模型水印、大模型智能体等;高梓添,悉尼大学本科生,研究方向为大模型水印;赵宣栋,UCSB博士生,研究方向为可信生成式AI等;胡旭明,香港科技大学/香港科技大学(广州)助理教授,研究方向为安全可信大模型、信息抽取等;闻立杰, 清华大学长聘副教授,研究方向为流程挖掘,自然语言处理 。
机器之心
2024-06-27
1200
《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源
自 ChatGPT 发布以来,大型语言模型(LLM)已经成为推动人工智能发展的关键技术。
机器之心
2024-06-27
1470
GLM-4开源版本终于来了:超越Llama3,多模态比肩GPT4V,MaaS平台也大升级
今天上午,在 AI 开放日上,备受关注的大模型公司智谱 AI 公布了一系列行业落地数字:
机器之心
2024-06-17
8030
可信度超越GPT-4V,清华&面壁揭秘「小钢炮」模型背后的高效对齐技术
本文主要作者来自 MiniCPM-V 团队,其中第一作者余天予是清华大学 2021 级硕士研究生,他的主要研究方向是通用多模态基础大模型构建及其对齐方法。
机器之心
2024-06-17
1580
又一届「AI春晚」拉开序幕!智源大模型集体爆发了
20+ 个不同主题的论坛、百场精彩报告让现场和线上的观众目不暇接,切实感受到了当下 AI 尤其是大模型对内容创作、生产办公、机器人、生物医疗等千行百业的深度赋能。
机器之心
2024-06-17
1240
英伟达开源最强通用模型Nemotron-4 340B
本周五,英伟达宣布推出 Nemotron-4 340B。它包含一系列开放模型,开发人员可以使用这些模型生成合成数据,用于训练大语言模型(LLM),可用于医疗健康、金融、制造、零售等所有行业的商业应用。
机器之心
2024-06-17
4070
改变传统,吴恩达开源了一个机器翻译智能体项目
前段时间,随着 GPT-4o、Sora 的陆续问世,多模态模型在生成式方面取得的成绩无可否认,而人工智能的下一个革命性突破将从何处涌现,引起了大量学者和相关人士的关注。
机器之心
2024-06-17
1240
Stability AI开源47秒音频生成模型,虫鸣鸟叫、摇滚、鼓点都能生成
音频生成领域又有好消息:刚刚,Stability AI 宣布推出开放模型 Stable Audio Open,该模型能够生成高质量的音频数据。
机器之心
2024-06-17
1550
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。
机器之心
2024-06-17
2000
阿里Qwen2正式开源,性能全方位包围Llama-3
斯坦福团队套壳清华大模型的事件不断发酵后,中国模型在世界上开始得到了更多关注。不少人发现,原来中国已经有不少成熟的大模型正在赶超国外。
机器之心
2024-06-17
4000
从ALOHA迈向Humanplus,斯坦福开源人形机器人,「高配版人类」上线
说起前段时间斯坦福开源的 Mobile ALOHA 全能家务机器人,大家肯定印象深刻,ALOHA 做起家务活来那是有模有样:滑蛋虾仁、蚝油生菜、干贝烧鸡,一会儿功夫速成大餐:
机器之心
2024-06-17
1010
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。
机器之心
2024-06-04
4820
斯坦福爆火Llama3-V竟抄袭国内开源项目,作者火速删库
在 GPT-4o 出世后,Llama3 的风头被狠狠盖过。GPT-4o 在图像识别、语音理解上卓越的性能展现了它强大多模态能力。开源领域的领头羊 Llama3 曾在几乎所有基准测试中都超越了 GPT-3.5,甚至在某些方面超越了 GPT-4。这次就要闷声「吃瘪」了吗?
机器之心
2024-06-04
2070
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?
首先,从最重要的话题开始:4 月发布的主要新模型。这一节将简要介绍 Mixtral、Llama 3 和 Phi-3。下一节将会更详细地介绍苹果的 OpenELM。
机器之心
2024-06-04
2120
适应多形态多任务,最强开源机器人学习系统「八爪鱼」诞生
在机器人学习方面,一种常用方法是收集针对特定机器人和任务的数据集,然后用其来训练策略。但是,如果使用这种方法来从头开始学习,每一个任务都需要收集足够数据,并且所得策略的泛化能力通常也不佳。
机器之心
2024-06-04
1030
模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了
TinyLLaVA 项目由清华大学电子系多媒体信号与智能信息处理实验室 (MSIIP) 吴及教授团队和北京航空航天大学人工智能学院黄雷老师团队联袂打造。清华大学 MSIIP 实验室长期致力于智慧医疗、自然语言处理与知识发现、多模态等研究领域。北航团队长期致力于深度学习、多模态、计算机视觉等研究领域。
机器之心
2024-06-04
1540
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型
为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。
机器之心
2024-06-04
1630
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调
本文由GreenBit.AI团队撰写,团队的核心成员来自德国哈索·普拉特纳计算机系统工程院开源技术小组。我们致力于推动开源社区的发展,倡导可持续的机器学习理念。我们的目标是通过提供更具成本效益的解决方案,使人工智能技术在环境和社会层面产生积极影响。
机器之心
2024-06-04
2240
替代MLP的KAN,被开源项目扩展到卷积了
本月初,来自 MIT 等机构的研究者提出了一种非常有潜力的 MLP 替代方法 ——KAN。
机器之心
2024-05-22
2240
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档