首页
学习
活动
专区
工具
TVP
发布

NewBeeNLP

专栏作者
345
文章
366831
阅读量
45
订阅数
详解各种LLM系列|LLaMA 2模型架构、 预训练、SFT内容详解 (PART1)
大家好,这里是 NewBeeNLP。之前我们分享了详解各种LLM系列|LLaMA 1 模型架构、预训练、部署优化特点总结
NewBeeNLP
2024-03-27
2920
OpenGraph: 通用图大模型
论文:arxiv.org/abs/2403.01121 代码:github.com/HKUDS/OpenGraph 港大数据智能实验室主页: sites.google.com/view/chaoh
NewBeeNLP
2024-03-26
760
业界分享 | NVIDIA大语言模型落地实践
大家好,这里是 NewBeeNLP。 今天分享 NVIDIA 在大语言模型领域的解决方案。
NewBeeNLP
2024-03-25
1350
Open-Sora全面开源!
不久前 OpenAI Sora 以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。继 2 周前推出成本直降 46% 的 Sora 训练推理复现流程后,Colossal-AI 团队全面开源全球首个类 Sora 架构视频生成模型 「Open-Sora 1.0」,涵盖了整个训练流程,包括数据处理、所有训练细节和模型权重,携手全球 AI 热爱者共同推进视频创作的新纪元。
NewBeeNLP
2024-03-25
1100
大模型面试百问百答
数据预处理->分块(这一步骤很关键,有时候也决定了模型的效果)->文本向量化->query向量化->向量检索->重排->query+检索内容输入LLM->输出
NewBeeNLP
2024-03-18
1500
Meta最新推荐算法:统一的生成式推荐第一次打败了分层架构的深度推荐系统?
大家好,这里是 NewBeeNLP。今天看看Meta的最新推荐算法论文,“统一的生成式推荐”(GR) 第一次在核心产品线替换掉了近十年推荐工业界长期使用的分层海量特征的模型范式。
NewBeeNLP
2024-03-18
2730
当LLM面对囚徒困境,阁下又该如何应对?
大家好,这里是 NewBeeNLP。今天分享 LLM 在博弈论框架下的 战略决策能力 。
NewBeeNLP
2024-03-18
640
万字长文 | Sora技术解析报告
在深度学习革命之前,传统的图像生成技术依赖于基于手工创建特征的纹理合成和纹理映射等方法。这些方法在生成复杂而生动的图像方面能力有限。
NewBeeNLP
2024-03-07
4610
Mamba精神!只能说ICLR输麻了其实更新频率还可以再快一点点的
Github链接:https://github.com/yyyujintang/Awesome-Mamba-Papers/blob/main/README.md
NewBeeNLP
2024-03-06
2240
2024 最新综述 | 当知识图谱遇上多模态学习
在该综述中,作者重点分析了近三年(2020-2023)超过300篇文章,聚焦于两个主要方向:一是知识图谱驱动的多模态学习(KG4MM),探讨知识图谱如何支持多模态任务;二是多模态知识图谱(MM4KG),研究如何将知识图谱扩展到多模态知识图谱领域。作者从定义KGs和MMKGs的基本概念入手,继而探讨它们的构建和演化,涵盖知识图谱感知的多模态学习任务(如图像分类、视觉问答)及固有的MMKG构建内部任务(如多模态知识图谱补全、实体对齐)。本文还强调了研究重点,提供了任务定义、评估基准,并概述了基本见解。通过讨论当前面临的挑战和评估新兴研究趋势,如大型语言模型和多模态预训练策略的进展,本调研旨在为KG与多模态学习领域的研究人员提供一个全面的参考框架,以及对该领域不断演进的洞察,从而支持未来的工作。
NewBeeNLP
2024-03-06
2540
LLM 的幻觉到底是什么,有什么办法解决?
LLM 时常会出现一些神奇的现象—— 幻觉 Hallucination ,在 AI 领域,幻觉是指模型生成的信息可能 不真实 或 不准确 ,这是一个常见的问题,而 Truthfulness 指的是模型输出的 真实性 或者叫 可靠性 ,显然如果模型输出的真实性越高,那么出现幻觉的概率就是越低的。
NewBeeNLP
2024-02-28
2990
详解各种LLM系列|LLaMA 1 模型架构、预训练、部署优化特点总结
LLaMA 是Meta在2023年2月发布的一系列从 7B到 65B 参数的基础语言模型。LLaMA作为第一个向学术界开源的模型,在大模型爆发的时代具有标志性的意义。
NewBeeNLP
2024-02-06
8610
他山之石:360 多兴趣召回 Mind 实战优化
导读 本文介绍了 360 信息流推荐场景下,利用 Mind 对用户行为进行多兴趣抽取及召回的相关工作。
NewBeeNLP
2024-02-06
990
ICLR 2024:无需标签即可评估模型性能?
今天分享来自浙江大学ICLR 2024的关于自动模型评估AutoEval的最新工作:MDE。
NewBeeNLP
2024-02-06
1250
EMNLP'23:大模型时代的数据标注—FreeAL
本文跟大家介绍我们和网易伏羲合作发表在EMNLP'23主会的工作FreeAL: Towards Human-Free Active Learning in the Era of Large Language Models[1],旨在探讨大模型时代的数据标注该何去何从,我们是否还需要人类标注人员协同进行标注?
NewBeeNLP
2024-01-29
2400
从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述!
近日,来自澳大拉西亚理工学院、梅西大学和皇家墨尔本理工大学等机构的研究人员进行了一项全面的综述,深入探讨了生成式AI不断演变的格局。
NewBeeNLP
2024-01-29
2150
EMNLP'23 京东:深度语义召回中的超参自适应调整
京东搜索搞了一种在召回阶段简单的自适应调整温度系数和margin的方法,比WWW那篇论文更简单。主要看两个大盘指标:UV值(每个独立访客的收入)和UCVR(订单数/UV)和一个中间指标:过了相关性模块后参与排名阶段(prank)的item数量(笔者注:怀疑prank是粗排)。2023年的10天的线上AB实验显示,效果还是蛮好的,p值也比较低。
NewBeeNLP
2024-01-23
2280
RecSys'23 港科大:重新思考推荐系统中的多兴趣召回
港科大团队在Recsys23上提出了针对推荐系统中多兴趣召回问题的新策略。为应对select-interest-focused特性使现有负例采样策略失效和现有兴趣路由设计容易出现崩塌的挑战,作者提出 难负例采样策略 和 路由正则化策略 。这所带来的优化结果在实验证明了这些策略能有效提高推荐系统的性能,为推荐系统提供了新的优化视角。
NewBeeNLP
2024-01-18
2100
RecSys'23 港科大:重新思考推荐系统中的多兴趣召回
港科大团队在Recsys23上提出了针对推荐系统中多兴趣召回问题的新策略。为应对select-interest-focused特性使现有负例采样策略失效和现有兴趣路由设计容易出现崩塌的挑战,作者提出 难负例采样策略 和 路由正则化策略 。这所带来的优化结果在实验证明了这些策略能有效提高推荐系统的性能,为推荐系统提供了新的优化视角。
NewBeeNLP
2024-01-18
990
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024-01-17
4440
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
【玩转EdgeOne】征文进行中
限时免费体验,发文即有奖~
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档