首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

#meta

又一家顶级的大模型开源商用了!Meta(Facebook)的 Llama 2 搅动大模型混战的格局

技术人生黄勇

今年2月24日,Meta推出大语言模型Llama(羊驼),按参数量分为7B、13B、33B和65B四个版本。它凭借一己之力,引导了开源大模型的发展,由其演变而来...

6410

LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?

技术人生黄勇

今天分享Meta的Llama 2: Open Foundation and Fine-Tuned Chat Models:LLAMA2:开源的基础和微调后的聊天...

6810

Nature|前Meta科学家推出蛋白质AI设计巨型模型

智药邦

2024年7月8日,Nature发表新闻文章Ex-Meta scientists debut gigantic AI protein design model,...

7010

Meta关于深度学习推荐系统的Scaling Law的研究

NewBeeNLP

大家好,这里是 NewBeeNLP。今天看看 Meta 关于深度学习推荐系统 Scaling Law 的研究。

9210

Meta-AI再出神作 | 借力打力!设计跨模态量化蒸馏方法,直接白嫖VLP模型的丰富语义信息

AIGC 先锋科技

一种针对大规模跨模态检索系统的有效搜索方法至关重要,鉴于多模态数据的指数级增长,这些数据涵盖了诸如文本、图像、音频和视频等不同格式。在各种方法中,哈希方法(也称...

9110

Meta发布基于大语言模型的编译器LLM Compiler,不仅可以编译成汇编代码,还可以进行反编译

deephub

LLM Compiler是一个开源模型,旨在优化代码并彻底改变编译器设计。通过在庞大的语料库上训练,包括5460亿个LLVM-IR和汇编代码标记,Meta的研究...

18510

Meta一口气开源了4个模型和1个数据集和1个评估方法:包括对标GPT4o的多模态模型,多词预测模型,音乐生成模型,音频水印等

deephub

Chameleon模型是一种早期融合的基于令牌的混合模态模型家族,能够以任意顺序理解和生成图像与文本。该模型由研究团队提出,包含了从模型初始训练到对齐和架构参数...

10310

meta大数据面试SQL-计算每个用户的受欢迎程度

数据仓库晨曦

有好友关系表t_friend,记录了user1_id,user2_id的好友关系对。现定义用户受欢迎程度=用户拥有的朋友总数/平台上的用户总数,请计算出每个用户...

7810

模拟5亿年自然进化史,全新蛋白质大模型ESM3诞生!前Meta老将力作LeCun转赞

新智元

模型开发团队来自于名为Evolutionary Scale AI的初创公司,团队负责人Alex Rives在推特上官宣了模型发布的消息。

8210

GPU 集群规模从 4K 飙升至 24K,Meta 如何引领大规模语言模型训练突破

深度学习与Python

在我们继续将 AI 研究和开发的重点放在解决一系列日益复杂的问题上时,我们经历的最重大和最具挑战性的转变之一是训练大型语言模型(LLM)所需的巨大计算规模。

7810

Meta新模型NLLB获Nature盛赞,200种濒危语言高质量翻译,「不让任何语言掉队」

新智元

Meta AI刚刚在社交媒体X上宣传自家的大模型NLLB,全称为No Language Left Behind,这个AI模型能够翻译200种语言,包括资源匮乏的...

15210

i人小助手:Meta推出多模态对话图,帮你轻松识别社交状态

机器之心

本文通讯作者为佐治亚理工学院计算机系博士生 Wenqi Jia(秋季起将转入伊利诺伊香槟分校),导师为 James M. Rehg 及 Danfei Xu。她的...

7610

scRNA | 和顶刊学分析,OR值展示不同分组的细胞类型差异

生信补给站

文献中的int.CD8.S35.meta.tb.rds就是meta.data矩阵文件,和上面的是一样的,只是问了颜值高一点。

27110

next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+

新智元

当前,大型语言模型,例如GPT和Llama,主要是根据「前文的单词序列」对「下一个token」进行预测的方式来训练。

15210

Meta| 提出上下文位置编码:CoPE,解决当前模型「普遍存在的问题」,含GPT-4o!

ShuYini

Attention机制是大模型的核心组件,但该机制并不包含顺序信息,需要进行位置编码。当前位置编码(PE)主要是通过Token计数来定位,这限制了其泛化能力。例...

71230

Meta首席AI科学家:抱歉 大语言模型无法达到人类智力水平

大数据文摘

如果这一结论出自外行之口,我们一笑了之,但它出自Meta首席AI科学家Yann LeCun之口,那就值得好好倾听了。

10810

🤩 hdWGCNA | 单细胞数据怎么做WGCNA呢!?(三)(pseudobulk data)

生信漫卷

今天没什么废话,主要讲讲如何用pseudobulk data做hdWGCNA。🙃

14001

Meta Llama 3 模型与亚马逊 Bedrock 完美融合,释放无限潜能。如何通过SageMaker来部署和运行推理

Maynor

今天,宣布[Meta 的 Llama 3 模型在 Amazon Bedrock 全面上市。 Meta Llama 3 专为构建、实验和负责任地扩展生成式人工智能...

6700

详解为什么现在的 LLMs 大都是 Decoder-only 的架构

叶庭云

11500

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

新智元

不同于大多数模型使用字母缩略起名,论文作者在脚注中解释道,Lory是一种羽毛有彩虹颜色的鹦鹉,和「软MoE」的精神非常相似。

7810
领券