Meta憋了个大招!Llama4系列AI模型开源啦!
话说,最近科技圈最大的新闻莫过于Meta(就是之前的脸书)推出的全新开源AI模型——Llama4了!这次一下子就放出了俩“猛兽”:Llama4Scout和Llama4Maverick,先让大家尝尝鲜。听说,未来还有个更厉害的“大佬”Llama4Behemoth要登场,简直让人期待值拉满!
Llama4Scout:能“看”20小时视频,还能单卡跑!
先来说说Llama4Scout,这家伙有1090亿个参数,活跃的也有170亿个,还有16个专家坐镇。最牛的是啥?它竟然能处理1000万的上下文!这啥概念?相当于一口气能“看”20多个小时的视频啊!更给力的是,它只需要一张H100 GPU(Int4量化后)就能跑起来,这性价比杠杠的!在各种基准测试里,它也把Gemma3、Gemini2.0Flash - Lite、Mistral3.1这些“老牌劲旅”给超越了!
Llama4Maverick:参数减半,能力不减!
再来说说Llama4Maverick,它拥有4000亿个参数,170亿个活跃参数,还有128个专家。这家伙更猛,直接冲上了大模型LMSYS排行榜的第二名(ELO得分1417),仅次于闭源的Gemini2.5Pro!而且更厉害的是,它只用了Gemini2.5Pro一半的参数,推理和编码能力就和DeepSeek - v3-0324不相上下!
更强大的Llama4Behemoth即将登场!
别忘了,还有个更厉害的Llama4Behemoth在路上!据说它拥有2万亿参数,2880亿活跃参数,16个专家。在STEM基准测试中,它已经超越了GPT -4.5、Claude Sonnet3.7、Gemini2.0Pro这些“大神”!未来可期啊!
Llama4的技术亮点:
Llama4系列首次采用了混合专家(MoE)架构,这种架构在训练和回答问题的时候效率更高。而且,Llama4还是个原生的多模态模型,能把文本和视觉信息无缝融合。Meta还升级了视觉编码器,开发了新的训练方法MetaP来优化超参数。总而言之,这次Llama4系列是诚意满满!
开发者们,冲啊!
现在,开发者们就可以在llama.com和Hugging Face上下载这两款最新的模型了!快去体验一下吧!
划重点总结:
Meta发布开源多模态Llama4系列模型,首批发布Llama4Scout和Llama4Maverick,未来还有Llama4Behemoth!
Llama4性能强劲,排行榜表现突出,推理编码能力与其他优秀模型相当甚至超越。
采用MoE架构,为原生多模态模型,技术升级和新训练方法加持,开发者可以免费下载使用。
领取专属 10元无门槛券
私享最新 技术干货