ITBear旗下自媒体矩阵:

Meta推出Llama 4系列,开创性采用“混合专家”架构引领AI新纪元

   时间:2025-04-06 08:56:25 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

在科技界的又一次重大突破中,meta公司于深夜震撼发布了其最新的Llama 4系列开源AI模型,这一系列包括了Llama 4 Scout、Llama 4 Maverick以及尚在训练中的Llama 4 Behemoth。

据meta官方介绍,这些模型均经过海量未标注文本、图像和视频数据的严格训练,旨在赋予它们卓越的视觉理解能力。这一举措被视为多模态人工智能创新领域的一个全新里程碑。

“今天,我们迎来了原生多模态AI的新时代,”meta公司表示,“我们自豪地推出了首批Llama 4模型——Llama 4 Scout和Llama 4 Maverick。这些模型不仅代表了我们的最高技术水平,也在多模态领域中树立了新的标杆。”

具体来看,Llama 4 Scout拥有170亿活跃参数,并配备了16个专家系统。其上下文窗口能力行业领先,能够处理高达1000万标记的数据。在多项基准测试中,Llama 4 Scout的表现超越了Gemma 3、Gemini 2.0 Flash-Lite和Mistral 3.1等竞争对手。

而Llama 4 Maverick同样拥有170亿活跃参数,但专家系统数量增加至128个。在图像定位方面,它展现出了顶尖水平,能够将用户提示与视觉概念精准对齐,并将模型响应定位在图像的特定区域。在基准测试中,Llama 4 Maverick的表现优于GPT-4o和Gemini 2.0 Flash。在推理和编码方面,它与DeepSeek v3取得了相当的结果,但活跃参数仅为后者的一半。在性价比方面,其聊天版本在LMArena上的ELO得分高达1417。

meta强调,Llama 4 Scout和Llama 4 Maverick之所以能成为迄今为止最好的模型,得益于从Llama 4 Behemoth中进行的知识蒸馏。Llama 4 Behemoth作为meta最强大的模型,目前仍在训练中,但在专注于STEM领域的基准测试中,已经展现出了超越GPT-4.5、Claude Sonnet 3.7和Gemini 2.0 Pro的实力。

Llama 4系列模型是meta旗下首批采用混合专家(MoE)架构的模型。这种架构通过将数据处理任务分解为子任务,并委派给更小的、专门的“专家”模型,从而提高了训练和回答用户查询时的效率。

“混合专家架构的引入,是我们技术创新的重要一步,”meta公司表示,“它使我们能够更高效地处理复杂的数据处理任务,为用户提供更准确、更快速的AI服务。”

随着Llama 4系列的发布,meta再次展示了其在人工智能领域的领先地位。这一系列模型的推出,不仅将推动多模态AI技术的发展,也将为各行各业带来更多的创新和变革。

未来,随着Llama 4 Behemoth的完成训练以及更多基于混合专家架构的模型的推出,meta有望在人工智能领域继续引领潮流,为人类社会的发展贡献更多的智慧和力量。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version