ITBear旗下自媒体矩阵:

RWKV7-G11.5B模型重磅发布:多语言推理强手,支持超百种语言!

   时间:2025-04-30 08:50:58 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

RWKV基金会近期在人工智能领域迈出了重要一步,正式公布了其最新研发成果——RWKV7-G11.5B推理模型。这款模型以其卓越的推理能力和对多语言的广泛支持,尤其适合在诸如手机等端侧设备上运行,为用户带来更加流畅和智能的体验。

RWKV7-G11.5B模型是基于庞大的World v3.5数据集进行训练的,该数据集涵盖了小说、网页、数学、代码以及专门的推理数据,总数据量高达5.16万亿个词汇单元。这样的训练基础,使得模型在逻辑推理方面展现出了非凡的实力,能够轻松应对多语言、数学以及代码相关的各种任务。

在MMLU(多语种数学语言理解)评测中,RWKV7-G11.5B模型的表现尤为亮眼,其准确度高达48.2%,相较于之前的RWKV-7World1.5B模型,有了显著的提升。在与同规模开源模型的对比中,RWKV7-G11.5B在英语和多语言能力方面也展现出了明显的优势,甚至超过了同期发布的Qwen3-1.7B-Base模型。

在另一项名为“无法作弊的评测”中,RWKV7-G11.5B模型同样表现出色。这项评测使用实时数据,如最新的论文和新闻文章,来评估开源大语言模型的真实建模能力和泛化能力。在同参数规模的开源模型中,RWKV7-G11.5B的综合得分名列前茅,仅次于参数更多的Qwen3-1.7B模型,超越了Qwen2.5-1.5B等其他模型。

RWKV7-G11.5B模型不仅支持全球超过100种自然语言,而且在多语言翻译任务中表现出色,能够准确地将中文翻译为多种语言。该模型还具备一定的代码能力,能够解答Leetcode上的编程题目,并在数学题目解答中展现出了高水平的准确性。

为了让更多用户能够体验到RWKV7-G11.5B模型的强大功能,RWKV基金会提供了多种便捷的体验方式。用户可以通过Hugging Face或魔搭社区的在线demo来试用已完成训练的RWKV7-G10.1B、0.4B和1.5B模型。同时,RWKV基金会还推出了处于内测阶段的RWKV端侧聊天APP,该应用支持Android和iOS系统,让用户能够随时随地与模型进行互动。

RWKV基金会的发布计划十分周密,目前已经发布了G10.1B、0.4B和1.5B三个版本的模型,而更大规模的G12.9B模型也预计将在不久后与公众见面。基金会还在积极准备更大更优的数据集World v3.7,以期训练出性能更加强劲的RWKV7-G17B模型。

对于想要快速体验RWKV7-G11.5B模型的用户,可以通过以下链接访问Hugging Face平台上的在线demo:https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version