Hugging Face平台近期在科技界掀起波澜,发布了一款名为SmolVLM的AI视觉语言模型(VLM),这款模型以其精简的20亿参数设计,专为设备端推理打造,凭借超低的内存占用,在众多同类模型中独树一帜。
SmolVLM AI模型的核心优势在于其小巧的体积、惊人的处理速度以及高效的内存利用。更重要的是,该模型完全开源,所有相关的模型检查点、VLM数据集、训练配方和工具,均在Apache 2.0许可证下向公众开放。
SmolVLM提供了三个版本以满足不同需求:SmolVLM-Base,适用于下游任务的微调;SmolVLM-Synthetic,基于合成数据进行微调;以及SmolVLM-Instruct,这是一个指令微调版本,可直接应用于交互式应用中。
该模型在架构设计上的巧妙之处,是其借鉴了Idefics3的理念,并采用了SmolLM2 1.7B作为语言主干。通过创新的像素混洗策略,SmolVLM将视觉信息的压缩率提升了9倍,从而实现了更高效的视觉信息处理。
在训练数据集方面,SmolVLM涵盖了Cauldron和Docmatix,并对SmolLM2进行了上下文扩展,使其能够处理更长的文本序列和多张图像。这一优化不仅提升了模型的性能,还有效降低了内存占用,解决了大型模型在普通设备上运行缓慢甚至无法运行的问题。
在内存使用方面,SmolVLM展现出了卓越的能力。它将384x384像素的图像块编码为81个tokens,这意味着在相同的测试图片下,SmolVLM仅需使用1200个tokens,而相比之下,Qwen2-VL则需要1.6万个tokens。这一显著的内存节省,使得SmolVLM在设备端推理上更具优势。
在性能表现上,SmolVLM同样令人瞩目。它在多个基准测试中,如MMMU、MathVista、MMStar、DocVQA和TextVQA等,均展现出了出色的处理能力。与Qwen2-VL相比,SmolVLM在预填充吞吐量上快了3.3到4.5倍,而在生成吞吐量上更是快了7.5到16倍。
这款创新模型的发布,无疑为AI视觉语言模型领域带来了新的活力和可能性。随着SmolVLM的广泛应用和深入发展,我们有理由期待它在未来能够发挥更大的作用,为人工智能技术的发展贡献更多的力量。