随着大型人工智能模型在各行各业的广泛应用,其带来的效率提升显而易见,但安全问题也日益凸显,成为企业不得不面对的严峻挑战。黑客利用大模型进行网络攻击的事件频发,给企业的网络安全防护带来了前所未有的压力。
近年来,大模型技术从训练阶段向推理阶段的加速落地,正促使AI驱动的安全攻防体系发生根本性变革。以DeepSeek为代表的大模型推理能力,不仅推动了安全增量市场的快速增长,还促使中国网络安全市场规模突破了原有的限制。绿盟科技集团副总裁宫智认为,这一变化的底层逻辑在于,推理需求推动了安全场景从“被动防御”向“主动决策”的转变。
宫智指出,随着DeepSeek应用的普及,本地化部署成为企业应用大模型的新趋势。这意味着企业需要自己承担全部的安全责任,包括大模型系统底座、网络层、应用层,以及数据安全、内容合规等涉及大模型全生命周期的安全问题。这对于企业来说,无疑是一个巨大的挑战。绿盟科技认为,随着企业本地化部署大模型的量不断增加,相关的安全解决方案将成为安全行业新的增长点。
然而,本地化部署的大模型产品也面临着严峻的安全挑战。除了硬件设备性能的问题外,基础能力的构建是最大的安全挑战。在2025绿盟科技合作伙伴大会上,绿盟科技发布了一系列大模型安全解决方案和新产品,包括大模型安全解决方案、AI驱动的自主安全运营平台、绿盟大模型安全评估系统(AI-SCAN)等。宫智表示,与原先的企业安全场景相比,大模型技术的广泛应用会带来更复杂的安全挑战,如大模型的不可解释性可能引发信任、合规和安全等风险。
当下,大模型的安全问题仍是阻碍其在ToB企业侧应用的最大障碍之一。特别是DeepSeek在短短不到一个月的时间内,就遭遇了大规模DDoS攻击、僵尸网络、仿冒网站泛滥等各种安全威胁。这些事件表明,大模型面临着包括数据安全风险、训练语料安全风险、模型安全风险等在内的七大类风险。从模型自身风险的角度出发,由于模型需要对外提供公开服务,并涉及敏感信息的开放场景,因此会引发多种安全隐患,如提示注入攻击、拒绝服务攻击等。
为了应对这些安全挑战,企业需要加强大模型的安全技术保障和运行监测,确保自身的安全性、可靠性和稳定性。以DeepSeek为例,由于其自身的防御机制建设不足,未能储备足够的防护资源以面对高强度的DDoS攻击行为,导致遭受了大规模攻击。Ollama等本地部署大模型的工具在默认情况下不具备安全认证功能,也增加了服务被滥用的风险和数据泄露的可能性。
因此,安全行业专家建议企业修改Ollama配置,加入身份认证手段,并及时修改防火墙、WAF、入侵检测等相关安全配置。同时,企业还需要定期检查和关闭不必要的端口、限制计算资源的使用、加强监控等措施来提高安全性。宫智强调,企业在应用大模型时,除了要解决刚性的安全性问题外,还需要面对更多的合规性问题。特别是当大模型训练语料进一步扩大时,模型可能存在包括鲁棒性、可解释性、幻觉等在内的多个问题,甚至存在随时失控的风险。
为了解决这些问题,宫智认为,通过通用模型与安全行业模型的结合,是当下企业安全体系建设的最优解。一方面,像DeepSeek、通义千问这样的基础通用大模型提供了强大的底层算力支持;另一方面,安全厂商多年积累的安全经验与安全数据训练出来的专家模型,可以与通用大模型相结合,形成更聚焦的安全行业大模型,赋能企业安全运营。目前,安全行业大模型主要应用于辅助企业进行安全运营层面,如研判分析、安全报告的生成等。通过大模型能力的植入,企业安全运营的效率得到了显著提升。