ITBear旗下自媒体矩阵:

代码大模型爆发:aiXcoder等如何引领软件开发新纪元?

   时间:2025-04-21 22:12:58 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

随着技术的飞速发展,特别是通用大模型性能的显著提升以及推理算力成本的急剧下降,垂直领域的大模型正迎来前所未有的发展机遇。在这波浪潮中,代码大模型尤为引人注目,不仅吸引了市场的广泛关注,更成为资本竞相追逐的焦点。

根据Gartner发布的《2024年全球IT支出预测》报告,全球软件开发人力成本正以年均7-9%的速度增长,预计到2024年,全球软件相关支出将达到1.2万亿美元,其中人力成本占比高达50%,即6000亿美元。而在中国,互联网巨头们在软件开发方面的人力成本压力更为显著,部分公司的薪酬及相关支出年增幅已接近15%。

然而,与日益增长的软件开发需求相比,全球软件工程师的缺口却在持续扩大。有数据显示,未来十年内,这一缺口可能达到数千万之巨,成为制约各行各业数字化转型的关键因素。在此背景下,代码大模型凭借其独特的优势,成为了少数具备明确商业化条件和付费意愿的垂直行业大模型之一。

Cursor作为海外知名的AI编程产品,仅用21个月便实现了1亿美元的ARR,成为历史上增长最快的SaaS产品之一,估值更是高达100亿美元。Gartner还预测,到2026年,AI将自动化全球30%的编码任务,这意味着代码大模型市场将是一个“看得见”的千亿美元级大蛋糕。

不仅海外市场如火如荼,国内通用大模型厂商也纷纷涉足代码大模型领域。阿里的通义灵码、腾讯的腾讯云AI代码助手、华为的Code Arts、字节跳动的豆包Mars Code以及百度的文心快码等,都在这场激烈的竞争中崭露头角。京东、讯飞、昆仑万维、DeepSeek、智谱等多家通用大模型厂商也都在积极布局这一领域。

在众多参与者中,aiXcoder以其深厚的积淀和卓越的模型性能脱颖而出。依托北大软件工程研究所60余年的积累,aiXcoder团队从多篇全球顶级会议论文的奠基,到全球首个十亿级和百亿级参数的国产代码大模型aiXcoder的发布,再到国内诸多大厂头部客户的实践落地,实现了从实验室理论到产业价值的闭环突破。

aiXcoder-7B模型更是其最新力作。该模型在多个评测集的评测结果中超越了同级别参数规模的众多开源模型,如Qwen2.5-Coder-7B、DeepSeekCoder-7B、CodeLlama-7B等。在代码生成与补全效果上,aiXcoder-7B均达到了SOTA评价(即当前最佳)。

今年年初,aiXcoder(北京硅心科技有限公司)成功完成了A++轮融资,由中关村发展集团旗下中关村资本和中关村协同创新基金共同参投。至此,该公司已累计获得4轮融资,吸引了伽利略资本、高瓴创投、彬复资本、清流资本、三七互娱等多家顶级风险投资机构的青睐。

近日,aiXcoder的商业合伙人兼总裁刘德欣在接受访谈时,深入探讨了当前代码大模型行业面临的技术瓶颈和未来趋势。他表示,通用大模型虽然强大,但由于其构建和训练方式基于自然语言而非编程语言,因此在处理代码时存在一定的局限性。代码相比自然语言具有更强的上下文依赖性和结构性,这要求模型必须能够精准地理解程序语言的结构和语义。

针对这一问题,aiXcoder-7B采用了结构化Span的形式构建模型,并创新性地提出了“结构化填充中间目标(SFIM)”的训练方法。通过解析代码语法树节点,选取完整的代码逻辑单元作为训练跨度,有效避免了随机选段造成的不完整情况,从而大幅提升了模型训练效果。实验表明,SFIM显著提升了生成代码的简洁性和结构合理性。

除了模型性能外,企业在私域大模型落地过程中还关注多个要素。刘德欣总结了企业领域大模型落地的四大原则:掌握模型自治权、实现模型层的高解耦、建立可复用的数据框架以及始终关注业务。这些原则不仅为企业提供了落地大模型的指导思路,也为aiXcoder等服务商提供了与客户合作的基础框架。

面对大厂在代码大模型领域的激烈竞争,aiXcoder凭借其垂直领域的深耕、与客户的合作伙伴关系以及积极开展与大厂的合作等策略,保持了强劲的市场竞争力。刘德欣表示,aiXcoder将继续在软件工程和智能化这两个垂直领域做更深的技术融合,并保持技术层面的持续领跑。

aiXcoder还创新推出了内置MCP功能的软件开发Agent,正在内测中。该Agent不仅支持企业私有化部署和针对性适配企业已有的开源大模型,还具备强大的环境适配能力,支持企业在不影响现有代码架构的前提下快速接入企业私有化工具链。同时,aiXcoder Agent功能计划在插件端免费开放,使用门槛低,将有力推动AI Coding行业的发展。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version