在人工智能的浩瀚星空中,九章云极DataCanvas公司再次闪耀出璀璨光芒。近日,该公司在人工智能领域的两大原创研究成果成功被国际顶级学术会议ICLR(国际学习表征大会)收录,这一成就不仅彰显了DataCanvas在AI底层技术创新上的深厚底蕴,也进一步提升了其在国际学术界的影响力。
此次被ICLR 2025正式接纳的两篇论文分别是《A Solvable Attention for Neural Scaling Laws》与《DyCAST: Learning Dynamic Causal Structure from Time Series》。前者聚焦于神经网络的基础理解,特别是Transformer架构中的Self-Attention机制的标度定律,从计算角度揭示了其存在的必然性和影响因素;后者则致力于动态因果系统建模,利用NeuralODE技术,在时间序列数据中探索因果结构的动态变化。
ICLR,作为与NeurIPS、ICML齐名的全球三大人工智能顶级学术会议之一,自2013年由深度学习领域的先驱 Yoshua Bengio、Yann LeCun等人创立以来,便以其对深度学习核心问题的深入探索、严格的学术审查标准以及开放协作的社区文化而著称。在谷歌学术的人工智能出版物中,ICLR拥有第二高的h5-index,成为AI学者发布里程碑式成果的首选舞台。2025年,ICLR共收到全球投稿11565篇,最终录用率为32.08%,竞争之激烈可见一斑。
DataCanvas此次双论文入选,不仅是对其科研实力的有力证明,也是其在AI领域持续深耕、不断创新的又一里程碑。事实上,这并非DataCanvas首次在国际顶级会议上崭露头角。近年来,该公司已在ICLR、NeurlPS、AAAI等多个重要学术会议上发表多篇高质量论文,包括《Implicit Bias of Adversarial Training for Deep Neural Networks》、《Implicit Bias of (Stochastic) Gradient Descent for Rank-1 Linear Neural Network》以及《Effects of Momentum in lmplicit Bias of Gradient Flow folDiagonal Linear Networks》等,这些成果共同构成了DataCanvas在AI领域的坚实学术基础。
在理论层面,《A Solvable Attention for Neural Scaling Laws》通过解构Transformer的标度定律,为理解大模型的效率困局提供了新的视角。该论文首次展示了在给定条件下,Self-Attention机制与其他模型类似的标度定律,并揭示了这些定律如何受到数据分布等因素的影响。这一发现对于指导大模型的优化和设计具有重要意义。
在系统层面,《DyCAST: Learning Dynamic Causal Structure from Time Series》则开创了时序因果推断的新篇章。该论文首次处理了同一时刻因果图内部变量之间的关系以及不同时刻因果图之间的关系,并基于NeuralODE技术在多个数据集上实现了超越或持平领域内现有方法的性能。这一成果不仅为复杂系统的动态因果建模提供了新的思路,也为AI在医疗、金融等高敏感场景中的应用提供了更可靠的决策支持。
可以预见,随着九章云极DataCanvas公司在AI领域的持续探索和不断创新,其“理论可验证、因果可追溯”的AI技术体系将不断完善,为全球人工智能的发展注入更加强劲的创新动力。