近日,有外媒报道称,百度在人工智能领域的一项重大发现,可能比OpenAI更早地揭示了“Scaling Law”这一重要原则。这一消息引起了科技界的广泛关注。
所谓“Scaling Law”,简而言之,即模型的智能能力会随着训练数据和模型参数的增加而增强。长久以来,这一思想被广泛认为是OpenAI在2020年发布的论文《Scaling Laws for Neural Language Models》中首次提出的。
然而,在最近的一期播客节目中,前OpenAI研究副总裁、Anthropic创始人Dario Amodei透露了一个令人惊讶的信息。他表示,早在2014年,当他在百度与吴恩达共同研究AI时,就已经观察到了模型发展中的“Scaling Law”现象。这一说法,无疑对“Scaling Law”的起源提出了新的见解。
不仅如此,还有行业专家通过发文指出,关于“Scaling Law”的原始研究,实际上可以追溯到2017年的百度公司。这一发现,进一步加剧了关于“Scaling Law”起源的争议。
百度在人工智能领域的深耕细作,以及其在“Scaling Law”方面的早期发现,无疑展示了其在该领域的深厚底蕴和前瞻视野。尽管关于“Scaling Law”起源的争议仍在持续,但百度在这一领域的贡献和影响力,已经得到了业界的广泛认可。