【ITBEAR科技资讯】5月17日消息,谷歌在其最新的I/O开发者大会上发布了一款名为PaLM2的通用大语言模型。据报道,该模型的训练数据几乎是其上一代模型的5倍,达到了3.6万亿个令牌。这使得PaLM2在编程、数学和创意写作方面的表现更为出色。
谷歌内部文件显示,PaLM2采用了一种名为"计算机优化扩张"的新技术,使得大语言模型的整体性能更佳,包括推理速度更快、参数调用更少以及服务成本更低。据ITBEAR科技资讯了解,虽然谷歌并未公开披露具体训练数据的规模和其他细节,但该公司强调新模型相比之前的版本更为高效,尽管规模更小,却可以完成更加复杂的任务。
随着人工智能技术的迅猛发展,谷歌和OpenAI等公司都在竞相推出更强大的大语言模型,以吸引用户使用聊天机器人代替传统搜索引擎直接获取答案。然而,这些公司对于模型的训练规模和细节信息保持保密,主要出于商业竞争考虑。不过,一些研究人员呼吁企业在人工智能领域增加透明度。
据ITBEAR科技资讯了解,PaLM2是谷歌自己推出的一款通用大语言模型,训练涵盖了100种语言,可执行更广泛的任务。该模型已经被应用于谷歌的多个功能和产品,包括实验性聊天机器人Bard。据公开披露的信息显示,PaLM2比其他现有模型更加强大。Facebook推出的LLaMA大语言模型采用了1.4万亿个令牌,而OpenAI的GPT-3在训练时使用了3000亿个令牌。
人工智能技术的迅速发展使得相关技术引发了一系列争议。谷歌的高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(El Mahdi El Mhamdi)今年2月辞职,主要原因是人工智能技术缺乏透明度。OpenAI的CEO山姆·阿尔特曼(Sam Altman)也在美国国会的听证会上表示,需要建立一套新的制度来应对人工智能的潜在问题。他强调说:“对于一种全新的技术,我们需要一套全新的框架。像我们这样的公司应当为我们推出的工具承担许多责任。”
近日,谷歌在其最新的I/O开发者大会上发布了最新的通用大语言模型PaLM2,引起了广泛关注。据ITBEAR科技资讯了解,PaLM2的训练数据规模几乎是其上一代模型的5倍,达到了3.6万亿个令牌。这一数据规模的提升使得PaLM2在编程、数学和创意写作方面表现更为出色。
谷歌内部文件显示,PaLM2基于一种名为"计算机优化扩张"的新技术进行训练。这项新技术使得大语言模型在整体性能方面更为优越,包括推理速度更快、参数调用更少以及服务成本的降低。尽管谷歌并未公开披露具体的训练数据规模和其他细节,但该公司强调新模型的高效性,即使规模更小,也能够完成更加复杂的任务。
在人工智能领域,谷歌和OpenAI等公司竞相推出更强大的大语言模型,以吸引用户使用聊天机器人代替传统搜索引擎直接获取答案。然而,这些公司对于模型的训练规模和细节信息保持保密,主要出于商业竞争的考虑。一些研究人员呼吁企业在人工智能领域增加透明度,以确保技术的公正性和可靠性。
据ITBEAR科技资讯了解,PaLM2是谷歌自己推出的通用大语言模型,经过训练可覆盖100种语言,能够执行更广泛的任务。谷歌已经将该模型应用于25个功能和产品,包括实验性聊天机器人Bard。根据公开披露的信息显示,PaLM2比其他现有模型更为强大。Facebook推出的LLaMA大语言模型采用了1.4万亿个令牌,而OpenAI的GPT-3训练时使用了3000亿个令牌。
随着人工智能技术的迅猛发展,相关技术也引发了一系列争议。谷歌的高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(El Mahdi El Mhamdi)今年2月辞职,主要原因是人工智能技术的缺乏透明度。同样,OpenAI的CEO山姆·阿尔特曼(Sam Altman)在最近的一次美国国会听证会上也表示,需要建立一套新的制度来应对人工智能的潜在问题。
人们对于这些强大的大语言模型的关注度不断增加,因为它们在各个领域具有广泛的应用潜力。然而,随之而来的是对隐私和伦理问题的担忧。一些研究人员和专家呼吁公司增加透明度,公开模型的训练规模和细节信息,以便更好地评估其潜在影响和风险。
尽管谷歌和OpenAI等公司不愿透露详细的训练数据,但他们都在致力于推动人工智能技术的发展。谷歌表示,PaLM2模型相比于上一代模型更小巧高效,同时能够处理更加复杂的任务。OpenAI则在最新的GPT-4大语言模型中展示了与人类媲美的表现。这些公司都希望通过不断创新和改进,吸引更多用户使用他们的人工智能工具。
人工智能的军备竞赛正在加剧,相关技术也在不断进步。虽然这些大语言模型的出现给我们带来了巨大的潜力和机遇,但也需要认真对待其中的伦理和隐私问题。在推动人工智能技术的发展的同时,确保透明度、责任性和可持续发展也是至关重要的。只有通过全球社区的共同努力,我们才能够实现人工智能技术的最佳应用,为人类社会带来积极的影响。