ITBear旗下自媒体矩阵:

高通发布革命性芯片 智能手机人工智能速度翻倍

   时间:2023-10-25 14:43:17 来源:ITBEAR编辑:星辉 发表评论无障碍通道

【ITBEAR科技资讯】10月25日消息,美国当地时间周二,高通公司宣布隆重发布了两款全新芯片,旨在为智能手机和个人电脑(PC)提供更强大的人工智能支持,甚至包括能够运行大型语言模型(LLM)的功能,无需连接互联网。

自2022年底Stable Diffusion的图像生成器和OpenAI的ChatGPT发布以来,人工智能应用程序的热度急剧上升。这两款被称为“生成式人工智能”应用程序对计算性能要求极高,迄今为止主要依赖于功能强大但耗电较多的英伟达图形处理器来运行。

据ITBEAR科技资讯了解,高通公司发布的新芯片包括用于个人电脑和笔记本电脑的X Elite芯片,以及适用于高端安卓手机的骁龙系列8 Gen 3芯片。

这次发布的智能手机芯片将大幅提升处理人工智能模型的速度,这可能引发华硕、索尼等高端安卓手机与苹果iPhone之间的新一轮功能竞赛,因为苹果也一直在不断推出新的人工智能功能。

一位高通公司高管在接受采访时表示,新发布的骁龙芯片在运行人工智能任务时比去年的处理器速度快得多,将图像生成的时间从去年的15秒缩短到不到1秒。

高通公司负责移动业务的高级副总裁亚历克斯·卡图兹安(Alex Katouzian)表示:“如果今天有人去购买手机,他们会关心CPU性能、内存大小以及摄像头特性等,但在未来的两三年里,人们将开始关心手机能提供哪些强大的人工智能功能。”

虽然人工智能的兴起提振了英伟达的股价,但高通相对较少受益。尽管高通的智能手机芯片出货量庞大,而且自2018年以来已经包含了称为NPU的人工智能部分,但高通的NPU一直用于改善照片和其他功能。不过,现在高通宣称,他们的智能手机芯片可以处理更大的人工智能模型,其中一些模型的参数多达100亿个。然而,这仍然低于一些最大的人工智能模型,如OpenAI的GPT-3,后者包含约1750亿个参数。

高通的高管表示,只要芯片性能足够快,内存足够大,这些类型的人工智能模型就能够在设备上运行。他们还指出,本地运行大型语言模型比在云端运行更快速、更加私密。高通还表示,他们的芯片可以运行meta的Llama 2模型的某个版本,并希望他们的客户(智能手机制造商)也能够开发自己的模型。此外,高通也正在积极开发自己的人工智能模型。

高通还提供了一款设备,可以运行免费的Stable Diffusion人工智能模型,该模型能够根据一组单词生成图像。此外,他们还展示了用人工智能扩展或填充照片的相关功能。

去年,高通公司的第二代芯片成功运行了同一模型,但处理所有数字的时间为15秒,用以生成一张猫在海滩上的图像。而今年,高通的新芯片仅需半秒钟就能完成这一任务。卡图兹安表示,这将显著提高个人助理等人工智能应用的响应速度。

高通表示,未来的应用程序,如个人语音助手,可以使用设备本身的人工智能模型进行简单的查询,而更复杂的问题则可发送到云端的更强大计算机上处理。高通解释说,这也是他们与微软紧密合作的原因,旨在确保他们的芯片能够最佳地支持人工智能软件。

卡图兹安补充道:“随着越来越多的设备用于运行人工智能功能,它们在微软Azure上的支出将会减少,因为Azure通常用于运行昂贵的推理任务。现在,这些工作都可以在设备上完成。将云负载到边缘客户端设备上将为它们带来巨大的优势。”

高通还表示,他们的顶级智能手机芯片骁龙系列8 Gen 3将从明年初开始在华硕、索尼等售价超过500美元的“高端”安卓设备上亮相。高通高端芯片的功能也最终将渗透到其他设备中。

新发布的高通X Elite芯片基于Arm架构,将与英特尔的x86芯片竞争,用于笔记本电脑和台式机。这款芯片使用了苹果收购Nuvia时的技术,Nuvia由前苹果工程师创建,目前正卷入与Arm之间的法律纠纷。基于这一芯片的笔记本电脑预计将于明年中期上市,高通称其性能不仅胜过苹果的M2 Max芯片,而且功耗更低。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version