网络网-谷歌AI Core迎来首个更新,要为端侧大模型赋能

继全面屏和5G之后,网络网,智能手机职业缺少新故事已经是不争的现实。好在,2023年AI大模型的浪潮好像解了手机厂商的当务之急,端侧大模型近来俨然成为了诸多手机厂商挂在嘴边的词,例如OPPO端出了安第斯大模型(AndesGPT)、vivo发布了蓝心大模型、小米方面有大模型MiLM以及大模型赋能的小爱同学、三星也推出Galaxy AI、并宣布Galaxy S24系列将会是AI手机。
图片
已然手机厂商纷纷上线端侧大模型,上游的联发科和高通天然也不会置身事外。此前在今年年初,高通方面就率先展示了全球首个运转在Android手机上的Stable Diffusion,紧接着还与Meta合作优化了Meta Llama2大模型在终端侧的履行,联发科也在刚刚发布天玑9300和天玑8300大将端侧AI才能作为了要点。
眼看手机职业以极大的热情参加到端侧大模型上,作为Android阵营领导者的谷歌也选择了顺势而为。日前谷歌方面为一款名为AI Core的使用推出了首个更新,根据Google Play Store的描述显示,AI Core将为Pixel8Pro的Android体系和使用程序供给最新的AI大模型支持,以及其他一系列AI驱动功用,估计未来将会向其他Pixel系列机型和OEM厂商敞开。
图片
AI Core最大的亮相在于其将担任办理布置在Android手机上的大模型,同时为其他使用供给AI功用。此外AI Core还供给了AICore Persistent开关,打开状态下可以“答应AI Core划分内存、并持久运转”。关于手机厂商推出的端侧大模型而言,AI Core无疑是一个很有意义的功用,由于它的呈现也让端侧大模型真实有了价值。
所谓的端侧大模型,实际上指的是布置在终端设备上本地运转的大言语模型,其特质是在设备上进行数据处理和计算,而不需要依靠云端。现实上,它的呈现从某种意义上来说也是必定,由于此前智能手机上的“智能”特性大多被限定在了影像、语音帮手、游戏优化,以及使用预发动等极少数场景,相较之下端侧大模型无疑才是真实意义上的“AI使用”。
图片
但问题在于,现在手机厂商揭露的6-7B的AI大模型其实是现阶段GPU和NPU硬件才能下的妥协产品,与ChatGPT、Bard这类千亿级大模型在性能上有着明显的差异。但是现在即便ChatGPT等产品都还面临着叫好不叫座的状况,大众关于它们的情绪还停留在尝鲜上。尽管现阶段用ChatGPT、New Bing来聊天和讲笑话毫无门槛,但想要用它们在生产力场景辅助人类,则需要不低的门槛、而且乃至还有必定的法令危险。
同样的问题在端侧大模型上只会更加严重,即用户会发现端侧大模型与当年的智能语音帮手一样,尽管宣扬得高大上、但实际上能实现的新功用寥寥无几,比如识别有内容的相片、帮用户接听电话并记录要害内容等,早就已经在智能手机上呈现了。实际上,现在手机厂商关于端侧大模型的宣扬根本还都是在讲参数、性能,以往在新品发布会上大谈特谈的体会、功用,却都被一笔带过了。
图片
之所以会呈现这样的状况,要害在于通过Android绵长的体系更新,手机厂商关于手机的掌控是在不断下降的,大家现在每天使用的App更根本都是来自第三方。例如微软的Copilot AI为何敢于号称是“您的日常AI伴侣”,这是由于微软旗下的软件极为丰富,Copilot AI和Microsoft365等产品的交融可以为用户供给具有唯一性的体会。
所以这时候谷歌AI Core的魅力就体现出来了,在设备本地运转后可以为其它使用供给AI功用,也就意味着借AI Core可以连接端侧大模型与第三方使用。端侧大模型为使用赋能这个故事背后的幻想空间,可就大了不少。比如快手的“AI玩评”就是典型的AI大模型为使用赋能,后续假如AI Core可以遍及,相似的功用则可以呈现在任意一款Android App上。
图片
当然,AI Core并非是一个好征兆,由于它的呈现同时也意味着大内存未来将会成为标配,而且Android体系关于小内存机型将会越来越不友好。据揭露信息显示,现在一众7B规模的端侧大模型在手机上运转时会占据大量的内存,即便精度下降最大的int4等级量化也会消耗至少3.5G内存,更高的int8等级所需的内存天然也就更多了。假如抛开体系占用,实际上8GB内存的手机根本运转端侧大模型后就什么都干不了,当下主流的12GB内存也就只够再开个微信、抖音。
图片
所以从某种意义上来说,端侧大模型以及AI Core的呈现,必然将会带来Android机型新一轮的内存容量升级。未来12GB内存大概率会成为入门等级,不然这样一个被大量宣扬、却不能用的功用,明显就毫无意义了。