原本小雷还以为「2023年是属于元宇宙的一年」,实在没想到以ChatGPT为代表的AI技术能在这么短的时间内抢走元宇宙的风头,成为2023年的技术关键词。从OpenAI到搜索引擎、从绘图工具到游戏公司,几乎所有「稍微出名点」软件企业都在今年推出了自己的自然语音AI对话模型。
但可惜的是,本应「造福所有人」的AI技术,却不是每个人都用得上。比如有的AI模型严格限制使用者的IP地址,有的AI模型动不动就会封禁某个区域的用户账号,相比之下那些「资源有限」要求排队抽签领取测试资格的AI模型都变得那么的平易近人。
当然了,有使用门槛就意味着有信息差,也意味着有人可以用这个信息差「大赚一笔」:在Google Play、App Store甚至是微信小程序平台,我们可以找到各式各样的AI App。他们有些调用的是OpenAI给出的免费接口,有些则直接挂羊头卖狗肉,用货不对本的低级AI模型来糊弄用户。但有一点这些App倒是表现出惊人的一致性:他们要么全是广告,要么向用户收费。
不过这些App的好日子马上就要结束了。
前段时间,推出了大量成功AI模型的OpenAI更新了招聘职位列表,开始寻找「移动工程师」,简单来说就是正在组建移动平台上的AI团队。没错,OpenAI终于要对移动互联网生态下手了。
姗姗来迟的AI移动端
尽管OpenAI这才开始组建移动团队,其他几大AI平台行业也都不约而同地选择了浏览器(网页端)作为自己的主要载体,但从App Store、Google Play等平台的搜索量以及第三方App的下载量来看,移动端AI显然有着极为广阔的市场前景:
比如文心一言才发布没多久,在App Store上就出现了很多「第三方文心一言」App。这些App从LOGO到文案介绍都和文心一言别无二致,再配上有模有样的图片展示,让很多网友们以为,这就是百度官方推出的文心一言App。小雷不久前也和大家分享过这些山寨AI App的事情,有兴趣的话可以点击(
https://www.leikeji.com/article/56192)重温。
虽然小雷不建议大家使用这一类「第三方AI App」,但从下载量来看,确实有不少人对这种手机AI App有迫切的需求。不过话又说回来,为何各大AI模型都还只提供浏览器的访问入口?在移动平台上部署AI,真就这么难吗?
从开发者的角度看,「将AI模型带到移动平台」具体可以分为两种情况:只在本地部署前端,模型放在远端的「在线模型」以及将整个AI模型部署在移动设备上的本地模型。
我们先说第一种,所谓「只有前端在本地」这个方案其实已经非常成熟,成熟到无数「第三方AI App」都已经实现了这个需求。简单来说,只部署前端指的是用户手机上安装的App只负责用户界面等软件交互,实际上所有的数据都通过AI模型的API发送到对应的远端服务器中。举个不太恰当的例子;用户安装在手机里的App只不过是一个外卖软件,实际炒菜的是外面的餐厅。至于最终炒菜的餐厅是「丽晶饭店」还是「丽晶苍蝇馆」,用户并不知悉。
在这里小雷也必须澄清一点,这类只提供前端的第三方App并非都是「偷蒙拐骗」的App,有些App确实能解决OpenAI的ChatGPT在使用上的不便。如果大家有使用过ChatGPT,应该对它复杂的访问环境要求和烦琐的登录验证流程有印象。即使小雷品是都是通过Google直接登录,但反复的验证确实也非常麻烦。
而有些第三方App就在本地重写了ChatGPT的交互,优化了原本使用浏览器时的不便。这类App通常需要用户自己在OpenAI的控制板中生成自己端口的API(AI ID)并添加到App中。
可能有人觉得这类App技术技术含量低,但至少从OpenAI招聘启事来看,他们正在组建的移动App团队,采取的也是这种方案。对于采用这种方案的App来说,它的难点主要在于如何把一个有潜力成为国民级App的交互界面设计得更人性化,而不是像某个真国民级App那样让全国人民教产品经理做软件。
换句话说,这种App做起来并不难。但作为对比,采用第二种方案开发的App,它的工程难度高了可不止一点半点。
移动AI之难,难于上青天
从技术的角度看,完全在移动平台上部署AI模型背后的技术难点可以分为五个部分:计算资源限制、网络资源限制、电量限制、储存空间限制和信息安全限制。
一般来说移动设备的计算资源通常有限,而深度学习模型需要大量的计算资源。因此在移动平台上使用AI的用户一般会使用专门为移动设备设计的硬件来提高计算速度,比如笔记本电脑就会配备更适合AI加速的专业显卡。
但很显然手机上没有用来加速AI运算的专业GPU,甚至在大多数手机移动平台上,和AI最沾边的不是神经网络单元NPU就是用来处理相机图像信号的ISP。当然了,开发者也可以调整AI模型的逻辑,让AI主动适应移动平台上并不充裕的计算资源。只不过出来的效果可能就只有Siri的级别了。
网络资源限制听起来有些矛盾,毕竟我们讨论的是部署在移动设备本地的AI模型。但如果大家有试过在本体部署AI模型,应该明白不断更新的网络资源对AI模型的重要性。
电量限制和存储空间无需多讲——深度学习模型需要进行大量的计算,这会导致移动设备的电量迅速耗尽,这对于本上就不以续航见长的智能手机来说则更是要命。另外在计算机科学领域有一句非常著名的话叫「空间换时间」,简单来说就是算法的「空间复杂度」和「时间复杂度」通常无法两全——想要在手机上部署并维持一个好用的AI模型?OpenAI你问过手机里那一个文件保存5份还会过期的国民级App了吗?
信息安全限制听起来很复杂,但是实际上非常简单:在移动设备上运行AI模型需要使用大量的用户数据,而手机这个载体记录的个人数据已经远远超过了其他个人电子设备。我们该如何保证AI拿到所有信息都是我们「想让AI知道」的呢?
我们需要怎样的移动AI?
虽然让AI登陆手机背后有无数的难点,但作为一个AI模型用户,我不得不承认AI技术的加入将对整个手机行业带来天翻地覆的变化,甚至有可能打破iOS与Android之间「一超多强」的格局。
一旦AI模型登陆手机平台,首先可以肯定的是上游SoC供应商会积极改变产品策略,大幅提升SoC中用于AI运算的NPU数量和性能。AI也不再是我们评判手机拍摄表现时的指标,而是成为一个通用的综合能力指标,甚至跑分软件都会争相加入对AI算力的测试环节。
而在用户层面,AI技术的加入也将解决一些过去手机中那些有大量数据,但因算力不足而无法解决的问题。比如用AI学习用户的脸部变化,从而提供更安全的口罩人脸解锁或声纹解锁,或者利用AI学习用户的使用习惯,从而在用户横着掏手机时精确判断用户意图并打开相机自动拍摄。针对采用曲面屏的手机,AI的加入可以根据用户拿手机的方式提供更智能的边缘防误触策略。
至于AI在相机领域的应用更是一绝:在AI的帮助下:某些手机品牌可以跳过拍照的步骤,直接「增强」一张月亮照片出来。实际上,对智能手机行业来说“AI”并不是陌生的词汇,甚至早在七八年前,就已经有手机厂商宣布会借助AI能力对手机体验进行优化,而发展至今AI也依然潜藏在我们的手机里。
但我们需要认识到的是,ChatGPT技术发展的速度、所展现的能力远不是智能手机上那种“增强AI”可比的,如果类似的大模型AI真的深入到智能手机中,说不定直接会让智能手机变成一个全新的品类。
但如果OpenAI只想打造一个适用于移动端的App,那么手机厂商暂时还不用过多担心,甚至可以尝试和OpenAI合作说服他们开放接口,好让这种AI能力接入到手机的各个应用层面之中。
当然了,AI模型的加入也会为手机带来真正智能化的语音助手,而当大型AI模型真正在用户手机上部署时,Siri也应该摆脱「人工智障」的外号了吧。只是又有多少iPhone存得下一个完整的AI模型呢?
但愿AI时代没有64GB的iPhone。