在MWC体验AI Pin:不会取代手机 但点燃了AI硬件之火

站长云网 2024-03-01 站长云网

又是被AI轰炸的一周。除了苹果“放弃造车”的大消息,这周全球科技行业的焦点还是集中在MWC24大会上,在巴塞罗那现场的雷科技报道团也带来了全方位一线报道,您可以在雷科技网站或微信点击“MWC·现场”回顾所有内容。

和之前预料的差不多,AI成了这届MWC大会的重中之重,各式各样围绕AI进行设计和产品定义的硬件设备,更是现场最受关注的品类之一,甚至就连在场外,苹果放弃造车据传也是因为战略重心转向AI。

但说回AI相关硬件,除了AI手机、AIPC,过去一年最受关注和期待的产品应该就是以AIPin、rabbitr1为代表的独立AI终端,按照计划,它们都将在今年3月、4月正式发货——在宣布放弃传统智能手机新项目AllinAI时,魅族曾提到这两款AI新物种,不过魅族认为这两款AI新物种都不够完美,因此魅族要做更好的AI终端。2月29日晚魅族将新发布的魅族21Pro定义为“AI入场券”。

那么AIPin、rabbitr1体验到底如何?1月,雷科技CES报道团曾深入聊过rabbitr1这款全新形态的产品,而在本次MWC现场,我的同事“一位天明”就在高通展台体验了听闻已久AIPin,结合他的分享,我们对AIPin这款产品有了新的认识。


挂在胸前的AI助理,还长了“眼睛”

了解过AIPin的读者应该知道,AIPin是一款没有屏幕的独立穿戴设备,搭载了高通骁龙八核芯片,通过eSIM支持网络连接,不依赖于手机或者其他个人终端,将语音作为核心的交互方式,但其实还支持激光投射、手势以及触摸(机身表面)三种交互。

不过总的来说,AIPin最主要的使用方式还是“对话”。就像手机或者智能音箱上接入大模型的AI助手一样,用户可以问各种问题来获取所需信息,还支持50种语言的实时翻译,可以将用户的语言实时翻译成另一种语言,或是将他人的语言翻译成用户的母语。


图片来源:Humane

AIPin虽然没有屏幕,但也是有图形用户界面。当用户需要查看信息的时候,AIPin可以通过内置的单色激光投射到手掌上浏览,同时支持手势交互,通过手指的点按进行导航。TheVerge记者还指出,AIPin的手势比他想象得更加流畅和灵敏。


这在很大程度上可能受益于AIPin对视觉大模型的关注。AIPin搭载了一颗广角摄像头,当然不是为了拍照,核心是成为AIPin的“眼睛”,并利用大模型了解摄像头捕捉的画面,比如在MWC现场就能“看到”这是一个人声鼎沸的会场,或者对面人的穿着打扮。

另外值得一提的是,AIPin的穿戴设计可能是最容易被忽略的地方之一。打造AIPin的Humane公司之所以将其设计成挂在胸前的设备,核心还是为了让AIPin拥有更接近用户第一人称视角,可以“观察”用户看到的现实世界。


这也是很多人对于AIPin最期待的地方。

回想一下,OpenAI去年发布GPT-4的时候,就特意演示过让GPT-4通过照片了解冰箱里的“材料”,并以此给出一份合适的菜谱。理论上,通过视频获取的信息密度远高于照片,而“看我所看”的AIPin,确实有潜力成为真正意义上的“AI助理”,一个能看不能动的“具身智能”。

理想丰满现实骨感,AIPin面临不少挑战

AIPin也不是第一款想通过机器视觉技术来解决人机交互问题的设备,早在2012年Google就推出了Glass,后来国内的百度跟着做了一款智能眼镜百度Eye,它们当时的故事是视觉搜索,用户戴着眼镜就能“指哪打哪”,然而受限于硬件算力、深度学习算法的智能水平、续航以及网络,智能眼镜并未取得成功,成了先烈,不过,它们在这一阶段的探索也给后来的AR眼镜等相对成熟的品类奠定了基础。


图片来源:GoogleGlass

大模型时代AGI(通用型人工智能)有了更强的感知能力,同时也具备了理解与模拟真实世界的能力,基于此拥有真正的认知能力。在此基础上,AI硬件被寄予厚望,AIPin也是希冀用新一代AGI技术来实现Google、百度们探索失败的智能视觉交互。


图片来源:OpenAISora

然而,目前视觉大模型方面的技术还难以支撑识别万物,AIPin通过摄像头了解到的现实世界信息还很有限,视觉交互在短期内很难做到完全可用。

续航也是一个问题。AIPin采用了分体式的设计,由一个AIPin本体和一个通过磁铁连接的无线充电宝(他们叫做BatteryBoost)组成,Humane公司还专门设计了热更换的电池以延长续航时间,但就算是总的续航时间,也停留在“轻度负载能坚持大半天”的水平。


而这还是建立在少用或者不用激光投射的基础上,毕竟激光在这样一个小型设备上确实是非常耗电的。

还存在算力的问题。据雷科技了解,AIPin采用了混合模型,设备本身的算力极其有限,端侧模型只用来处理语音识别以及基本操作等需要快速响应的请求,更多的处理还是交给云端模型进行处理。但云端处理就必然涉及到连接和延迟问题,还要再加上模型生成的时间,在MWC现场的演示中,AIPin往往就需要等待好几秒才能给出回应。

对于语音交互来说,无疑是很糟糕的体验。更何况,语音交互还存在严重的局限性,网友当年对锤子TNT的群嘲都还历历在目。

当前,AI硬件的重点攻克方向就是端侧算力的提升,除了给终端装配更强大的AI芯片外,在MWC24上联发科甚至展示了“多设备共享算力”技术——即让A设备可将闲置算力共享给B设备来进行大模型等巨量计算,然而这样的计算模式又需要新的边缘侧网络技术的支持,有挑战,也有机会。

不可能取代手机,点燃了AI硬件的星星之火

“手机能做的,AIPin都能做。”Humane的工作人员在现场讲解时提到,AIPin的终极目标是取代手机。


但AIPin真的可能取代手机成为下一代的个人计算平台吗?恐怕没有多少人相信,不管是在现场的雷科技编辑,还是TheVerge、DIgitalCameraWorld在内的媒体明确指出自己的质疑,包括语音交互的局限性,算力、隐私与体验之间的权衡,以及大量具体到产品体验的实际问题。

更何况,这是一款售价高达699美元(约合人民币5029元)起的设备,有网友就吐槽得好,“有这钱为什么不换个好点的手机。”

事实上也是,AIPin能做的,理论上都能通过手机做到,并且考虑到更强大的算力、屏幕和软件生态,手机大概率会做得更好,这也是包括rabbitr1在内所有独立AI终端所面临的挑战。

不过也要承认的是,受限于设计和形态,手机很难像AIPin一样挂在胸前,很方便就能让机器“观察世界,回答一切”,这其实也是可穿戴计算设备一直备受追捧的一个重要原因,单单是从口袋拿出→解锁→呼出相应界面,这几步就能制造足够的“摩擦”,劝退用户随时随地“召唤”AI助理。

从这个角度来看,手机相比AIPin或者VisionPro这类穿戴设备确实存在天然的问题。所以AIPin的成功或失败其实不重要,更关键的问题可能是:

可穿戴的AI终端能不能在手机全面AI化的未来找到生存的空间,甚至在技术的进一步突破之后,成为下一代个人计算平台?

这当然还是一个没有答案的问题,但可以相信,一定会有人和厂商继续沿着这条路进行探索,而AIPin正是这样的一次探索,哪怕AIPin像GoogleGlass一样一败涂地,但它至少点燃了一团AI硬件的星星之火,包括荣耀、OPPO、三星、魅族、小度、Rabbit在内的越来越多厂商正在AI硬件的路上,勇往直前。

责任编辑:站长云网