在小米仁车佳的发布会上,小米Su7依旧没有上台,但预热效果又满满当当。
这次主要聊了聊新款手机小米14 Ultra,又聊了聊小米SU7在小米人车生态中的重要性。 这些功能的远程控制基本上是基本操作,但大部分功能都是基于此的,包括在家中控制车内的米家设备; 也可以反向操作,并使用垫子来控制车内的功能等。
整个2个多小时的发布会,大部分时间都在谈论徕卡相机,只用了短短的3分钟,就进行了功能演示的人,车回家**,才让我们了解一个大致的情况。 它想要传达的中心思想是,有了小米汽车、小米手机和小米家居产品,你的生活将变得无缝,它会让你的爱车更轻松、更舒适。
小米懂营销,也懂得讲故事,车身设计采用半隐藏式门把手讲故事,说到生态环节,在手机自动解锁车辆时,也拿出来炫耀。 这一次,我们可以通过几分钟的演示**挖掘出哪些信息? 我们应该盲目敬拜吗?
小米所谓的人、车、家生态,用大白话来说,就是小米汽车的车机系统可以共享大量的小米应用,随时调出手机屏幕,手机和家电可以交互。 而且发布会上展示的功能也非常基础,没有太多抢眼的功能。
发布会上展示的功能:
通过家中垫子的声音控制车辆的座椅加热功能;
当有人将小米 14 Ultra 靠近车辆时,车辆会自动解锁并激活并关联小米 ID;
车内主屏幕可显示所有关联的米家设备;
车内主屏可分为三个显示屏,具有相同的屏幕、手机、导航、娱乐功能;
小米平板安装在后排,可以开启车控功能,导航、天气、**和视听娱乐功能,一个细节功能“搜索地址,发给主驾驶(主屏幕),点击主屏幕后可以规划导航路径”(屏幕越多功能越强);
车内语音控制,开启家庭模式,家中的小米家设备开始工作,并给出家庭的图像视角。
连接这些设备和功能的是小米澎湃操作系统系统。
显示屏上共有六个功能点,每个点都是单拆的,这些功能都是通过语音遥控器自动解锁并靠近车辆的,事实上,它们在其他汽车品牌的产品中已经存在了很长时间,然而,语音控制座椅加热的前身是手机APP遥控器; 在接近车辆自动解锁之前,它也依靠APP或车钥匙,但现在它依靠的是带有小米ID的手机。 这两项变化的目的,就是为了加强人与车的联系,尽可能实现非感官的车车体验。
这一点很熟悉,但拆分和解释太多了。
而且,小米汽车已经确认将搭载高通的8295芯片,这意味着小米在车内做到多屏互联、屏幕流通、多屏显示并不难,而且也能保证流畅性。 然后是车内的主屏,除了映射手机屏幕(没有手机支架)之外,还可以关联所有米家设备,其实从手机靠近车载开始就已经关联了,关联到了车主的小米ID,然后一系列的米家设备就出现在了车内的Pad界面上。之后,可以控制所有设备; 这要结合第六点,这里是家庭模式,我们的理解应该是用户可以自定义,哪些设备需要开启,哪些设备不需要开启。
这个产品点讲述了小米汽车与米家设备的互联互通,实现了物联网在生活场景中的进一步覆盖。 简单来说,之前小米手机+米家设备用户的使用场景,只能通过手机来控制米家设备的功能,而现在,车内的主屏可以应用来实现相关米家设备的运行,加强了人与人之间的联系, 汽车和家庭,并改变了使用习惯。
所谓人、车、家生态,简单理解,就是通过一个终端设备控制同一个ID下的所有智能设备,可以是手机和平板电脑,也可以是车机系统,全场景。 在已经公布的功能中,疑点是“家庭模式”,在多个米家设备互联后,算力会不会有一定的需求? 在地下室没有信号或信号微弱的情况下还能正常使用吗?
上面提到的六个功能点,第一组件不大,实现起来比较简单,唯一的疑惑是多产品互联后对计算和工况的需求。 如果能做到不占用太多算力,开启智能驾驶功能后也可以应用,真正能让用户在车内更容易掌握屋内情况。
小米这次的发布会,其实传达的信息只是硬件和硬件之间的跨设备连接,已经打通了,而且功能很多,基本功能也很好用。但智力仍然不那么有趣。
如果你是小米智能家居家庭桶用户,可以认为目前的生态互联(IoT)还处于提升和自动化的阶段,所能实现的只是硬件设备的互联和定制任务的自动化。 然而,距离生态互联的智能化阶段还有很长的路要走。
在实现功能上,可实现人工开启家中空调和扫地机器人,拉上窗帘开启车侧灯的操作。 不过,大模型只是让澎湃的OS这个系统更智能,并没有更强的自学习能力,所以在小米Su7距离家1km以内的时候,还远远做不到,可以根据主人的习惯、灯光等设备的状态等智能体验来判断屋内的温度。
在小米的新闻发布会之后,我实际上认为我们可以开始对这个用例有一定的想象力。
就像之前的智能驾驶大会一样,从0到1总是那么不可触碰,感觉不切实际,毫无意义,不可能。 但是在从1到100的过程中,你会发现这种智能驾驶功能越来越成熟和丰富,慢慢进化的人类已经开始对它有一定的依赖性,比如配置在L2级的好用的高速NOA功能。 按照这个逻辑,全家桶的智能生态和销售将成为一种趋势。 现在国内只有两家公司可以做这套事情,小米和华为。
分阶段开发,小米的人车家澎湃操作系统,打通端到端互联,这是第一步,背后是大模型的支撑,虽然有一定的学习能力,但远没有达到上述智能化程度。在发布的演示画面中,这种学习能力集中在手机、平板和电视上,尚未延伸到汽车的学习; 而且学习能力还很浅,只能完成一些简单的技能,比如暂停**、截屏等。
间接地,在这个阶段,学习能力还没有覆盖到车端,或者车端的学习能力还没有发展起来,可以与自主研发的智能驾驶一起使用,比如,在开启智能驾驶后,全场景功能下的智能交互可能会打通车端的学习能力。
或许在未来,平日每天定时开启室内通风、座椅加热、规划路径,会通过学习能力的提升,甚至不用语音控制,变得更加智能化; 也许你也可以调整一下家里的生态硬件,在规划好路径后,在离家还有1km的范围内时,开启自定义设备。
综上所述,公布的功能属于基础练习,没必要一味崇拜,或许8295芯片的算力还不够充分,只是拉开了生态架构的序幕。 现阶段,能做好这一点的公司也只有两家,但小米的硬件生态覆盖面很广,这有一定的优势,而且在完成汽车之后,就相当强大了(不算软件生态水平)。 你可以期待在未来学习进化的能力,这肯定会带来体验的改变。