苹果WWDC2024发布会后,苹果股价在徘徊三年后,终于冲破200美金,总市值站稳3万亿美金,再次证明你大爷还是你大爷。
今年的发布会,苹果花了一半的时间在谈论AI。
在智能机时代,中国手机厂商们合力围攻苹果,说把苹果拉下“铁王座”或许夸张,但他们给苹果带来了巨大挑战则是不争的事实。
那么在AI手机时代,中国的手机厂商们如何思考、应对呢?
我的朋友nada,专门去深圳找万玉龙聊了聊。
万玉龙,OPPO智能语音助手小布的业务负责人,在负责OPPO语音助手之前,也曾深度参与过操作系统和基础大模型的研发,可以说是AI硬件的一名六边形战士。
他提醒要重点关注有大模型加持的新版Siri在不同APP之间的穿梭能力。Siri的无处不在给硬件厂商带来了哪些启发?又对隐私提出了哪些挑战呢?
当然还有最炙热的发问:自研大模型和接入第三方大模型如何抉择才合理?
他还非常清晰地拆解了端侧和云上的大模型是如何实现协同的,“端侧更快云上更慢”其实是一种过时的说法,同样的,端侧部署更安全也是一个需要被挑战的观念。
以下是正文:
Q:作为同行,你是怎么看这场发布会的?
A:整体观感,苹果对AI的投入和规划是符合预期,与此同时有一点额外的惊喜。
符合预期是作为一家智能终端厂商,它对AI的应用和规划是匹配定位的,它能够清晰地理解作为终端的优势在哪里,而不是盲目去跟随。
惊喜的话,就是它在找准定位的基础上,把自己应用的产品性,产品策略和更广度的应用生态考虑得比较周全,它的APP intents API开发者生态很好,让更多的第三方开发者也能够进入到它新一代Siri的应用生态里面来,然后让Siri承担了一个很重要的角色,帮助用户能够更加自然地通过语音去操控整个手机里的各类应用,包括第一方应用和第三方应用。
苹果这次发布会有一半以上时间在介绍AI,比较重要的角色就是Siri,跟我们的业务关系比较大。我总结了三点:
第一个是多模态,通过技术手段或者大模型的发展增强了用户听说读写看的这五大能力,机器能够帮助用户去更好地理解屏幕、理解语音、理解文本,更加自然地去完成交互。
第二个是它内化的部分,因为它推出了自己的Apple Intelligence,后面有一个很重要的东西叫做APP intents API。APP intents API其实是为开发者或者应用团队提供了快速接入Siri的方式。只需要按照它的协议去编写一些schema,能够快速让用户或者开发者进入到生态里来,用户只需要简单的指令就能完成对很多APP更深度的操控,这件事情让我觉得比较有惊喜。
第三个是外化的部分,它在很多的UI、入口及交互方式上有一些很巧思的地方,比如启动动效就能够很显性地让用户感觉到与以前不太一样。用户点击电源键,就可以问一些个性化的信息,还是很有感觉的。
Q:发布会前大家也都知道,这次重点之一就是Siri的升级,但是Siri真的做到这样一个集大成,尤其是像你说的,它有APP intents API这样的一个接口,能够把跨APP的能力都调用起来,还是有点出乎意料的。
A:其实这几个事情是彼此有连接的,因为有了APP intents API,所以它做到了这一点,真正让Siri无处不在。Siri可以在这个APP里面出现,然后让用户在任何场合去呼唤另一个APP的服务。这件事情对用户体验来说是很好的提升,值得我们去学习。
Q:你刚刚提到了终端的优势,可以讲讲作为一个手机终端,它的优势和APP应用对比在哪里?现在有越来越多的大模型应用出来,一个人手机里可能装的都不止一个。今天作为终端厂商,去做一套AI的系统,核心的优势在哪里?
A:举几个例子。首先,终端本身作为用户直接对话的一个设备,它拥有很强的入口优势。不像一些应用,需要用户主动点开,然后再在应用里面通过一些按钮或者其他的方式去触达。苹果Siri不仅可以通过识别语音,也可以通过结合当前屏幕的一些信息去提供更加自然的交互方式。
第二就是能力优势。因为终端厂商具备很多底层的一些API调用的能力,能够方便快捷地在多个应用之间交叉去做横向调度,这个调度能够方便用户通过一句话就能完成多个服务的编排跟串联。
第三就是端+云的链路优势。因为端在终端厂商手里,所以终端厂商能够最大化利用算力,它可以结合算法的优化,芯片的优化,以及端云之间整个安全链路的保障,确保安全可信地去服务用户,这是很多AI应用在终端厂商面前没那么有优势的地方。
Q:你刚提到了三点,可以简单总结一下,一是手机操作的体验会更流畅,然后就是不同的APP之间的关联整合,刘作虎用了一个词叫穿梭,在不同的APP之间穿梭,然后还有算力,因为智能硬件一定是在端侧跟云端去做最好的协同,去调动不同的层面的算力来匹配不同的需求。
A:我觉得至少这三点是有优势的。对于我们来说,采取的产品策略包括四大类:
第一大类是希望通过用户的请求去完成对手机更方便的操控。我们叫做用机助手,其实也是智能手机的智能助理,去完成很好的基础体验。
第二大类是通用问答,类似于Siri去调度GPT-4o,去完成对于线上实时信息还有事实信息的回答。
第三大类是智能创作,方便快捷的内容润色,或者说一些创作类的任务。这个创作不仅包括文字类的创作,也包括一些图像类的创作。
第四大类是类似于传统的智能客服,帮助用户去回答一些过往可能必须通过客服通道或者电话才能完成的任务,我们叫品牌问答。
其实Siri在发布会上讲的很多事情,跟我们前面三件事情很类似。
Q:大家的功能点还是比较集中,你觉得这个背后的原因是什么?
A:背后的原因还是比较简单的,不管是AI技术还是传统软件技术,本质上都在满足用户的需求,实际上需求是不怎么变的。
举个例子,苹果跟我们同时都推通话摘要,这背后的需求实际上是一直没有变的,就是用户希望在打电话的时候,一方面跟对方能够保持很好的沟通,另一方面能够在打电话之后去完成通话里面交代的待办事项,甚至说过一段时间想去回查通话记录的时候,能够有地方可以看到。
这个需求一直是有的,以前没有通话录音和通话摘要的时候,用户可能是拿笔和本子记下来。现在AI能够让这件事情更加丝滑地融入到场景里面去。AI并没有改变用户的需求,只是让用户需求的满足完整度变得更高了。这一次苹果也做了AI消除,就是圈一下能把不想看到的一些物体给消除掉。其实国内的厂商也都做了,在这方面也是非常有竞争优势的。
Q:这些单点的需求都比较雷同的情况下,未来的差异化优势在哪里?
A:我觉得差异化优势就在于,首先,短期就看谁能够先对用户的需求了解得更加透彻,然后能够更加优雅地通过自己的技术手段去满足用户的需求。这就是更快。第二,当大家都想通过某一类技术去完成用户需求的时候,谁能把这个体验做得更加丝滑,还是挺考验专业能力和用户感知能力的。同样一个需求,可能你的入口、使用路径的差异就会导致用户的满意度有天壤之别。
这背后有3大问题需要去解决。我经常会抽象出三大问题:不知道、不会用和不好用。
不知道,就是手机里面已经有很多AI功能,但是有多少用户知道这些功能在哪里?或者知道这个功能能干什么?
不会用,举个例子,如通话摘要,不少用户知道手机里面有这个功能,但是有多少功能用户真的会用这个功能,把它用好?
不好用,或者说体验还不够优秀,这个就是说我们如何通过某种方式,不管是A/B测试或者其他的一些产品设计来确保当用户找到了你、会用你的时候,能够让用户真的用得很爽,用完之后已经回不到以前的使用习惯了。
Q:归根结底对用户来讲真正需要感受到的就是好用,他也许不需要知道这个功能点,但他可能自己就无意识就触发了,对吗?最好的、最优雅的方式是你无意识的触发功能点,让你觉得哇,好好用。
A:对,苹果在人机交互这块一直是行业的标杆。乔布斯发布第一代iPhone的时候,他一直在强调说最好用的工具,不是一支笔,而是你的手指,所以它在全面屏或者触摸多点触控上,让用户很方便快捷基于GUI做很多服务的操控。
基于这个产品策略,不管是小孩,还是老人,他们拿到一个iPhone或者一个iPad都能够很快速使用起来,它真的让用户很丝滑地用起来,不需要特别高的学习成本,而且用完之后真的觉得很好用,之后会不断使用。
Q:你刚提到乔布斯说的手指可能是最好用的工具,它其实也塑造了我们这一代人交互的习惯,每一代人是不太一样的,可能上一代更多的是文字输入,我们这一代是图形,那下一代有可能是语音吗?Siri这次发布的一个数据,现在每人每天只和Siri说不到两句话,可不可以理解2011年苹果发布的Siri是一个过于超前的产品?
A:未必,2011年还挺神奇的。Siri应该是乔布斯在去世之前力推的最后一个产品。我觉得在那个时间点乔布斯更多是一种情怀,他在体验完Siri之后,推产品上线,是因为他觉得在未来很长一段时间里面,人机交互的方式要更加自然,要更加贴近人的自然表达,语音就是其中一种非常自然的交互方式,文字是人类文明的一种知识承载体,但它不是最自然的一种交互方式。
还是挺感谢乔布斯能够在2011年把这个产品推出上线,让更多人至少从理想的维度上对这件事情有期望,然后才使得过去的十几年,各行各业都在往这个方向去探索。
随着大模型的出现,过往基于规则、基于统计模型的技术,能够把全世界的知识压缩到一个大模型里面去,用户可以问任何问题,大模型能够给你更加及时、更加自然的一种回复。
在这个基础上,我相信语音助手这种形态会让越来越多人意识到,原来通过这么自然的方式就可以去完成原先通过其他的一些方式才能解决的问题。
我作为用户,有意识到一些使用习惯的改变,比如说我正在看书,看到一个比较复杂的或者说比较难懂的一个概念词,我就会快速通过语音助手去搜一下这个概念词是什么意思。以前这种方式是不可能解决的。
Siri的出现让以前的服务形式变了。以前我们获取单个服务都要点开单个APP去获取,比如说我要查询一个商品的评价,可能我要点开大众点评,要点开小红书。Siri这次跟大家讲的概念,就类似于穿透搜索,它让很多的内容能够通过一句话串联起来,用户不再需要点开多个APP来回切换,去寻找想要的信息,只需要通过一句话,让大模型把这些复杂的操作给简化。这是体验上一个很大的变化点。
Q:这当中会触发不只是语音模型的东西,对吗?其实涉及到非常多的多模态的模型,能帮我们去拆解一下可能是一个什么样的复杂的任务,能够让Siri的一句指令就完成了。
A:首先,对于多模态来说,不管是OpenAI的GPT-4o,还是Google在Google I/O上发布的Demo,都可以看到,现在的多模态大模型已经具备了结合图片,语音、文字等多模态信息,能够快速理解此时用户想去完成的任务到底是什么。
Siri现在没有正式上线,但是从宣传视频和文字来看,它应该也能够结合用户此时的屏幕的信息、用户请求的意图以及输入的一些文字等等,能够快速理解此时用户想要干什么。它的技术链路涉及比较复杂的工程加算法的链路。
整个过程中涉及到应用的API的调用,涉及到算法的意图理解,涉及到多模态的图像识别,还涉及到端云复杂链路,简单拆解的话,大概是长这个样子,但是它还有很多没有展示出来的能力,这里面还会涉及到更多,包括安全的,包括其他的一些复杂的技术点。
Q:我们接着往下讲一层,这次苹果很清晰地展现了如何用大模型的三层架构。一些简单的需求就在端侧调用自己的小模型,等到有一个比较复杂的需求出现的时候,它可能会云上调用,但是它和一般硬件厂商的端云协同不太一样,它在云上又分了两层。第一层先是到自研的大模型上,同时它提出了一个概念叫做私密云计算(第二层),等这些都无法承载的时候,它才会调用OpenAI的GPT 4-o,而且它调用前会去征求用户的意见。你觉得这样三层的设计背后的意图是什么?
A:其本质上是要解决隐私安全前提下的用户需求满足,就是可信。隐私安全其实是苹果在过去几代产品中不断强化的理念。在这个前提下,端侧的模型,其实多去解决两大类任务。第一大类任务就是简单任务的执行,比如说端侧的一些API的调用等等,它可能通过一个小的大语言模型都可以解决。第二大类任务就是分流,它需要去判断哪一类的请求在端上执行就OK了,哪一类请求需要上云。这很依赖大模型本身的几方面能力,一个是planning的能力,一个是function core的能力。
这些在大模型出来之后大家不断在研究,包括苹果的一些paper也在介绍这方面的技术。与此同时大模型本身实际上是具备了一定的知识能力的,也就意味着苹果其实在自己的云端部署了一个解决很多非实时性的任务的大模型,这个大模型它能回答很多不需要依赖搜索就能解决的问题,以及它还具有能解决一些复杂任务编排的能力。
国内厂商整个方案链路上跟苹果有点类似,只不过苹果这次把端模型和自己的模型抽成两层架构,更清晰,但是产品策略上其实是类似的,就是先有一个分流和指令编排的一个模块,然后再结合自研大模型去做一些有限的任务,比如说品牌问答、智能创作等。与此同时有一些任务,靠自研是无法解决的,比如说需要去搜索增强的一些通用问答等,会考虑直接采用三方比较优质的大模型服务去调度就OK了。
Q:之前有一些传闻,苹果在选择第三方模型的时候,有可能是Google Gemni,这次发布会他们也说未来肯定会引入其他大模型,OpenAI的GPT不是唯一的选项。我很好奇像苹果这样的手机厂商,或者咱们终端厂商,在选择第三方大模型合作的时候,通常考虑哪些因素呢?
A:其实我们还是更多考虑效果问题。因为本质上我们通过大模型还是要去满足用户的,所以我们评价的第一个标准就是回答的效果到底符不符合用户预期,第二个就是服务的效率或者说运维的效率。
Q:拆解一下,你讲的第一点效果它体现在哪些方面呢?回答的准确性还是实时性?
A:第一,一旦用户养成了很多问题都直接问智能助理的话,他对可信度要求是非常高的,如果用户发现你在胡编乱造,或者说在产生幻觉,那可能就不愿意再继续用了。所以可信度是非常重要的。
第二,就是体验,用户获取答案,端到端的延迟,或者说整个的流畅度也是有一定要求的。你不可能推理得很慢,用户问完问题,半天你才回答完。
第三,不仅通过文字可以满足效果,还希望能够通过多模态或者说更多丰富的内容展现来让用户觉得答案更加可信。国内最近发布的几款AI产品,在产品表现上都有一些特点,就是回答问题的时候,会有一些reference,告诉你答案来自哪里,至少从用户感知度上是挺可信的。还有就是在问科普问题的时候,还会给你一个科普视频或者一张图片,去帮助你更好地理解问题。这其实是体验类的效果,我们也会考虑这些能力的补充。
回到刚才说的第二个,就是运维的这一块,因为智能助手或者说服务性产品,其实它会有很多需要去解决的一些干预类的问题。第一就是服务的稳定性、可扩展能力。我举个例子,比如说五一、十一黄金周,用户对于某类请求或者说某种服务的调用量突增,那弹性扩缩容的能力肯定得有。与此同时,对热门话题的响应也要有相应的保障机制、干预机制,所以运营或者运维能力也是非常重要。
Q:你说的这个弹性的能力怎么体现在大模型上面呢?它可能背后需要的是一个云的,还是说大模型本身的一个东西?
A:不用把云和大模型分得那么开。其实大模型在云服务里面它只是一个算法,很多时候只是大模型所需要的计算单元会要求更高,它需要更多的显卡,然后来完成推理计算。这个时候对云基础设施的要求是更高的。
举个例子,当我们一些特殊的时间点需要更多卡的时候,那能不能快速的去保障卡的调度、弹性扩缩容的能力?这其实跟大模型本身关系不大,但是对于整个底层的算力设施要求比较高的。
Q:我想问一个即时性的问题。过去很多硬件厂商在宣传的时候会说端侧的模型能够解决的问题,一个是数据安全的问题,另一个是反应时效的问题。之前你有提到,说端快云慢其实是一个伪命题,或者说它是要有一定的条件下才是端快云慢的,这个能不能展开讲一讲。
A:端快云慢的前提是因为云本身是有一定的传输耗时,再加上服务耗时。这个传输耗时加服务耗时基本上是在百毫秒左右,所以端侧的推理耗时一定是比百毫秒更短的。以前,端侧部署的模型都是参数量比较小的,百兆或者说几十兆,在端上的推理耗时可能都是在几十毫秒。这样的话,端快云慢是一个比较正常的逻辑,但是在大模型出现之后,部署在端上的大模型的参数量基本上都是几B的,在当前算力水平下,推理的耗时还是比较久的。
如果按照每秒或者说每秒多少token来算的话,其实现在端侧的推理token效率是比云端要慢的。加上整个端云的传输和传输耗时,现在大模型推理的效率,其实云端应该是比端侧更快,以前的端快云慢在大模型时代变成端慢云快。那这个时候哪些任务应该放在端上去处理?它解决的核心问题到底是用户隐私还是断网下的使用?延迟的问题就不是首要考虑的因素。
Q:除了像你说断网的,就是希望在断网的情况下也能用的那些功能,或者对于数据隐私有非常强的意识的,大部分其实都可以在云上去做推理,会更优,是这样吗?
A:对,这两类以外的话,其实更多会在云上去跑了。
Q:数据隐私安全,这次苹果也是特别强调了。这一块我一直有个疑问,这是一个真实存在的问题,还是一个更偏观念的问题?就是在端侧可能更安全。
A:其实在苹果的三层架构里面,它强调的并不是说端就安全,它强调的是端侧结合加密算法,结合硬件加密的算法,再结合它的自建云的一些加密算法,使得端上能处理一部分用户隐私相关的场景。与此同时,即使上云的话,云端的硬件加密也能够确保用户的一些隐私数据,能够有保护地去计算。当然,就假设你在端上去处理,然后没有去做相应的加密,也未必是安全的,所以它强调的更多是加密的部分。
Q:其实今天看安不安全,并不是说它是在端上还是云上,而是看看你自己对于安全的这一层做了什么。今天其实在云上也可以做到数据不存储、不落盘。然后也可以接受数据审计,甚至包括现在讲的这个数据不出境的问题,它都是可以在云上实现的。
A:是的,就数据安全这个事,你这个问题本身它是一个理念的问题还是一个技术的问题呢?我觉得两者都有啊。首先对于用户来说,以前有个统计报告说全球的用户对于AI的认知停留在什么样的程度,反倒是国内的用户对AI是更open的,对吧?海外对用户隐私要求更高,更敏感,所以更担忧这个事情。
其实在移动互联网时代,很多数据上云、获得更好体验已经是一个既定事实了,只是说在数据上云前提下,如何确保云端的数据也是安全可控的,这件事情在移动互联网时代已经做了很好的实践,在AI时代,我们要考虑的是有没有更好的方式能够确保用户隐私,不管是端还是云都能奏效,这次Siri强调的是叫personal AI,对吧?因为用户对智能助理天然就有预期,希望是个性化专属的,那势必要会用到一些用户的个性化数据,那如何确保这些个性化的数据是有效的、有度的、可控的,对新的产品来说是有一定的挑战。
Q:苹果说未来合作的对象不止OpenAI一家,可能还会有其他的大模型。之前也有人猜测说Google可能是其中之一,一个理由是说今天苹果如果接入的是Google的大模型,Google甚至愿意倒贴钱完成这个合作。这个背后的逻辑是什么?为什么大模型的厂商会愿意倒贴钱给硬件厂商?
A:这一波大模型,如果把它简化成普遍认知的概念的话,其实很像原先的搜索引擎。就是把网上的信息通过索引建成索引库,然后用户通过请求去获取索引里面对应的候选,其本质上是对网上的信息做了整合,然后再通过用户的请求去完成服务。
大模型很像搜索引擎,就是把网上所有的信息做了整合,只不过是通过模型训练的方式压缩到了大模型里面。然后服务的方式变成了从原先的一个query带出很多搜索候选,变成了一个query带出对应的直接回复,这件事情跟原先搜索引擎的逻辑是非常像的。搜索引擎的商业模式是建立在竞价排名上,很多时候回复的答案是基于用户意图的一些商业策略。
大模型未来发展成什么样,我也不好直接断言,只是觉得可能会有一种趋势,大家也在思考它的商业模式。所以Google或者说其他的一些厂商可能愿意倒贴或者说免费的方式被集成在终端里面,其中一个出发点有点类似于原先的搜索引擎,只要思考清楚背后的商业逻辑,盈利模式未必是靠卖大模型的token、卖大模型的API去完成了,它可能会通过比如说回复内容里面的一些隐形的广告,或者简单地推荐,或者其他的一些服务调度等等。
可能性有很多,但是底层的逻辑,打比方的话就很像搜索引擎,其实苹果当年集成Google搜索引擎,也是这样的合作模式,所以这件事情并不那么稀奇。
Q:这个其实未来也很考验大模型公司的一个价值观和伦理。
A:对,这也是为什么苹果说它不仅会接入OpenAI的大模型,它也会考虑更多其他家的大模型,这背后还是要为用户提供更优质的服务体验,至于背后每家服务的策略是什么?商业模式是什么?那是各家自己要去考虑的问题。
Q:对于苹果的用户来讲,它其实是一个封装好的黑盒子,不需要去了解背后到底是哪些模型在起作用,对吧?
A:至少这次发布会上苹果明确说,如果要请求OpenAI的ChatGPT,它会提示用户确认,短期策略上我看苹果是明确告知用户这个链路的,但是未来是怎么样呢?也可能会变化。
Q:我自己粗略的设想,我在提出一个query的时候,他居然会先问你要不要调用这个模型来完成请求?这个体验上还是会觉得卡了一点,对吧?
A:对,我觉得应该是它的1.0版本,使用路径上可能还在探索,它有可能在确认用户是不是100%愿意继续走下去。我推演一下,假设它弹出来100次,有99次用户都点了确认,对于大部分用户来说这条路径就走通了,对于这一部分用户已经做过选择,未来未必要一直给他提示。对于这一批用户他就不是很care到底背后接的是谁家大模型,用户只想要获取体验。
还有一部分用户,他是隐私敏感性的用户,他一定要确认是不是接入了OpenAI的大模型,那这一类用户可以持续给他弹窗确认。我觉得这是一个迭代的初级环节,后面到底会变成什么样还需要去验证。
Q:那有没有一种可能,苹果的自研大模型越来越强之后,就不用接入第三方了?
A:我觉得未必会走这条路。还是拿搜索引擎来举例。其实搜索引擎发展这么久,苹果似乎也没有自建很强大的搜索引擎。因为搜索本身其实还是要去解决用户搜索背后的意图问题,如果有更好的供应商能够解决,同时在商业模式上又成立,为什么要自建呢?
Q:现在的手机厂商,包括硬件厂商还是会继续在自研的,对吧?这个背后是什么考量?
A:自研大模型跟采用第三方大模型合作,不是一个两极的事情,不是说自研了就不接第三方,或者采用第三方就不搞自研,本质上是策略。一定会存在一部分的服务,它靠自研就能更闭环、更好去满足用户需求。
还是拿搜索来举例,即使大家很多时候在接入巨头的搜索引擎的时候,还是有很多厂商会自己建一个小的搜索团队去满足一些垂域的搜索任务,比如说商品搜索,自己的商品搜索或者一些问答的搜索。对于大模型也是类似,就是有一些任务,你用第三方大模型解决得不好,或者说不是那么灵活的话,自建肯定是一种必然,所以本质上还是要回归到你要解决的用户问题到底是啥?如果你要解决的用户问题是很广泛的,自建解决不好你采用第三方就OK了。但是有一类任务你能解决得比第三方更好,然后体验上来说用户可能更买单,成本上又不是那么高昂,自建也不失为一种好的策略。
Q:所以未来应该是两个会并行,因为它并不冲突。
A:对,它不是一个非左即右的一个对立问题。
Q:你整体跳出来看的话,除了手机之外,下一个智能终端会是什么东西?除了苹果这次的Vision Pro有很多更新,Google也在准备重启Google Glass。
A:至少在短期时间内,手机还是最重要最主流的AI设备,这背后的逻辑是用户的使用习惯非常难改变的,一个新设备的推出,一定是带来了革命性的交互变革,就像乔布斯推出多触点的触摸屏。
还有一个很重要,就是应用生态能够让越来越多的开发团队愿意进来,让用户不用去切换另外一个设备,就能完成很多服务的触达。这件事情的发生需要很多的前提条件。
一个新的硬件一个新的OS的出现,一定是要在天时地利都具备的情况下。所以手机在短期内还是非常重要的,不管是从开发者视角、用户视角,还是从整个商业逻辑来说,还是非常重要的AI设备。
至于下一代AI设备或者下一代智能设备是什么样子?如果有答案的话,很快就实现了。所以这是未知,还在探索,但它应该是有几个决定因素的,就是交互的变革、生态的繁荣,还有用户使用习惯的形成,这三个因素同时具备才能够推进下一个设备的出现。
Q:我觉得总结得非常好,这三个缺一不可,而且需要时间。目前来看可能手机还是离我们最近的AI终端载体。
A:对。有人开玩笑说,手机其实就是脑机的一个器官。现在很多人如果发现没带手机就会很慌,因为它虽然没有通过有线的电线连接到你身体上,但是它其实已经成为你身体的一部分了,这还是挺有意思的一个现象。