苹果赔了2.5亿未兑现的功能,谷歌发布Gemini Intelligence:AI全面接管安卓
2024年WWDC大会,苹果官宣了Apple Intelligence,让Siri会学会跨App操作、理解上下文、主动帮用户干活。
两年过去了,这些能力一个都没交付。
今年年初,苹果承认Siri底层架构(V1版本)撑不住,决定重新研发V2版本。因为迟迟没有兑现AI功能,被消费者以虚假宣传为由集体诉讼,支付2.5亿美元和解。
昨天,谷歌办了场低调的Android Show。线上发布,全程不到一小时。但宣布的事,并不低调。
谷歌正式公布了Gemini Intelligence——不是新的模型,也不是新的App,而是将Gemini装入安卓操作系统。AI从一个你主动打开的工具,变成了替你操作手机的系统能力。

我们正在把安卓从一个操作系统,变成一个智能系统”—Sameer Samat,谷歌安卓生态总裁
◈从操作系统到智能系统,这个跨度很大
这不是营销话术,它描述的是一次架构层的转变。
我们用了这么多年的智能设备,操作系统的底层逻辑一直没怎么变过:
打开App→根据需求切换不同的App→自己操作每一步→完成任务
AI助手出现后,也不过是在这套流程里加了一个问答窗口。
你问,它答,最后执行还得靠自己。
Gemini Intelligence要改变的,正是“执行”这一步。
当AI进入操作系统,能读懂屏幕在显示什么,能在多个App之间自由穿行,把多步骤任务串联起来。逻辑就变成了:
你指定任务→AI执行全程→你只做最后确认
这套更智能、更主动的逻辑不只跑在一台设备。
谷歌官方将Gemini Intelligence定义为一套新功能集合,把Gemini的最强能力带到最先进的Android设备上。
按照谷歌的计划:
“Gemini Intelligence 的功能将分批推出,首先在今年夏天率先应用于最新的三星 Galaxy 和谷歌 Pixel 手机,并于今年晚些时候应用于包括手表、汽车、眼镜和笔记本电脑在内的所有 Android 设备。”
从手机、手表、眼镜等随身物品,到车载系统,再到笔记本电脑,同一套 AI 层,在不同的设备形态上持续运行,跨设备之间的上下文也可以无缝衔接。
◈三个场景,感受一下
◽1.复杂操作,一令直达
Gemini Intelligence 跨 App 操作的机制是:读懂你当前屏幕上的内容,理解你的指令,然后以你的身份在各个 App 里依次完成操作——你不用动手,它替你执行。
谷歌展示了一个很具体的场景:

想象一下,你在酒店大堂等朋友下楼,瞄到旁边架子上一本旅游宣传册——封面那张美丽的风景照片让你心生向往。
以前这种时候你可能会拍下来,想着回去再做攻略,最后却多半不了了之。
这次你可以直接拍下宣传册,对Gemini说一句:“去Expedia上找个类似的行程。”
手机塞回口袋。朋友下来,你们出去吃饭。中途通知栏弹了一下,Gemini 还在 Expedia 里翻。等你吃完打开手机,它已经把找到的那条行程摆在屏幕上了
你看一眼,点确认,全程在后台完成。
有一个关键的设计细节:Gemini只能访问明确授权的App,执行下达的命令,任务完成即停止。
AI替你办事,但决定权在你。
◽2.语音输入,怎么说不重要
语音输入一直有道隐形的门槛:你说话的方式,和你想发出的文字,有时候并不是一回事。
“嗯……那个……然后呀……我觉得吧”——这些无意识说出口的语气词,转成文字后,还得一个个手动删掉,有时还不如自己打字来得快。

这次,谷歌推出的Rambler解决的就是这个问题。
你在说的同时它在听,文字落在屏幕上之前,那些“嗯”“啊”“然后呀”的停顿、语气词和残句,都已经被过滤干净。

走路时忽然冒出一个想法,按住录音键就讲,松手抬眼,屏幕上是一段干净的文字。
会议刚结束,脑子还热着,对着手机噼里啪啦讲完心得,落到笔记里就已是顺溜的句子。
中英文混着说?也行!支持多语言混合输入的Rambler也能轻松应对。
你说得随意,它写得像样。
◽3.界面显示,自己设计
过去,界面显示的选择是有限的,作为普通用户,能改变的只是排列和颜色,开发者给你什么你就只能用什么。
现在,使用谷歌的Create My Widget,用自己的话告诉AI你想要什么。

不论是“每周推荐三个高蛋白餐食食谱”还是“显示今天剩下的三个会议”
它都能为你生成专属的小组件,出现在桌面上,等你使用。
这件事真正的意义不在于“多了一个生成组件的工具”——而是“开发者给所有人做同样的界面”这件事,开始松动了。
◈谷歌,下一步
Gemini Intelligence 真正的战略意图,不在于某个功能多好用,而在于它把 AI 从功能模块,搬到了操作系统这一层。
一旦AI站到系统层,围绕它展开的竞争就不再是功能比拼,而是谁能控制用户的操作入口。
App生态:从“被打开”到“被调用”
当 Gemini 可以代理用户跨 App 完成任务,衡量一个 App 的标准就不再只是“打开频次”,而是能不能被 AI 顺畅调用。
举一个最直白的例子:你说一句“帮我点份炸鸡外卖”,Gemini 自己跳到外卖软件下单。外卖软件从此不再是被你“打开”的App,而是被 Gemini“调用”的接口。
如果没有开放接口、没有适配AI的产品,App就会在用户完全感知不到的情况下被绕过。
PC 赛道:专为AI设计的笔记本电脑
谷歌直接放出大招,正式推出专为Gemini Intelligence设计的Googlebook,让“AI 笔记本电脑”这个词有了具体形状。
最大的变化在交互层。Magic Pointer取代了传统光标,晃动即可激活Gemini。指向邮件里的某个日期,就能自动创建会议;选中几张照片,就能合并可视化。

不是在电脑里加个聊天窗口,而是将AI渗透进每次光标悬停、每个桌面组件、每一次跨设备联动中。
这对微软Copilot+ PC和苹果 Mac 都是明确信号:光喊 AI 不够,得让 AI 真正接管操作逻辑。
虽然谷歌官方描绘的场景足够诱人,但真正落地还要面临这些问题:
Gemini Intelligence 能读屏幕、跨 App 行动,意味着它几乎能看到系统里的一切。隐私安全怎么管? 一个常驻后台、实时感知屏幕的 AI 层,对电池和芯片的压力不小。成本能耗怎么控? 如果主流 App 不开放接口,跨 App 自动化在现实里很难跑起来。生态系统怎么建?
每一道题都是硬骨头,但比这三道题更关键的,是当 AI 真的开始替你办事,你愿意把多少权限交出来?
参考资料:
https://blog.google/products-and-platforms/platforms/android/meet-googlebook/
https://blog.google/products-and-platforms/platforms/android/gemini-intelligence/


