
2026年2月26日 —— 谷歌今日正式宣布,其 Android 系统下的 Gemini 人工智能迎来里程碑式升级。最令人瞩目的突破在于,Gemini 已进化为能够执行多步骤任务的“智能体”(AI Agent),率先让 Pixel 10 系列与三星 Galaxy S26 系列用户实现自动打车与订外卖的梦想。
核心亮点:从“对话”到“执行”的跨越
此次更新标志着 Gemini 从单纯的语言交互转向了功能自动化。通过深度整合,Gemini 现在可以接手复杂的日常琐事,其核心能力包括:
多步骤任务自动化: 用户只需下达模糊指令,Gemini 即可自主完成打开 App、选购、确认订单等系列操作。
首批覆盖场景: 目前已支持 网约车(如 Uber)、餐饮外卖及杂货配送 类应用。
首发机型: 该功能目前处于测试阶段,首批支持谷歌自研的 Pixel 10 / 10 Pro 以及三星年度旗舰 Galaxy S26 系列。

安全第一:独立运行与实时监控
为了消除用户对 AI 误操作或隐私泄露的顾虑,谷歌在自动化过程中构建了严密的“防火墙”:
用户主控制: 所有自动化任务必须由用户手动触发,严禁 AI 私自下单。
透明监控: 任务执行期间,用户可以在屏幕上实时查看每一个步骤,并拥有“一键中止”的最高权限。
沙盒环境: 自动化进程在独立的安全空间内运行,仅能访问特定应用,无法触及手机的其他敏感数据。
全方位智能升级:防诈骗与“全屏搜索”
除了自动化功能,本次 Android 更新还带来了两项实用增强:
反诈能力进化: Gemini 诈骗检测功能现已覆盖美国、加拿大及英国。除了实时通话检测,新增了对诈骗短信的智能识别,Galaxy S26 与 Pixel 10 用户将获得更周全的通信保护。
“圈选即搜”Pro 版: 该功能不再局限于搜索单一物体。升级后,它可以识别屏幕上的全部内容。例如,当你看到一张街拍图时,它可以一次性识别出图中所有的服装和配饰,甚至提供相关的背景信息。

市场观察: 随着谷歌将 Gemini 深度植入系统底层,智能手机正加速从“工具”向“私人助理”转型。目前该自动化功能仅在美国和韩国市场率先落地,全球其他地区的上线计划将随着测试完善而逐步开启。
如何用起来
关于 Gemini 自动化功能(即 Gemini Agent 智能体)的具体操作流程,目前主要围绕“规划-确认-执行”三个核心阶段。
由于这项功能目前在 Pixel 10 和 Galaxy S26 上处于测试阶段(主要针对美、韩市场),其标准操作逻辑如下:
1. 触发与指令下达
用户无需再输入复杂的代码,只需使用自然语言下达指令。
示例指令:“Gemini,帮我打一辆去市中心希尔顿酒店的 Uber,要能坐 4 个人的车。”
感知环境:Gemini 会通过“圈选即搜”或系统权限读取当前屏幕信息(如你在看餐厅地址),并自动提取目的地。
2. 自动规划与多步执行
这是 Gemini 区别于传统语音助手的核心。它不再是简单的“打开 App”,而是:
跨应用操作:自动打开 Uber/餐饮 App。
模拟交互:在后台或透明浮窗中模拟点击、输入目的地、选择车型(如 UberXL)或菜品。
智能决策:如果常用餐厅关门,它会根据你的历史喜好推荐备选方案。
3. 安全确认(关键步骤)
为了防止误操作和保护财务安全,谷歌设置了强制性的确认环节:
支付拦截:在涉及付款(点外卖支付、确认打车订单)的最后一步,系统会弹出确认框。
实时监控:执行过程中,屏幕通常会有一个细小的进度指示或浮窗,显示它正在做什么(例如:“正在选择取货时间…”)。
随时接管:用户可以随时通过侧滑或点击屏幕中止任务。
4. 任务完成与反馈
任务完成后,Gemini 会通过语音或通知告知结果:“已经为您订好车,车牌号为 XXX,预计 5 分钟后到达。”
如果你想在实际中使用,有几点技术细节需要注意:
语言限制:目前该自动化 Agent 功能优先支持英语。
账号权限:由于涉及订餐和打车,你的 Google 账号需要预先在对应的第三方 App(如 Uber、DoorDash)中完成登录并绑定支付方式。
独立沙盒:正如新闻中提到的,它是在“安全环境”下运行的,这意味着它只能操作你授权的那几个 App,无法随意翻阅你的相册或私人文档。
