在科技飞速前行的 2025 年,AI Agent 毫无争议地站在了时代的聚光灯下,开启了属于它的元年。从 Manus 的一夜爆火,到各大终端厂商纷纷投身端侧 AI 助手的研发与迭代,一场围绕着硅基助手的科技竞赛正激烈上演。相较于传统大语言模型仅局限于聊天的功能,AI Agent 宛如一位神通广大的多面手,只需用户一句自然语言指令,手机便能自动完成诸如点外卖、发红包等以往需繁琐多步点击的任务,极大地重塑了人们与手机交互的模式。
深入探究其实现原理,大部分 AI Agent 之所以能够 “代管” 手机,依托的是安卓系统中一项特殊的无障碍权限。这本是为视障人士量身打造的贴心功能,赋予手机 “看清” 屏幕一切内容的能力,同时能够代替用户完成点击、滑动等操作。如今,却被厂商巧妙借用来实现 AI 功能,成为 AI Agent 跨越 App 间区隔、实现自动化操作的 “秘密武器”。
在手机端侧大模型这片充满机遇的战场,各大巨头纷纷重兵投入。美国苹果公司率先发布端侧大模型 Apple Intelligence,并将新 Siri 定位为手机智能助手,引发行业震动。国产手机厂商也不甘示弱,小米 MiLM、vivo 蓝心大模型、OPPO 安第斯、荣耀魔方等端侧大模型如雨后春笋般相继推出。就连 AI 领域的头部玩家,如 OpenAI 推出基于 GPT 大模型的智能体 Operator,智谱推出手机智能体 AutoGLM,也纷纷试水端侧业务。Counterpoint 预测,到 2027 年全球 AI 手机渗透率约达 40%,出货量有望飙升至 5.22 亿部,巨大的市场潜力吸引着各方势力角逐。
然而,从人操纵手机到 AI 操纵手机的转变并非一帆风顺,其中最核心的难题便是如何打破 App 之间的数据隔离壁垒。安全团队网络尖刀创始人曲子龙指出,为防止数据被随意读取,各类 App 通常设有严密的隔离系统,只有接入对应的 API 才能实现数据调用。于是,学会 “翻墙” 成为 AI Agent 代替人操作的首要任务。当下行业内主要存在两条技术路径:其一为接口模式,手机厂商与应用厂商达成合作协议,签订意图框架并互通接口,以此实现操作;其二为非接口的纯视觉方案,直接调用手机的无障碍权限等系统级权限,绕开第三方 App 的许可即可完成操作。
对于厂商而言,在技术路径的抉择上,需要权衡诸多因素。AI Agent 的实际效果、开发该功能为企业带来的效益、用户数据安全及隐私保护,每一个都是不容忽视的痛点。从安全角度考量,接口方案无疑更为可靠,它避免了直接扫描用户屏幕,最大程度降低了隐私泄露风险。但该方案过度依赖生态,由于各厂商标准不一,App 开发者不得不针对不同手机品牌分别进行适配,开发成本居高不下。反观调用无障碍权限的方案,虽然存在用户操作慢、准确率不高以及隐私安全风险等问题,但其开发速度快、通用性强,不受 App 限制的特点,对于急于抢占市场的厂商而言,具有极大的吸引力。这也导致大部分端侧 AI 工具厂商选择借助无障碍权限这一功能模块来实现 AI Agent 的功能。
但这一选择也带来了诸多隐忧。一旦无障碍权限被开放,用户跨 App 的数据使用便跨过了第三方 App 授权的关键环节。这意味着,在权限开放的背景下,AI 应用近乎 “全知全能”,支付密码、聊天记录等敏感信息面临被读取的风险,甚至应用还可能随意进行点击操作。中国社会科学院法学研究所副研究员唐林垚指出,实践中端侧大模型部署环境下隐私保护存在三大缺陷:知情同意往往流于形式,用户在不甚清楚的情况下便稀里糊涂地授权;多方主体责任划分模糊不清,一旦出现问题难以明确责任归属;用户权利在实际操作中难以真正实现。
今年,行业层面虽已针对无障碍权限与智能体应用的结合推出多项规则,但遗憾的是,这些规则并非强制性约束,企业是否采纳全凭自愿。在现实生活中,由于权限开放带来的安全问题已屡见不鲜。新华社 7 月报道的一起诈骗案件中,诈骗软件正是利用无障碍权限读屏功能,通过 “屏幕共享” 看到受害者手机上的所有操作,包括银行卡账号、密码、验证码等关键信息,甚至能够 “远程控制” 手机完成转账诈骗。此外,部分诈骗分子还利用用户对 AI 功能的需求,诱导用户开放无障碍权限进行行骗。如 2 月 DeepSeek 爆火时,湖州警方就公布了一起仿冒 DeepSeek 官方,诱导用户授予后台运行和使用无障碍服务权限的诈骗案件。
不仅如此,部分 AI 应用在读取屏幕信息时缺乏有效筛选机制,会不加区分地全盘读取。某社交媒体用户在使用 AI 屏幕共享功能辅导孩子写作时,竟发现经 AI 润色的作文中包含自家小区信息,经排查发现是 AI 将群名称中的信息直接引用到作文中。随着 AI Agent 市场规模的不断扩大,市场研究机构 Markets and Market 预测,其规模将从 2024 年的 51 亿美元激增至 2030 年的 471 亿美元,复合年增长率高达 44.8%。与此同时,安全问题已成为 AI Agent 用户无法回避的核心诉求。对外经贸大学、中国人民大学、蚂蚁集团联合发布的报告显示,超半数受访者遭遇过数据隐私和安全问题,60.09% 的受访者担忧 AI 不受控制地收集和处理个人信息。
面对 AI Agent 市场扩张与风险凸显的双重现状,业界与监管侧必须积极行动起来。北京理工大学智能科技法律研究中心王磊研究员认为,事前防范应成为业界关注的重中之重。厂商需强化用户隐私风险防范意识,苹果推出 Apple Intelligence 时,便着重强调隐私保护,并专门开发 “隐私云计算系统”。在服务推向市场前,可先进行小范围测试,确保功能合规、安全。例如,OpenAI 和 Anthropic 的智能体在使用截屏功能时,会限定在浏览器或沙盒环境中,而非贸然大规模推广。
具体到企业层面,必须明确界定实现特定功能所需采集的最小屏幕区域和数据范围,采用动态、精准的数据收集技术,避免过度采集。同时,建立针对屏幕数据采集的专项数据质量管理规范,从采集、传输、存储到处理等各个环节,严格把控数据的完整性、准确性和安全性。毕竟,企业作为 AI Agent 接触外界的首道关口,最了解功能实现的具体过程,理应做好内部自查工作。
在行业规范方面,今年 4 月,中国软件行业协会发布《移动互联网服务可访问性安全要求》,明确规定智能体只有在获得用户明确授权后,方可启用无障碍服务。5 月,中国信通院联合多家企业提出《关于共建终端智能体生态的倡议》,积极开展打通终端智能体与第三方应用、智能硬件其他智能体交互接口等工作。但由于这些规范不具强制性,企业在执行上存在较大弹性空间。
从监管角度来看,AI 产品屏幕共享涉及海量个人信息和潜在商业秘密,监管工作涉及网信、工信、公安、市场监管等多个部门,职能分散易出现监管盲区和重复监管现象。王磊建议,监管侧可采用敏捷性治理思路,发布专项合规指引,及时应对技术迭代带来的新型风险,在保障用户权益与促进创新之间寻求动态平衡。
在 AI Agent 带来便捷的同时,其背后隐藏的隐私与安全风险不容忽视。只有业界与监管侧共同发力,在追求效率的同时筑牢安全防线,才能让 AI Agent 在健康、可持续的轨道上发展,真正为用户创造价值。
发表回复