摘要
Apple Intelligence 成功的几率很大,至少不是现在。
如果你有关注十月的手机新品发布会,那你或多或少有听到过「比果更果」、「果味十足」这些词。
这个说法源于 2024 年第四季度,从九月到十一月发布的这批国产旗舰手机所搭载的 AI 大模型功能中,或多或少都涉及到像素级致敬苹果在 iOS 中内嵌的 AI 能力框架——Apple Intelligence 的设计;其中有些实在是与苹果过于相似,因此在相关的体验内容中,类似的评语层出不穷。
但比起你争我赶的模仿者们,反而是苹果在最先介绍了 Apple Intelligence 要发布哪些功能之后,重新回归沉寂——即使目前公开的功能中,其实并没有太多新鲜的内容。这些都直到上周发布的 iOS18.2 Beta 测试版中,AI 才算揭晓帷幕,并在北京时间 10 月 29 日凌晨,正式版 Apple Intelligence 随着新 iMac 一起发布,推送给大多数普通 iPhone 用户。
目前,Apple Intelligence 的中文译名为「Apple 智能」,在中国官网的介绍目前还是「为 Apple 智能预备好」,库克也在近期多次吹风,表示国行版 Apple Intelligence「即将到来」;眼下 Apple Intelligence 相关功能也不支持中文:对中文的支持将在明年正式发布。
Apple Intelligence 设置界面|图片来源:极客公园
Apple Intelligence 上手
之所以说本次更新才是 Apple Intelligence 的正式亮相,是因为其推送的更新,其实全部都是 iPhone16 发布会上已经介绍过的内容,现在才终于将发布会上关于 Apple Intelligence 画的不少饼,端出来给用户。
由于 Apple Intelligence 对设备内存有着更严格的要求,因此目前只有搭载 8GB RAM 的 iPhone 才能使用——这意味着只有 iPhone15 Pro 以及 iPhone 16 全系。
对于 iPhone 16 系列,本次更新最重要的一个「硬件更新」,是原本设计用于相机缩放/光圈等功能控制的侧边按键,现在只需要长按,就可以启动 iOS18.2 新增的「视觉智能」功能。
此前一直只存在于传闻中的「iPhone AI 按键」,此次更新后才算正式落地,虽然 AI 专属按键这个概念也已经不再新鲜。
iPhone 16 的侧边相机控制按键,此时才终于变身「AI 按键」|图片来源:极客公园
在过去一周我的实际使用中,图像识别这部分功能是目前 Apple Intelligence 对于中文用户体验最友好的一部分:即使识别的原文是中文,也能准确的理解其中的内容,并判断出其中的电话、地址、日期时间等元素,搭配系统 App 实现基础的自动化服务:如果是地址可以自动跳转进地图 App,日期/时间可以一键在日历中生成对应事项、电话自动跳转到拨号页面等。
图像识别功能|图片来源:极客公园
在拍摄完成后,你还可以借助集成 ChatGPT 的 Siri 提问,Siri 能够准确的识别出你拍摄的各种中文信息,并且给出诸如「这个展板介绍了什么内容」这样问题的回答。
图像识别通过 ChatGPT 给出的识别内容反馈|图片来源:极客公园
对于类似手机壳这样的商品内容,点击搜索按钮后,会自动抓取电商平台中相关商品的链接,同时起到介绍物品细节以及购买的作用,属于是一步直达了。
自动识别内容并从电商平台抓取相关商品|图片来源:极客公园
按照苹果的介绍,今年十二月,苹果还将围绕图像识别功能,加入多模态能力的整合:例如快速帮用户熟悉地点周围的风景,以及餐厅评分以及当天推荐特色菜品之类的服务。这个能力未来也将开放给第三方 App。
当然,以上的交互回答目前都还是以英文为主——即使 ChatGPT 本身显然是支持中文并且能够直接输出中文内容的,当前的 Apple Intelligence 也不能使用中文来回复。
本次更新还加入了系统级的文本大模型能力,除了之前已经在 iOS18 中已经出现过的通知要点总结,邮箱自动整理邮件紧急排序等功能,在系统自带的备忘录中,现在还加入了 AI 优化相关的选项,除了推荐的几个改写方向,你还能直接提出你的要求,让备忘录帮你自动生成一份文稿。
iOS18.2 备忘录中的写作工具|图片来源:极客公园
当然,这个功能目前也不支持中文:即使它调用的 ChatGPT 处理类似的中文需求时已经非常游刃有余;另外苹果还宣布过这个功能的「完全体」将会在十二月发布,届时能处理包括「帮我将晚会邀请改写为一首藏头诗」、「帮我风格化处理我的简历」之类的复杂需求。
对了,如果你是尊贵的 ChatGPT 付费订阅用户,现在苹果还在设置中提供了一个接口,可以用于登录你自己的 OpenAI 账号,获得更多模型的使用权限;当然免费版用户也能在与 Siri 的对话中调用 ChatGPT 能力。
iOS18.2 中还新增了一个名为 Playground 的 App,其中收纳了 iOS 当前所有关乎于图像生成相关的功能,例如使用 Apple Pencil 进行粗略的手绘草图,并让 Image Wand 将其转换成更精美的图像;Genmoji 顾名思义,就是借助于大模型能力,实现的绘制类似 Emoji 效果的头像,并以 Emoji 的方式来分享。
Playground 图像生成功能|图片来源:Apple
听起来很美好,但目前 playground 需要用户在系统级的 Beta 系统更新之外,单独申请这个 App 的测试权;这种「测试版里内嵌测试版」的套娃体验,在过去的苹果软件服务中并不多见,不少海外用户也吐槽「申请之后 N 天了还没通过」。
不过倒也不用太过着急,苹果官方宣布的消息,Playground 的测试申请会在「未来数周内」逐步通过当前用户的测试申请。
虽然集成了 ChatGPT,但 Siri 本身「弱智」其实改善并不明显:准确来讲集成了 Apple Intelligence 后的 Siri,在请求语言的理解以及上下文的连续对话能力部分,相比此前还是有明显提升的,只是近两年我们过去已经看过众多包括 ChatGPT 高级对话模式这样一次次震惊世界的大模型连续对话体验,如今「升级」过后的 Siri,在综合体验上落后于同类产品。
ChatGPT 高级对话模式|图片来源:极客公园
在对话中,当你提出的问题涉及到调用 ChatGPT 能力时,SIri 会弹出一个确认,当然你也可以在设置中关闭这个确认请求的选项,但这个过程仍然等同于直接将你的问题「抄送给 ChatGPT」。
图片内容识别上,当前的 Siri 训练数据库仍然存在检索能力匮乏的问题:我拿起手机拍我的爱车,并问 Siri「这是什么车」,Siri 也能自动调用 ChatGPT,给出一个对话结果,告诉我「这是一辆蓝色的斯巴鲁 Levorg」。
iOS18.2 图像识别能直接以对话的方式给出结果|图片来源:极客公园
但这其实并不是正确的车型识别结果:同样的问题,即使是问已经发布数年、当时「多模态」这个概念还不被世人所知时发布的 Google Lens 智能识图,都能给出更加准确的关联识别结果:告诉我这其实是一辆力狮而非外观接近的 Levorg。
综合来讲,在概念上并无太多新意的 Apple 智能,比起今年十月发布的、隔壁 vivo 蓝心小 V 以及「像素级致敬 Apple Intelligence」的 OPPO ColorOS15,如今的姗姗来迟的正式版 Apple Intelligence,反而更像是「后来者」。
「体验倒挂」成为了 iOS 与当前其他强调 AI 的智能手机操作系统,甚至是独立 App 之间的对比中的常态。
那苹果在 AI 领域的「首轮竞争」,真的止步于此了吗?
02
保守的背后
有 ChatGPT 珠玉在前,Siri 当前展现出的「低能」,显然并不能简单理解为技术上遇到了难题:甚至在体验上 ChatGPT 本身都能实现的能力,当前的 Apple Intelligence 都不支持。
苹果的「保守」,或许可以被理解为苹果对于新技术一贯的「谨慎」,不仅不急于拓展 AI 能力在智能手机上的边界,还在主动为 AI 设置围栏。
不仅在备忘录中的 AI 改写功能中,对于改写写作风格的调性偏向保守;在用于创建风格化自定义图像的 Playground 中,用户很明显就能察觉到它与其他大厂发布图像生成工具的不同之处:它完全无法像今年爆火的预训练图像生成模型 Lora 那样,用于生成那些和真人几乎无异、让人真假难辨的图像。
Playground 生成 Genmoji 效果|图片来源:Apple
实际上这种谨慎不无道理:即使多模态大模型已经出现几年,但包括内容幻觉、AI 生成内容用于犯罪,都是当下伴随着大模型应用「蒙眼狂奔」伴随而来的问题,近年来 AI 生成的虚假内容充斥网络。
除了内容泛滥,如何保护用户的私有数据,在 AI 时代也成为了一个重要的命题:不少创作者也因为担心自己的素材被拿去训练,在网络上变得谨小慎微;这些现象都说明了当前对于 AI 内容的监管,一直处于严重缺位的状态。
早在 Apple Intelligence 发布之前,苹果就已经着手进行了「围栏」的搭建:今年九月,Apple 邀请隐私和安全研究人员测试苹果宣布的「私有云计算」对于用户数据隐私的保护承诺。同时致力于建立对虚假内容的安全声明机制,向着建立 AI 虚假内容的公共问责机制迈出一步。
在硬件上,为了更好地服务 Apple Intelligence,苹果已经启动了全系硬件产品的升级换代:不仅 iPhone16 内存全系升级至 8GB,在十月正在更新中的新款 Mac 产品线阵容,也终于把牙膏挤爆,内存全系 16GB 起跳,为了支持端侧 Apple Intelligence 模型能力的应用。
新 iMac,全系 16GB 内存起步|图片来源:Apple
在硬件之外,面向开发者的趁手工具也已经在路上:在 iOS18.2 Beta 测试版发布后,苹果随即更新了三个关键 Apple Intelligence 功能的 API:编写工具 API、Genmoji API 和 Image Playground API。
这三个 API 借口,都旨在帮助开发人员将 Apple Intelligence 集成到他们的应用程序中,换言之:随着越来越多这样的 API 接口加入,开发者都能够在所有 Apple 生态的硬件设备上调用端侧模型计算能力,无需额外的服务器成本,加上当前 Apple 生态数以亿计的用户,这无论对于中小开发者还是巨头来讲都是一项极具诱惑力的条件。
由此可见,苹果的第一方应用目前并不谋求短暂的效果取胜,而是通过构建软硬件深度整合、搭建原生 AI 硬件生态平台的方式,为开发者提供一个适合 AI 时代超级 App 生长的土壤。
这些问题,与其说是只有苹果迈出了第一步,不如说这是长期来看,只有诸如苹果、华为这样,有自有生态/硬件以及掌控能力的厂商,才有机会参与的深度竞争;拥有生态的平台级的玩家,与只有「硬件制造商」单一标签的厂商,或许从这场竞争的一开始,就拉开了巨大差距。
AI 时代智能手机竞赛这场「马拉松」中,并不只有一开始就「全力冲刺」这一个选项。
领取专属 10元无门槛券
私享最新 技术干货