其实 6 月 11 日凌晨的 WWDC 24 特别活动,看得我特别煎熬。各个群里、社交媒体上都在等着苹果的 AI 王炸。压轴登场时,出乎意料,又在情理之中。周一晚上我精神涣散没来得及细想,第二天清醒之后,才咂摸出味来。
现场演示的功效,其实没有那么重要,但是它的存在形式和所指方向,又非常重要。
这篇稿子写了删,删了写,到现在才挤出来。
是 Apple Intelligence,而非 AI
姑且把这次 WWDC 上苹果所「承诺」的,都视作为画饼。
苹果一直都是谐音梗大户。Artificial Intelligence 是 AI,Apple Intelligence 也是 AI。只是别人谐音梗扣钱,苹果这边都是加钱上谐音梗。
WWDC 24 的整个特别活动的上半场,介绍了 iOS 18、iPadOS 18、watchOS 11、visionOS 2 和 macOS Sequoia 零碎的更新特性,所有和 AI 相关的功效优化,则全部都被合并到属于 Apple Intelligence 的下半场。
如果苹果所画的这个大饼能如期烙成,那么 「AI」—— Apple Intelligence 也算是实至名归。
苹果在 AI 赛道上落后,这回找到一个自己熟悉的排水渠,打算排水渠过弯赢回一局,在我看来这个方向是对的。
接近 1 个小时时长的下半段实质,看起来眼花缭乱,但是其中的「AI」可以大致分为 3 类。
一个是围绕文本实质展开的:
和咱们熟知的很多生成式 AI 类似,Apple Intelligence 同样可以根据不同的需求,生成不同语气、不同类型的文本实质,但是它借助专门的菜单,根据零碎获取的背景信息,更好地生成贴合当前用户需求的实质信息,给出建议。
发布会的视频核心,现场演示了包括邮件、文档、iMassage 等多个不同使用场景下,文本和书写实质生成的效果。
而文生图或者图生图,用过 Midjourney 等工具的同窗,就愈加熟悉了,在某种程度上,苹果并没有显得「特别先进」。
苹果是借助独立运用 Image Playground,来生成动画、插图和素描三种风格的图像,生成的图片也可以自此,运用于第三方 APP 核心。值得一提的是,Image Playground 是在本地独立运行,在很大程度上减少对于效劳器的依赖。本地运行的 AI 效劳一方面降低了隐衷泄漏的风险,另一方面也增强了实质生成的效率。
而在「备忘录」APP 中,用户可以透过 Apple Pencil 调用 Image Playground,将粗略的草图转化为 AI 生成的精美图像,在这个过程中, AI 会抓取笔记核心的上下文信息,让生成的视觉实质愈加贴合当前语境。
此外,Apple Intelligence 所引入的 Genmoji 功效很大程度上也是借用的同类功效,用户可以通过输入文字提示快速生成个性化的 Emoji,用作贴纸和表情分享。相比于固定的 Emoji,Genmoji 生成的表情愈加多样有趣。
但是相比这些相对固定、单一的 AI 运用方式,更为重要的是 Apple Intelligence 的第三种运用策略,也就是指向「个人化智能」的方向, AI 的沉浸式运用。
在「沉浸」的策略之下,AI 隐于其后,成为中间件。
将「人工智能」作为中间件
比如这次 iOS 相册的史诗级更新之后,用户可以轻松借助 Apple Intelligence 修改照片内的视觉信息和实质。那么,终端用户——或者说你——真的关心它是借助 OpenAI 实现的,还是用文心一言搞定的吗?
作为全局助手,Siri 同样得到了史诗级的更新,它成为了 iOS/iPadOS 的通用交互入口。
在苹果官方的新闻稿中,是这么写的:
「在 Apple Intelligence 的支持下,Siri 愈加深入地融入了零碎体会。凭借更丰富的语言理解能力,Siri 愈加自然、更符合语境、愈加个性化,可以简化和加速日常任务。如果用户在单词上犯了错误,它可以跟进,并保持从一个请求到下一个请求的上下文。此外,用户可以输入文字给 Siri,并在文本和语音之间切换,以任何当时感觉合适的方式与 Siri 交流。Siri 还采用了全新的设计,当 Siri 处于活动状态时,优雅的发光灯会环绕屏幕边缘。」
在这个时候,Siri 不再只是一个无聊的问答机器人,因为被赋予更高权限、更高行动能力和可能性的它,正无时无刻不在试图更好理解「我」,成为真正意义上的「Her」,这正是很多人理想中的人工智能。
理解上下文环境:可以参考你屏幕的信息,正在发生的事情
获取深入背景信息:可以跨 APP、跨媒介,来提取愈加深入的信息实质
跨 APP 执行能力:让 Siri 可以借助 APP Intents 、快捷指令,整合执行跨 APP 的操作
融入工作流:无缝嵌入当前工作流程,帮你完成多项工作实质
Apple Intelligence 和 Siri 的整合,在庞大的苹果生态之下(其实谷歌、华为应该也可以),构建起一种有效的、真正效劳于普通人的人工智能效劳——一种 AI 存在感没有那么强的、作为中间件的效劳。
就像你在用 APP 的时候,压根不在意它用的哪种编程语言一样,但是它要帮你达成目标。如果真的实现,相比于 Copilot,Siri 可能更配得上 Copilot 的名字。好的效劳就像好的体会一样,理应是隐形的。
懂得「人」的 AI 只能算得上是「聪明而世故」,只有了解「我」, AI 才能称得上是真正意义上的「个人化智能」。因为「我」要的答案,通常需要适配「我」的需求。
「逃离速度理论」和情绪价值
看完整场 WWDC24,再重新审视到下半场开头库克所说的这 5 个关键词,就开始有了新的意味。
强大,直觉,深度整合,个性化,同时兼顾隐衷。前 4 者确保了体会的优化,而隐衷效劳的提升,则是在 Apple Intelligence 权力变大的情况下,提供了对等了保障。(至少苹果是这么说的)
做 UX 的同窗对于这些词非常熟悉,因为它们就是「以人为中心」设计的核心,并不新鲜,但是要做好并不容易,但是这恰恰过去 50 年中,史诗级数字产品撬动世界的秘密——使用产品的用户,在使用产品的过程中,获得了尊重。这也让我想起一件旧事。
我的朋友总帅,有个「逃离速度理论」。
「某个东西带你逃离当前困境的速度越快,你越容易上头……工作太累了,到家拿起手机打一把游戏就能逃离开一切,这不比开一盒模型更快?」
总帅出了模型坑,选择了逃离更快的手游,作为回避痛苦的镇痛剂。人总会下意识选择最短的路径来环节痛苦,或者逃离困境。而目前的多数 AI 效劳还没法立刻、马上、有效地帮你逃离,至少绝大多数的 AI 工具,还远做不到这一点。
这也是为什么包括 GPT 在内的很多 AI 工具的留存率远不及预期。因为大家发现老办法还挺好用的,至少情绪情感上是这样的。
所以,发现并总结人类这种「不理智」行为,并以此颠覆传统经济学的行为经济学家理查德·泰勒能在 2017 年拿诺贝尔经济学奖。他的颠覆点就在于,它不再以「理性人」作为基础假设,相反人的心理特质、行为特征随时随地都会发生变化,这种非理性的、随机的、多变的、扩散的状态,才是人真实的状态。
而这也贴合过去 10 多年互联网快速发展阶段,底层的驱动力,体会和用户情绪。回想一下,之前我们所沉迷的好产品到底有什么特质?至少,其中有一部分,是开发者/设计师和用户之间的双向奔赴:我用细节、视觉、功效来实现某种体会,挠到你的痒处,会心一笑。
按照现在的说法,就是「情绪价值」。
相比于 SD,ChatGPT 和 MidJourney 已经在体会层面上,做得更棒了,但是我们也都很清楚,好的结果始终是依赖「提示词工程」的,也就是俗称「咒语」的玩意。
当然,为了工作,为了工资,为了甲方,你可以一边骂骂咧咧一边绞尽脑汁地写背景信息、微调「咒语」,重复 20 次生成,或者在 100 条文案里面艰难挑选那个你觉得勉强看的过眼的。
但是归根结底,还是 AI 不懂你,你不得去费劲沟通。在影视剧作核心,这是令人厌烦的「解释性语言」,在现实生活中,这脚「看场合」和「读空气」,在「提示词工程」中,这是必不可少的「背景信息」。
AI 不会,所以你累。
用「沉浸」来拯救「松弛感」
「提示词工程」本身是一个「以 AI 为中心」策略,并不符合「以人为中心」的体会设计原则。
而这也解释了为什么苹果和谷歌,或者说,iOS 和 Android 平台本身如此重要。因为软件、效劳和依托于此的用户数据就是「空气」。
一千个人眼里有一千个哈姆雷特,一个「F*ck」在不同语境中可能有一万个意思。雷佳音曾经在《心花怒放》中将这种差异进行了透彻了演绎,同一个情境之下同一个词,可以有如此丰富的含义和差异。
正如我们自己能感知到的,绝大多数时候,我们很难保持清醒、富有逻辑、又精力充沛。我们不可能在周一傍晚下班的时刻,看着华灯初上闻着晚饭的香气,还在在工位上理智平静清醒思考。行为经济学家卡尼曼在《思考,快与慢》核心,将我们日常思维模式,归结为「零碎1」和「零碎2」,而上面所说的,就是零碎1。
零碎1是我们的快速、直觉和自动化思维方式。它几乎无需努力,可以迅速做出决策,通常基于经验和潜意识。零碎1负责处理简单的、常规的任务,如认出熟人的脸、理解简单的语句或立即反应紧急情况。尽管它效率高、反应快,但零碎1容易受到偏见和直觉误差的影响。
零碎2是我们缓慢、逻辑和有意识的思维方式。它需要更多的努力和注意力,负责复杂的、需要深思熟虑的任务,如解数学题、权衡利弊或做出长期规划。零碎2可以纠正零碎1的错误,但因为需要更多的认知资源,它常常被忽略或在压力下失效。
目前咱们和 AI 交互都得靠「零碎2」,费劲,疲惫。而 Apple Intelligence ,则是想「保2冲1」,稳住「零碎2」的基本盘,借助庞大的平台 APP 体量和庞大的开发者群里以及人工智能,让用户能用「零碎1」和 AI 共存。
如果 Apple Intelligence 真能落地,用户也许可以保持住松弛感。问一个简单的「怎么办」,就能获得答案。Siri 可以在迅速理清现状后给出答案:
「向前走,抬起头,深呼吸,然后对她说我爱你。」
「识别到你在 2 楼男厕第三个坑位,已向最近便利店下单卫生纸,外卖小哥会在 5 分钟内前来搭救你,坚持住!」
「乖,摸摸头,别担心,一切都会好起来的。」
「收拾东西,下班就好了。」
……
苹果给出了另一半答案
WWDC24 特别活动的下半场确实值得仔细看看。
这对于做 UX 和做 AI 的同窗都很重要。我相信周一晚上很多看直播的很多大厂的同窗/独立开发者,应该是等不及结束,就已经开始去苹果的开发者网站上去找文档看看了。抄到了解题思路,接入了平台的效劳,大家就不用反反复复地造轮子了。
大概率 OpenAI 的效劳没法在今年 9 月前,在大陆地区合规地随着 iPhone 16 系列随机附赠,但是文心一言、通义千问们,应该已经和苹果的同窗紧锣密鼓地接洽和谈判了。但是,普通用户,要的是一个结果,而不是存在感过强的某款 AI。
而这可能是 AI 真正意义上,润物细无声地和最普通的用户拥抱的起点。