苹果的 Apple Intelligence,重新定义 AI 交互体验!

在最近的 WWDC 上,苹果发布了很多体系及功用的更新迭代,一并发布的还有智能体系 Apple Intelligence。看了苹果的发布会后,你可能会被各种五花八门的功用迷晕了眼,这篇文章就来帮你归纳和分析下苹果的 AI 体系的显著特征,主要看以下五点:装备及使用的互相联通 从实质智能到举动智能 智能硬件交互更加灵活 开放下层智能 API 接口 采用公有云做隐衷保护一、装备及使用的相互联通 Apple Intelligence 将生成式 AI 模型置于 iPhone、iPhone 15 Pro、配备 M1 芯片的

苹果的 Apple Intelligence,重新定义 AI 交互体验!

在最近的 WWDC 上,苹果发布了很多体系及功用的更新迭代,一并发布的还有智能体系 Apple Intelligence。看了苹果的发布会后,你可能会被各种五花八门的功用迷晕了眼,这篇文章就来帮你归纳和分析下苹果的 AI 体系的显著特征,主要看以下五点:

装备及使用的互相联通
从实质智能到举动智能
智能硬件交互更加灵活
开放下层智能 API 接口
采用公有云做隐衷保护

一、装备及使用的相互联通

Apple Intelligence 将生成式 AI 模型置于 iPhone、iPhone 15 Pro、配备 M1 芯片的 iPad 和 Mac 以及后续机型和硬件装备中,重点体现在:

1. 不同的装备之间相互联通

苹果装备除了下层 iOS 体系保持一致,在表层的交互和展示上也可以丝滑切换。比如你可以直接在 Mac 上控制你的手机,两台装备的信息和数据可以保持实时同频:

2. 不同 App 之间相互协作

几个 App 可以同时完成同一项任务,相互配合协作。比如 Apple Intelligence 可以识别出你照片图库中的人物,在你的朋友过生日时,可以帮助你生成一张朋友的图像,让你的祝福更有趣:

再比如,Apple Intelligence 支持智能回复邮件的操纵,用户可以从邮件列表中看到摘要,快速了解邮件实质,并可以通过 Apple Intelligence 访问体系范围内的任何一款写作工具来创作实质,包括第三方使用程序:

3. Siri 的交互方式实现多模态互通

基于 Apple Intelligence,Siri 对于用户指令的上下文理解力更强,也供应了更多的交互方式。比如当你不想发出声音时,可以打字给 Siri,让它实现定闹钟等功用:

再比如 Siri 可以帮你找到驾驶证件的号码,并直接填写到对应的表格里:

二、从实质智能到举动智能

我们在 PC 上使用的 AIGC 功用,通常是以根据指令生成各种实质为主的“实质智能(Content Intelligence)”,而这次 Apple Intelligence 提出了一个新的智能定义:基于用户交互举动的智能,“举动智能(Action Intelligence)”。

这是因为我们在手机等操纵终端上通过 AI 生成的不仅仅是实质,而是理解一系列的操纵、完成一系列的任务。因此 Apple Intelligence 强调的是人工智能在手机上的行动生成和整合才智,通过对手机里的各个 App 进行全面的跟踪和分析,完成用户的操纵指令。

基于 Apple Intelligence,Siri 可以横跨于多个使用之间执行数百个新操纵,它可以感知你的照片、日历日程和文件等信息,以及消息和电子邮件中的实质,从而预测你接下来要做的事。比如 Siri 可以参考邮件里航班到的时间,告诉你航班什么时候会到达,并参考你在备忘录中写的用餐地址,帮助你计算能否按时到达餐馆:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

再比如 Apple Intelligence 可以按照你的要求帮你做论文的重写、校对、提取文字摘要,协助你写帖子、提炼想法并直接分享给朋友:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

举动智能(Action Intelligence)可以对用户的举动进行分析和判断,在产生更深层次的理解后驱动装备及使用完成任务,这是之前 AIGC 这类“实质智能”所无法比拟的。也会在 AI 交互发展中形成一个巨大的分界点,极大程度上的改变人和机器之间的交互方式。

未来几年里,我们可能会看到大量的具有举动智能的使用及终端装备的出现,我们对于终端装备的依赖会变得更强。这样的终端才是 AI 时代的新智能终端,而不再是现阶段的装了 AI 使用的手机或 PC。

三、智能硬件交互更加灵活

对于硬件装备,苹果也在智能基础上更进一步,让交互变得更加简易、灵活和人性化,比如:

头显 Apple Vision Pro 升级了空间照片,图库里的照片通过机器学习技术从 2D 升级为 3D,沉浸式体验感更强:

Apple Watch 的小组件智能叠放功用可以自动识别当前用户的状态,据此调整在界面中的布局和位置。比如下雨前就会有降水概率组件;出国旅行时就会有翻译组件,用户直接使用听写功用就能翻译实质:

AirPods 接收到来自 Siri 的来电提醒时,用户如果不方便开口说话,只需要轻微地点头或是摇头就能形成“接通”或“挂断”的指令:

Apple tvOS 的 InSight 功用可以实时将电影演员的信息显示出来;可以将正在播放的 BGM 添加到 Apple Music 的列表中;可以在用户开启静音时将字幕立即显示在屏幕上:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

iPhone 上的 Tap to Cash 新功用,用户无需共享任何信息,将两个苹果手机靠近就能进行支付:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

可以看到,苹果将所有的硬件装备都作为打造 AI 生态的切入点,不断优化交互体验细节,探索和扩张 AI 版图领域的边界。

四、开放下层智能 API 接口

开放 Apple Intelligence 的 API 也是苹果这次发布会的亮点之一。这意味着苹果的 AI 才智将变成一种通用的才智支撑,供使用开发者调用和创新。开发者将可以通过 App Intents API 在自己的使用程序中引入 Apple Intelligence,完成产品的智能化升级,接入到苹果的 AI 生态内:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

苹果的这种做法也相当于是对 App Store 的架构进行了升级。现有的 App Store 是两层结构:下层是苹果供应的开放平台;顶层是各个开发者的使用产品。而未来的 App Store 将不仅供应开发平台,还会供应大量的 AI 才智接口,让开发者可以调用各种人工智能的才智,同时也允许第三方的才智进来扩充 AI 功用。

这也就意味着未来的 App Store 将扩展成三层结构:下层依旧是苹果供应的开放平台;中间层是集成一系列第三方的 AI 通用才智;顶层则是各个开发者基于平台和功用开发出的一些列的 AI 使用产品,苹果 AI 生态的丰富性将会大大增加。

五、采用公有云做隐衷保护

未来的智能 AI 终端装备在收集到你全方位的数据后,对你的了解可能会超过你自己。可以想象如果装备把这些数据都上传云端,也就意味着有公司或他人可以无死角的了解你,这是我们任何人都不想看到的结果。

于是苹果在这次也提出了一个 Private Cloud Compute(PCC)公有云计算的技术方案,尽量把数据和计算处理都放在终端装备及公有云上:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

Private Cloud Compute 是专为私人人工智能处理信息而设计的云智能体系,确保用户的个人数据不会被除用户以外的任何人访问,甚至连苹果自己也无法访问。

可以说,这是苹果在云服务领域的重大创新,将装备端的安全和隐衷优势扩展到了云端,为用户供应了一个更安全云平台,同时赋予 Apple Intelligence 更多的可信性和灵活性。

给TA打赏
共{{data.count}}人
人已打赏
应用

完全免费!9个超好用的图片收缩东西

2024-6-17 0:35:47

应用

最强开源模型来了!一文详解 Stable Diffusion 3 Medium 特点及用法(附模型资源包)

2024-6-17 8:39:43

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索