苹果的 Apple Intelligence,重新定义 AI 交互体验!

苹果的 Apple Intelligence,重新定义 AI 交互体验!

在最近的 WWDC 上,苹果发布了很多系统及功能的更新迭代,一并发布的还有智能系统 Apple Intelligence。看了苹果的发布会后,你可能会被各种五花八门的功能迷晕了眼,这篇文章就来帮你归纳和分析下苹果的 AI 系统的显著特征,主要看以下五点:

  1. 设备及应用的互相联通
  2. 从内容智能到行为智能
  3. 智能硬件交互更加灵活
  4. 开放底层智能 API 接口
  5. 采用私有云做隐私保护

一、设备及应用的相互联通

Apple Intelligence 将生成式 AI 模型置于 iPhone、iPhone 15 Pro、配备 M1 芯片的 iPad 和 Mac 以及后续机型和硬件设备中,重点体现在:

1. 不同的设备之间相互联通

苹果设备除了底层 iOS 系统保持一致,在表层的交互和展示上也可以丝滑切换。比如你可以直接在 Mac 上控制你的手机,两台设备的信息和数据可以保持实时同频:

2. 不同 App 之间相互协作

几个 App 可以同时完成同一项任务,相互配合协作。比如 Apple Intelligence 可以识别出你照片图库中的人物,在你的朋友过生日时,可以帮助你生成一张朋友的图像,让你的祝福更有趣:

再比如,Apple Intelligence 支持智能回复邮件的操作,用户可以从邮件列表中看到摘要,快速了解邮件内容,并可以通过 Apple Intelligence 访问系统范围内的任何一款写作工具来创作内容,包括第三方应用程序:

3. Siri 的交互方式实现多模态互通

基于 Apple Intelligence,Siri 对于用户指令的上下文理解力更强,也提供了更多的交互方式。比如当你不想发出声音时,可以打字给 Siri,让它实现定闹钟等功能:

再比如 Siri 可以帮你找到驾驶证件的号码,并直接填写到对应的表格里:

二、从内容智能到行为智能

我们在 PC 上使用的 AIGC 功能,通常是以根据指令生成各种内容为主的“内容智能(Content Intelligence)”,而这次 Apple Intelligence 提出了一个新的智能定义:基于用户交互行为的智能,“行为智能(Action Intelligence)”。

这是因为我们在手机等操作终端上通过 AI 生成的不仅仅是内容,而是理解一系列的操作、完成一系列的任务。因此 Apple Intelligence 强调的是人工智能在手机上的行动生成和整合能力,通过对手机里的各个 App 进行全面的跟踪和分析,完成用户的操作指令。

基于 Apple Intelligence,Siri 可以横跨于多个应用之间执行数百个新操作,它可以感知你的照片、日历日程和文件等信息,以及消息和电子邮件中的内容,从而预测你接下来要做的事。比如 Siri 能够参考邮件里航班到的时间,告诉你航班什么时候会到达,并参考你在备忘录中写的用餐地址,帮助你计算能否按时到达餐馆:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

再比如 Apple Intelligence 能够按照你的要求帮你做论文的重写、校对、提取文字摘要,协助你写帖子、提炼想法并直接分享给朋友:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

行为智能(Action Intelligence)能够对用户的行为进行分析和判断,在产生更深层次的理解后驱动设备及应用完成任务,这是之前 AIGC 这类“内容智能”所无法比拟的。也会在 AI 交互发展中形成一个巨大的分界点,极大程度上的改变人和机器之间的交互方式。

未来几年里,我们可能会看到大量的具有行为智能的应用及终端设备的出现,我们对于终端设备的依赖会变得更强。这样的终端才是 AI 时代的新智能终端,而不再是现阶段的装了 AI 应用的手机或 PC。

三、智能硬件交互更加灵活

对于硬件设备,苹果也在智能基础上更进一步,让交互变得更加简易、灵活和人性化,比如:

头显 Apple Vision Pro 升级了空间照片,图库里的照片通过机器学习技术从 2D 升级为 3D,沉浸式体验感更强:

Apple Watch 的小组件智能叠放功能可以自动识别当前用户的状态,据此调整在界面中的布局和位置。比如下雨前就会有降水概率组件;出国旅行时就会有翻译组件,用户直接使用听写功能就能翻译内容:

AirPods 接收到来自 Siri 的来电提醒时,用户如果不方便开口说话,只需要轻微地点头或是摇头就能形成“接通”或“挂断”的指令:

Apple tvOS 的 InSight 功能可以实时将电影演员的信息显示出来;能够将正在播放的 BGM 添加到 Apple Music 的列表中;能够在用户开启静音时将字幕立即显示在屏幕上:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

iPhone 上的 Tap to Cash 新功能,用户无需共享任何信息,将两个苹果手机靠近就能进行支付:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

可以看到,苹果将所有的硬件设备都作为打造 AI 生态的切入点,不断优化交互体验细节,探索和扩张 AI 版图领域的边界。

四、开放底层智能 API 接口

开放 Apple Intelligence 的 API 也是苹果这次发布会的亮点之一。这意味着苹果的 AI 能力将变成一种通用的能力支撑,供应用开发者调用和创新。开发者将能够通过 App Intents API 在自己的应用程序中引入 Apple Intelligence,完成产品的智能化升级,接入到苹果的 AI 生态内:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

苹果的这种做法也相当于是对 App Store 的架构进行了升级。现有的 App Store 是两层结构:底层是苹果提供的开放平台;顶层是各个开发者的应用产品。而未来的 App Store 将不仅提供开发平台,还会提供大量的 AI 能力接口,让开发者能够调用各种人工智能的能力,同时也允许第三方的能力进来扩充 AI 功能。

这也就意味着未来的 App Store 将扩展成三层结构:底层依旧是苹果提供的开放平台;中间层是集成一系列第三方的 AI 通用能力;顶层则是各个开发者基于平台和功能开发出的一些列的 AI 应用产品,苹果 AI 生态的丰富性将会大大增加。

五、采用私有云做隐私保护

未来的智能 AI 终端设备在收集到你全方位的数据后,对你的了解可能会超过你自己。可以想象如果设备把这些数据都上传云端,也就意味着有公司或他人可以无死角的了解你,这是我们任何人都不想看到的结果。

于是苹果在这次也提出了一个 Private Cloud Compute(PCC)私有云计算的技术方案,尽量把数据和计算处理都放在终端设备及私有云上:

苹果的 Apple Intelligence,重新定义 AI 交互体验!

Private Cloud Compute 是专为私人人工智能处理信息而设计的云智能系统,确保用户的个人数据不会被除用户以外的任何人访问,甚至连苹果自己也无法访问。

可以说,这是苹果在云服务领域的重大创新,将设备端的安全和隐私优势扩展到了云端,为用户提供了一个更安全云平台,同时赋予 Apple Intelligence 更多的可信性和灵活性。

欢迎关注作者微信公众号:「长弓小子」

苹果的 Apple Intelligence,重新定义 AI 交互体验!

文章

一键进阶ComfyUI!懂AI的设计师现在都在用的节点式Stable Diffusion

2024-6-16 0:37:20

文章

4500字深度思考!苹果如何用沉浸来重塑 AI 体验?

2024-6-18 7:20:06

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索