苹果计划让 iOS 27 成为一次更开放的 AI 更新,允许用户为 Apple Intelligence 的各项功能挑选第三方 AI 服务,比如 Siri、写作工具和 Image Playground。这项改动将让苹果超越目前仅把 ChatGPT 作为备选的做法,让 iPhone、iPad 和 Mac 用户在处理文本、图像和语音任务时,能自己决定使用哪款 AI 模型。
Bloomberg 报道称,在 iOS 27、iPadOS 27 和 macOS 27 的测试版本中,苹果把这个新系统称为“Extensions”。该功能会让已安装的 AI 应用直接接入 Apple Intelligence,当用户在支持的功能里寻求帮助时就能调用它们。
“Extensions 允许你通过 Apple Intelligence 的 Siri、写作工具、Image Playground 等功能,按需访问已安装应用提供的生成式 AI 能力。”测试版软件中显示的这段说明这样写道。
这段描述很重要,因为苹果并非只是多加一个聊天机器人按钮,而是正在构建一个完整的系统,让 Google、Anthropic 等公司的应用只要在 App Store 版本中加入支持,就能直接为 Apple Intelligence 提供服务。简单来说,用户只要装了 Gemini 或 Claude 的 App,就能为某些 Apple Intelligence 任务选择这些模型,而不用只依赖苹果自家系统或 ChatGPT。
这也和之前报道的苹果与 Google 合作相呼应——双方将在 iOS 27 中把基于 Gemini 的模型用于 Siri 和 Apple Intelligence。不过,更广泛的“Extensions”系统让用户有了独立的选择权,可以自行挑选支持的第三方 AI 服务。
苹果还打算让 Siri 的回答更清晰:用户可以为外部 AI 模型设置不同的声音。这样,Siri 用苹果自己的声音回答时是一种音色,而 Claude、Gemini 或其他支持的模型回答时则会切换成另一种声音。
对用户来说,最实际的好处就是掌控感。如果你喜欢用 Claude 写作、用 Gemini 处理搜索式问题、用 ChatGPT 完成日常任务,iOS 27 会让这些选择感觉像是系统原生功能一样顺手。WWDC 将于 6 月 8 日开幕,届时苹果预计会正式发布 iOS 27,并详细介绍这项新的 AI 应用集成方式。

tom
全部评论0