虽然 AI 可能不是今年 WWDC 的重点,但 Apple 将在周一发布几项重要的 Apple Intelligence 公告。这是预期的,因为报道由彭博社的马克·古尔曼。
#1:升级的 Apple Intelligence 模型
Apple 构建了其基础模型的新版本,这些基础模型是支持 Apple Intelligence 功能(如书写工具、Genmoji 和文本摘要)的大型语言模型。
正如 Gurman 之前所指出的:
“具有 30 亿、70 亿、330 亿和 1500 亿个参数的版本现在正在积极使用。这个 1500 亿个参数的模型依赖于 OpenAI 和 Google 等云,比 Apple 的设备端技术强大得多,并且能够进行更细致的推理。
#2:Apple 的基础模型将向开发人员开放
Apple 将首次允许开发人员访问其内部基础模型。这意味着第三方应用程序将能够使用与 Apple Writing Tools 和 Genmoji 相同的技术提供生成摘要、编写建议和提供其他生成工具等功能。
但是,开发人员只能访问设备上的模型。目前,云模型将是禁止访问的。
#3:系统范围的翻译
Translate 应用程序正在大规模扩展。Apple 正在将翻译集成到短信和电话中,并且还一直在努力将其引入 AirPods 的实时对话中。
这有望成为 Apple Intelligence 今年面向消费者的最实用功能之一,它最终可能会使 Apple 在 Google 现有的 Android 工具之后站稳脚跟。
#4:Genmoji 获得表情符号融合
Apple 的 AI 表情符号生成器 Genmoji 正在进行一次有趣的小升级。用户现在将能够组合两个标准表情符号来生成一个全新的表情符号。
#5:由 Apple Intelligence 提供支持的新快捷方式
Shortcuts 应用程序正在获得更智能、更强大的引擎。通过 Apple Intelligence 集成,用户将能够更自然地创建自动化,系统可以理解更多上下文提示并将其转换为实际的快捷方式。
#6:AI 驱动的电池优化模式
Apple 将宣布推出一种基于机器学习的省电模式,旨在实时适应您的使用模式。它可能会在今年晚些时候推出,因为它是为即将推出的 iPhone 17 Air 开发的(据报道,iPhone 17 Air 的电池更小,可能需要它所能获得的所有能源效率帮助)。
#7:Swift Assist 课程更正
去年,Apple 预览了 Swift Assist,这是一款内置于 Xcode 中的 AI 编码助手,可在 Apple 自己的 AI 模型上运行。然而,它从未推出,因为内部测试揭示了幻觉和可靠性问题。
这一次,Apple 正在尝试一些不同的东西:与第三方 LLM 配合使用的 Xcode 新版本,例如 Anthropic 的 Claude。这些模型可以在本地或云端运行,使 Xcode 与其他 LLM 集成的 IDE 相当。
#8:不会来:Siri 大修
鉴于最近的泄密和发展,这并不奇怪,但在今年的主题演讲中不会有 Siri 新闻。经过改进的、由 LLM 提供支持的 Siri,内部昵称为 LLM Siri,至少还需要一年时间。当它发布时,它将支持对应用程序的更深入控制和对个人上下文的访问,但下周不会进行演示。
#9:暂时不来):Gemini 集成
Apple 一直在与谷歌进行谈判,以集成其 Gemini LLM 作为 OpenAI 的 ChatGPT 的替代品,特别是用于 Siri 和写作工具。然而,这种合作关系仍在等待中,可能与美国司法部对谷歌-苹果搜索交易的反垄断裁决的结果有关。因此,尽管 Alphabet 首席执行官桑达尔·皮查伊 (Sundar Pichai) 最近发表了言论,但预计 WWDC 上不会宣布 Gemini。任何揭晓都可能在今年晚些时候公布。
#10:不会来:日历和健康 AI 改造
最初计划在今年进行的两项 Apple Intelligence 工作将不会出现:
Apple 一直在开发一款完全重建的具有 AI 调度功能的日历应用程序,以及之前报道的新 AI 医生风格的健康助手,代号为 Mulberry。由于项目延误,两者都不准备在下周进行演示。现在,这两款产品都针对 27 年的 iOS 27 和 macOS 2026 推出,尽管 Gurman 说,“今年会有较小的变化。