随着今日 iOS 26.1、iPadOS 26.1 和 macOS Tahoe 26.1 开发者测试版的发布,苹果开始为采用 Anthropic 的智能体 AI 协议奠定基础。以下是具体内容。
什么是 MCP?
MCP(Model Context Protocol,模型上下文协议)由 Anthropic 于去年 11 月提出,并迅速成为 AI 系统与传统平台之间的行业标准接口。简而言之,它旨在成为 AI 领域的 HTTP 或 SMTP。
Anthropic 这样描述:
随着 AI 助手逐渐普及,行业大力投入模型能力建设,在推理和质量上取得了快速进展。然而,即使是最先进的模型也受限于与数据的隔离——被困在信息孤岛和传统系统之后。每个新数据源都需要定制化实现,导致真正互联的系统难以扩展。
MCP 应对这一挑战。它提供了一个通用、开放的标准,用于连接 AI 系统与数据源,用单一协议取代碎片化的集成方式。其结果是,为 AI 系统提供所需数据的途径更简单、更可靠。
自发布以来,MCP 已被 Zapier、Notion、Google、Figma、OpenAI、Salesforce 等众多公司和平台广泛采用。
这为 AI 助手接入 API 和数据源提供了一条通用路径,使其能够基于用户的请求或提示自主与这些资源交互。
ModelContextProtocol.io 提供了 MCP 可实现的一些示例:
- 智能体可访问您的 Google 日历和 Notion,充当更个性化的 AI 助手。
- Claude Code 可利用 Figma 设计生成完整的 Web 应用。
- 企业聊天机器人可连接组织内的多个数据库,使用户能够通过聊天分析数据。
- AI 模型可在 Blender 上创建 3D 设计,并使用 3D 打印机打印出来。
这与苹果有何关系?
基于今日测试版中的代码,我们可以确认苹果正在为 App Intents 提供 MCP 支持奠定基础。
如果您不熟悉 App Intents,该框架允许应用向系统暴露功能和内容。
苹果表示:
App Intents 框架可将您应用的操作和内容深度集成到跨平台的系统体验中,包括 Siri、聚焦搜索、小组件、控制项等。借助 Apple Intelligence 和 App Intents 的增强功能,Siri 将建议您应用的操作,帮助用户发现应用功能,并获得在应用内及跨应用执行操作的能力。
通过采用 App Intents 框架,您允许用户通过以下方式即时使用应用功能,个性化定制其设备:
- 与 Siri 交互,包括使用 Apple Intelligence 的个人上下文感知和操作能力。
- 聚焦搜索建议和搜索。
- 快捷指令应用中的操作和自动化。
- 通过硬件交互启动应用操作,如操作按钮和 Apple Pencil 的捏合手势。
- 通过专注模式帮助用户减少干扰。
这意味着,根据今日的代码,苹果计划让开发者使用系统级 MCP 集成,将其应用内的操作和功能暴露给 AI 平台和智能体。
实际上,这表示很快您就可以让 ChatGPT、Claude 或其他任何兼容 MCP 的 AI 模型直接与 Mac、iPhone 和 iPad 应用交互,自主在这些应用内执行操作,而无需开发者自行费力地全面实现 MCP 支持。
值得一提的是,今日的代码显示 MCP 支持仍处于早期阶段,因此距离该集成正式发布或甚至公布可能尚需时日。但基于已有内容,前景令人期待,对于准备好迈出这一步的用户和开发者而言,这将是助力智能体 AI 登陆 Mac、iPhone 和 iPad 的重大利好消息。