数月前,苹果公司举办了一场为期两天的活动,集中展示了自然语言处理(NLP)领域的最新研究成果。近日,苹果官方发布了活动亮点总结及全部研究论文。以下是详细内容。
2025自然语言与交互系统研讨会于5月15-16日举行,研讨内容聚焦三大NLP核心研究方向:
- 口语交互系统
- 大语言模型训练与对齐
- 语言智能体
来自艾伦人工智能研究所、伦敦帝国理工学院、麻省理工学院、哈佛大学、斯坦福大学、普林斯顿大学等知名机构的学者展示了最新研究成果,部分研究者同时就职于微软、亚马逊、索尼、谷歌、腾讯、Cohere及苹果等企业。
以下是重点演讲内容概览,文末附完整视频与论文列表链接。
1) AI模型坍缩与大语言模型幻觉检测
牛津大学副教授、英国AI安全研究所研究主任Yarin Gal展示了两项研究。第一项关于AI模型坍缩,指出随着大模型生成内容在网络激增,网络数据作为训练源的可持续性将面临挑战。研究表明,虽然合成数据训练可能导致模型认知能力退化,但通过开发AI/人类内容鉴别工具、完善监管机制及深化社会影响研究可缓解此问题。
第二项研究提出创新性幻觉检测方法:通过让模型生成多版本答案并进行语义聚类,量化输出内容的置信度与准确性。该框架可扩展至长对话场景。
2) 长周期交互式LLM智能体的强化学习
苹果机器学习研究员Kevin Chen介绍了其团队开发的LOOP(留一近端策略优化)训练方法。该智能体可执行多步骤任务,例如根据”夏威夷旅行账务笔记自动完成Venmo转账”等复杂指令。研究表明,传统方法因框架依赖易出错,而LOOP通过迭代学习显著降低了错误率与假设偏差。目前模型已在24种场景完成训练,但暂不支持多轮交互。
3) 推测式流处理:无需辅助模型的快速LLM推理
苹果工程总监Irina Belousova展示了推测解码技术:小型模型生成候选答案序列,由大模型验证采纳。相比传统方案,该技术内存占用更低、响应更快、参数量更少,同时简化了推理过程中多模型管理的部署复杂度。这项8分钟演讲包含大量值得关注的技术细节。
点击此处查看苹果精选视频及完整研究列表。