今日苹果公布了即将在第39届神经信息处理系统大会(NeurIPS)展示的研究清单。这场将于圣地亚哥举办的学术盛会详情如下。
苹果将展示七项研究并赞助多个社群联盟
本届NeurIPS大会将于12月2日至7日在圣地亚哥举行,11月30日至12月5日还将在墨西哥城举办卫星活动。
在圣地亚哥主会场,苹果将发布多篇论文,包括今年早些时候引发业界研究者争议的《思考的错觉:通过问题复杂性视角理解推理模型的优势与局限》。
除系列研究报告外,苹果还将赞助”机器学习领域的女性”、”拉丁裔AI研究者”及”酷儿AI联盟”等多个社群组织,这些团体均有苹果员工参与。
苹果的展示内容涵盖机器学习研究的多个方向,包括隐私保护、推理模型的优势局限、生成式AI创新方法等。以下是苹果将在NeurIPS展示的完整研究清单(部分内容我们此前曾报道过):
- 私有KL分布估计的实例最优性
- 随机分配的隐私放大效应
- PREAMBLE:基于块稀疏向量的隐私高效聚合方案
- 思考的错觉:通过问题复杂性视角理解推理模型的优势与局限
- STARFlow:面向高分辨率图像合成的潜在归一化流扩展技术
- LinEAS:基于分布损失的激活导向端到端学习
- 最优数据混合的缩放定律
大会期间苹果还设有展位(#1103),参观者可体验公司多项机器学习项目的实时演示,包括:
- MLX开源阵列框架——专为Apple芯片设计,能在苹果硬件上实现快速灵活的ML与科学计算。该框架针对Apple芯片的统一内存架构优化,可同时调用CPU和GPU。参观者可体验两项MLX演示:
- 搭载M5芯片的iPad Pro运行大型扩散模型生成图像
- MLX与Apple芯片分布式计算:参观者可在四台配备M3 Ultra芯片(每台512GB统一内存)的Mac Studio集群上,通过Xcode运行1万亿参数模型探索文本与代码生成
- FastVLM系列移动端视觉语言模型——基于MLX构建,采用CNN与Transformer混合架构的视觉编码器,专为处理高分辨率图像设计,在精度与速度间实现最佳平衡。参观者可在iPhone 17 Pro Max上体验实时视觉问答演示
了解更多苹果参与NeurIPS的详情,请点击此链接。















