共计 963 个字符,预计需要花费 3 分钟才能阅读完成。
周一,苹果公司公布了其在 Mac、iPhone 和 iPad 上的人工智能总体战略,这一战略包含了许多引人入胜的特性,这些特性被巧妙地重塑在“苹果智能”(Apple Intelligence)这一通用缩写下。ZDNET 的 Sabrina Ortiz 详细报道了这些内容,包括苹果软件如何提升设备体验,以及如何利用 OpenAI 的 ChatGPT。同时,苹果在私有云计算中也进行了关于安全和隐私的重要部署。
然而,一个明显的遗漏是缺乏所谓的“设备上”训练。人工智能模型,如 GPT- 4 和 Gemini 等神经网络的组合,通常在实验室的初始阶段,即训练阶段进行开发。尽管苹果没有透露其使用的生成式 AI 的任何技术细节,但描述表明,iPhone、iPad 和 Mac 上的能力并不包括神经网络的训练,尽管这是苹果已经提供原创研究的领域。
提供的内容似乎只是一种“检索增强生成”,或 RAG,这是一种通过访问数据库来提高推理性能的日益增长。苹果将其称为“语义索引”,该索引了解用户的个人数据。这并非小事:通过设备上的个人数据增强生成式 AI 本身就是一项相当大的成就,它是在边缘而非云端进行的推理。
但这与设备上的训练不同。苹果迄今为止最有趣的研究工作(至少是公开披露的)是在客户端设备本身上进行一些训练。例如,通过向神经网络提供更多关于图像内容的上下文来增强图像分类。在艺术画廊中漫步时,如果你拍了一张画的照片,你的手机可能会回忆起该艺术家与你上个月在博物馆拍摄的某物的联系。
鉴于训练神经网络需要大量的计算能力——超过大多数客户端设备所拥有的——苹果可能通过私有云计算在云中进行一些神经网络的再训练。虽然 ZDNET 在今年早些时候指出,2024 年可能是 AI 在你的智能手机上学习的一年,但周一的活动表明,在设备上进行训练可能还需要几代 iPhone 的时间。
还有另一个明显的遗漏:苹果的公告主要涉及设备上已有的数据,而不是利用设备的传感器,尤其是摄像头,来增强你周围的世界。例如,苹果可以将生成式 AI 应用于摄像头作为 AI 伴侣的使用方式,例如让助手在拍摄多曝光“实时”照片时帮助用户选择最佳帧。
苹果似乎有可能在某个时候实现设备上的训练和将生成式 AI 应用于传感器。这两种方法都符合苹果对硬件和软件的集成控制。尽管目前苹果的 AI 战略还存在一些不足,但其对未来技术的探索和创新精神值得我们期待。