共计 1103 个字符,预计需要花费 3 分钟才能阅读完成。
iPhone 15 Pro 用户即将迎来一项令人兴奋的更新——通过操作按钮获取相机拍摄物品的详细信息。这一功能将在 iOS 18.4 更新中扩展到 iPhone 16 之外。
Apple 的 Visual Intelligence 功能正逐步扩展至 iPhone 16 之外,iPhone 15 Pro 也将获得这一功能,该功能能够通过相机拍摄的物体提供详细信息。
在周三发布的一篇文章中,Daring Fireball 的 John Gruber 表示,Apple 代表告诉他,iPhone 15 Pro(包括 iPhone 15 Pro Max)用户将能在其设备上使用 Visual Intelligence。
该公司尚未透露该功能的具体发布时间,仅指向“未来的软件更新”。但 Gruber 认为,该功能将出现在 iOS 18.4 中,该版本预计很快进入测试版,并计划在四月初正式推出。
Visual Intelligence 是一项基于 AI 的功能,旨在帮助用户识别和了解动物、植物、地标、企业以及通过手机相机查看的各种其他物品。该功能在所有当前的 iPhone 16 型号和即将推出的 iPhone 16e 上均可使用,作为 Apple Intelligence 的一部分,该工具使用起来快速且简单。
只需将手机对准想要调查的物品。在任何 iPhone 16 型号上长按相机控制键,用户既可以对该物品进行 Google 搜索,也可以向 ChatGPT 提出与该物品相关的具体问题。作为回应,AI 会提供用户所请求的详细信息。
唯一的问题是,现有的四款 iPhone 16 型号使用物理相机控制键来触发 Visual Intelligence。而 iPhone 15 Pro 或 iPhone 16e 上并没有这个按钮。但这并不是问题。相反,15 Pro 型号和 16e 的用户将能够通过按下操作按钮来触发 Visual Intelligence。该按钮位于音量控制键上方,是可定制的,因此用户可以将其设置为多种操作。
根据 Gruber 的说法,还有更多功能。Apple 还在控制中心添加了一个按钮,用于启动 Visual Intelligence。这意味着用户只需在屏幕上向下滑动并点击相应的按钮即可激活该功能。该选项将适用于 iPhone 15 Pro 型号,可能也适用于 iPhone 16 系列。
Apple 扩展 Visual Intelligence 的消息令人欢迎。用户经常在 iPhone 16 Pro 上使用该功能,并发现它非常有用。根据扫描的物品,有时获得的信息过于泛泛。但用户可以多次向 ChatGPT 提问,以获取所需的详细信息。
如果 iPhone 15 Pro 的 Visual Intelligence 和控制中心功能计划在 iOS 18.4 中推出,那么 iOS 测试版用户应该很快就有机会试用这些功能。