苹果Siri虚拟助手的新功能:AI驱动下的升级与ChatGPT整合

106次阅读
没有评论

共计 1419 个字符,预计需要花费 4 分钟才能阅读完成。

苹果公司最近宣布了几项由人工智能驱动的 Siri 虚拟助手的新功能,这些功能包括更新的设计、改进的语言理解和说话功能,以及与 OpenAI 的 ChatGPT 模型的整合。

其中一些功能是在苹果的 WWDC 2024 年 6 月 10 日活动 上宣布的,由苹果的 Apple Intelligence 团队 提供。这是一种注重隐私的个人智能系统,据苹果公司表示,这个系统能够代表用户控制应用程序的操作。对于 Siri,苹果表示,这些操作包括根据用户要求从用户的电子邮件中获取信息,比如查看用户母亲的航班何时降落,或者定位设备上的驾照图片,并提取其中的信息以便为用户填写表格。

![Image 1: iOS18 中的更新版 Siri](https://duet-cdn.vox-cdn.com/thumbor/0x0:2188×1249/2400×1370/filters:focal(1094×625:1095×626):format(webp)/cdn.vox-cdn.com/uploads/chorus_asset/file/25485594/Siri_updated_look.jpg)
_这是 Siri 新设计的实际效果,带有脉动的彩虹屏幕边框。_

苹果表示,Siri 的更新设计使其在设备上更加突出,当使用时,在屏幕上显示出发光的多彩边框。Siri 在与用户交谈时能更好地理解用户口头表达中的结巴,同时还能保持对话的上下文,实现请求之间的无缝衔接。

用户可以通过语音或文字描述他们希望使用的应用程序或功能来向 Siri 提出请求。此外,用户很快还可以通过双击屏幕底部来输入问题和请求,并可以通过键入或语音命令继续执行这些操作。

![Image 2: iOS18 中即将到来的 Siri 的新整合](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
_在接下来的图片中可以看到 iOS18 中即将到来的 Siri 的新整合。_

苹果表示,Apple Intelligence 使得 Siri 具备“屏幕感知”,可以在屏幕上执行操作并理解屏幕上的内容,例如,当有人通过消息给你发送新的联系方式时,更新联系卡上的地址。而 Siri 对“数百种”应用程序操作的能力将使其能够完全通过语音命令执行复杂的任务,例如,在特定位置或服装中获取朋友的图片,并在用户要求“使它们更出色”时对这些图片进行增强。

关于即将到来的 ChatGPT 整合,苹果表示,Siri 将能够“在适当时候利用 ChatGPT 的专长”,比如在寻求烹饪建议时。如果用户同意,Siri 将向用户询问是否可以利用 ChatGPT 完成请求,并在设备屏幕上直接呈现相关信息。

此次宣布是苹果在几个月的报道和传闻之后,关于其 AI 计划的一部分,包括开发适用于大型语言模型的自有框架。预计 ChatGPT 整合将在今年晚些时候提供,而由 Apple Intelligence 提供支持的 Siri 新功能将在美国的 iOS 18 beta 版本中“今年秋季”上线。

尽管 Siri 在 2011 年的 iPhone 4S 上推出时对口头命令或问题的响应能力令人印象深刻,但它缺乏后续改进使其感觉像是个令人失望的被追加的功能。与此同时,OpenAI 的 ChatGPT 和 Google 的 Gemini 等产品已经证明了 AI 工具和系统的巨大潜力。凭借 Siri 的升级功能以及 ChatGPT 直接整合到服务当中,苹果虚拟助手可能会有了它急需的第二春。

正文完
 0
admin-gah
版权声明:本文于2024-06-11转载自TheVerge,共计1419字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码