在生成式AI的热潮下,大概是近十年来最受瞩目的一场苹果全球开发者大会(WWDC)来了。
除了例行的系统更新,昨晚发布会的最重头大戏就是AI了。苹果公司CEO蒂姆·库克在一开场便表明,这次会有多项重大的“智能功能”发布——市场对此已经期待了近一年之久。
苹果将自有的AI能力命名为Apple Intelligence,它能基于苹果内置的大语言模型,通过理解自然语言来执行用户的语音或文字指令。
苹果让AI能力几乎覆盖了所有重要的原生应用,包括相机、照片、备忘录、语音备忘录、提醒事项、邮件、Safari、Keynote等等。除此以外,苹果还推出了两款全新应用,分别是书写工具Writing Tools和图片工具Image Playground。
这些应用的能力彼此关联。例如,Writing Tools可以帮助用户重写、校对和总结文本,在几乎任何输入位置都可用,包括邮件、备忘录、Pages文稿和第三方App;Image Playground可以选择动画、插图、手绘三种风格和不同主题来创作图像,生成结果也可以在消息、备忘录等App中使用。
在照片App的“回忆”功能中,用户输入一段自然语言描述就可以完成一段视频创作。同时,搜索照片、修改照片,都变成了一项更智能和精准的操作。
一系列全然不同的功能更新后,语音助手Siri也脱胎换骨了。用户可以对Siri发出语音指令,驱动以上所有工具执行数百种操作。
你几乎什么事情都可以找Siri。比如一张从消息App得到的照片,可以让它帮你添加到某位联系人的资料中;iPad、iPhone、Mac等任何产品有你不知道怎么用的功能,即便你不知道功能的名称,只要描述给Siri,它就会手把手教你使用步骤。
以前几分钟才能完成的手动操作,可以缩短到几秒了。并且,这些指令可以是断断续续的,Siri会跟上你的思路。苹果还指出,基于App定义的Siri快捷指令并不限于原生App,开发者可以通过App Intents的API将其能力接入第三方App。
不仅如此,你也可以直接打字给Siri了,解决了会议等不方便说话场景的问题。
假如你有一场工作会议被临时调整至傍晚,你甚至可以直接问Siri,是否赶得上在这之后女儿的演出。这个看似“没头没尾”的问题,会由Siri从你手机的所有内容中找到答案,例如从消息App中检索到相关度最高的演出时间和地点、地图中公司的定位等,再根据这些信息生成与问题对应的路线和预估时间。
除了让用户理解Apple Intelligence的强大之处,苹果公司更希望用户放心的是,这套AI能力真的很安全。
苹果团队花了很多精力来讲述Apple Intelligence的隐私保护能力。基于苹果自研芯片的强大算力,它有足够的能力在设备端就支撑大部分AI能力。同时,苹果的AI功能只识别数据而不收集数据。
而当端侧模型能力不足以完成任务时,苹果对于云端模型的数据使用也有保护。为了让用户确信自己的数据不会上传云端并被公司利用,苹果特别打造了Private Cloud Compute,这是一套具备芯片级别隐私和安全保护的服务器。
苹果将接入GPT-4o支持下的ChatGPT,用户无需关联账户即可免费使用。具体场景为,当用户的问题超越Siri的能力范围,后者将弹窗请求并得到用户许可之后,寻求ChatGPT更精致完整的答案。
根据演示,两个环节之间是无缝衔接的,苹果表示这是为了省去用户在不同大模型之间切换的繁琐操作。而已经有ChatGPT账户的用户,也可以关联已有账户并使用付费功能。
ChatGPT将在晚些时候登陆最新版本的iOS、iPadOS和MacOS。苹果还透露,除了GPT-4o之外,此后还会陆续接入其他大模型。
不过,visionOS 2的改进幅度不算明显。例如,用户可以通过visionOS 2的机器学习技术,将2D照片直接转化为3D的空间照片;进入主界面的手眼交互姿势得到了简化的改善;接入Mac虚拟界面的功能将拓展至两台4K显示器并排等等。
更让中国用户感兴趣的消息是,库克正式宣布,Apple Vision Pro将于6月28日在中国、日本、新加坡正式发售,并于7月12日登陆澳大利亚、加拿大、法国、德国和英国。
苹果表。