苹果新品 Apple Vision Pro,让我们离想象更近一步
苹果在今日的 WWDC23 上正式发布了旗下首款头显——Apple Vision Pro。 这款头显的售价3499 美元(当前约折合人民币 24851 元),明年年初上市。


外观方面,头显整体看起来酷似一枚滑雪镜,机身的正面是一块玻璃面板,外框为铝合金材质,带螺纹的头带可以更换不同尺寸和款式。



配置方面,头显搭载 M2 芯片+R1 芯片,整机包括 12 个摄像头、5 个传感器和 6 个麦克风 。不仅如此,Vision Pro 采用了 microOLED 屏幕。两块邮票大小的屏幕有 2300 万像素,支持 4K 广色域视频和 HDR 渲染。


续航方面,Vision Pro 可插电全天候使用,同时支持外接电池,续航可达 2 小时。

操作方面,Vision Pro 配备了一个类似于「Apple Watch 表冠」的旋钮,可以在增强现实和全虚拟现实(VR)之间切换。用户无需额外设备,只需通过「眼睛」「双手」「语音」便可完成对设备的操控。该设备采用全新的操作系统,具有三维界面,Vision Pro 中的应用体验不受显示器边界的限制,用户可以将应用放大至任意尺寸,并放置在想要的任何位置。


功能方面,Vision Pro 可以通过「透视视频」功能让用户看到全彩色的真实世界,用户不会因为戴上头显而与周围的人隔绝,头显可以通过一种名为「EyeSight」的系统来显示用户的眼睛。让用户周围的人也可以和正在使用Vision Pro的用户进行正常的眼神交流。这也是 Vision Pro 在设计上的基础原则之一——不让用户与周围的人隔绝。


支持「空间照片」「空间视频」功能, 用它拍的 3D 视频可以直接以 3D 的形式回放,只要按一下左上角的按键就能拍照或者录像即可开始记录。

可以通过空间音频在视频中显示深度。该头显具有影院级视频观看体验,可将屏幕缩放至超出房间的尺寸。


其他方面,Apple Vision Pro 可以与 Mac 进行无线连接,令 Mac 的画面显示在头显中。官方在介绍时放出了运行 Final Cut Pro 的界面,支持任意排列窗口和缩放大小。


在这场发布会中,苹果还公布了一些AI技术,比如在使用Apple Vision Pro进行FaceTime视频通话时,由于没有朝向用户的摄像头,而用户佩戴XR设备,也会让用户看上去非常奇怪。

为此,苹果通过Apple Vision Pro前置镜头扫描人脸信息,基于机器学习技术,系统会使用先进的编码神经网络,为用户生成一个“数字分身”,并动态模仿用户的面部和手部的动作,甚至可以保留数字分身的体积感和深度。使用的简易性和效果甚至超越了目前市面上的一部分数字分身软件。

更智能的输入法
在iOS 17的介绍中则提到了更加智能的输入法,不仅可以纠正拼写错误,甚至还可以纠正用户在输入过程中的语法错误。
自动更正的单词会被临时下划线标记,让用户清晰地知道哪些单词被更改了,并且只需轻触一下即可恢复到原始单词。
更为重要的是,基于设备端的机器学习,输入法还会根据用户每一次的键入自动改进模型。将输入法的自动纠正功能达到了前所未有的准确度。
此外,基于最前沿的单词预测Transformer语言模型,单词联想功能 可以非常快速地输入下一个词,甚至是完整的句子。
而这种极为个性化的语言预测模型,也可以让输入法更加了解用户的语言习惯,也能在用户使用语音,输入的时候大幅提高输入的准确性。

从苹果官方放出的展示来看,Vision Pro的使用场景更像是我们想象中的未来元宇宙的场景,这次Vision Pro的发布也许会像当年Iphone4一样为整个行业带来全新的改变。