欢迎光临散文网 会员登陆 & 注册

【折腾测试】GPD Win3折腾测试(中)

2022-04-02 20:26 作者:lwyx2017  | 我要投稿

在上一篇专栏中我已经对GPD Win3这台机器进行了开箱,介绍了输入输出接口,手柄的功能和更换固态硬盘的流程,在这篇专栏中我则介绍一下这台机器的硬件部分,并对一些新技术进行解析等。

由于我很久没有写这类数码折腾类的专栏了,技术方面可能有很大退步,很多东西也是照以前看过的资料和学到的东西依照自己的想法写的,专业知识方面可能存在诸多的疏漏和错误,希望大佬指出,谢谢。

硬件解析部分

BIOS篇

这台机器虽然是一台掌机,但它本质上还是一台电脑,对于一台电脑来说BIOS好不好用,是否方便修改设置以实现自己需要的功能,在我个人看来也是非常重要的因素之一。

Win3这代机器使用的BIOS依然是AMI Aptio BIOS,我们可以使用FPTW64(注意必须要使用新版,之前我给Max用的那个旧版FWTW64是不支持Tiger Lake平台的)来提取和刷写BIOS,还可以使用AMIBCP来修改BIOS的默认设置,例如这版BIOS的默认设置下只会给内存3733的频率,我们就可以将其改成4267,这样在还原默认设置的情况下,内存频率也能保持4267的设置了。

不过折腾BIOS有风险,我对这个机器还不算是很熟悉,目前也暂时没有太多折腾BIOS的必要,就先备份一下原版的BIOS,后面可能用的到。

既然我把BIOS备份出来了,也顺带发出来方便大家吧,这个是提取出来的16M完整BIOS,如果大家在折腾BIOS的时候导致机器变砖,需要使用编程器救砖的时候就用的到了。

GPD Win3 2.29版BIOS下载(附刷写工具FPTW64,FPTW64的使用方法参考我之前给Max刷BIOS的专栏即可):https://pan.baidu.com/s/1EpNA9kIUTZ75BCtpYJm8UA  提取码:gpd3

这个BIOS来源于英文官网,虽然说适用于1195G7的机器,但实际上也是适用于1165G7的机器的,我刷了没啥问题,这版BIOS似乎是解决了BIOS修改内存频率故障的问题,从上面下载下来的是整合好的刷写程序而不是BIOS文件,而我们需要救砖的话还是要BIOS原文件的。

另外Win3这一代的BIOS在默认情况下就将所有的高级选项都开放给了用户,也就意味着我们需要修改BIOS的高级设置的话,就不需要再使用AMIBCP来解锁了,这点我觉得是非常好的,去年玩Max的BIOS默认情况下能设置的东西还是很少,就连Chipset页面都需要自己使用复杂一点的办法解锁,我想装个Win11开启TPM2.0也需要解锁高级选项才能打开,如今Win3就没有折腾这个的必要了,这点我个人要提出表扬。

而且Win3的内存频率也是可以轻松调整了,以前玩Max的时候即使解锁了Chipset页面我就不太清楚该怎么设置内存频率,最终也是刷了现成的内存频率为3733的BIOS才将内存频率给提升上去,而Win3就可以轻松设置内存频率的高低了。

要注意BIOS默认情况下给的内存频率可能是3733,而Tiger Lake-U处理器最大可以支持LPDDR4x 4267的内存频率的,我们可以将内存频率改成4267。

另外这台机器是按触控键盘的FN+Del键进入BIOS的,前面忘记说了,这里补充一下。

然后我再简单讲讲这台机器该这么设置BIOS调整TDP功耗,去年测Max的时候这里我讲的比较随便,也有不太懂的人问过我,所以测Win3的时候我就讲讲吧。

其实调整功耗也非常简单,只要进入BIOS以后选择Setting标签页,在Configuration TDP Boot Mode这里就可以调整功耗了,GPD为这台机器设置了三档的功耗,其中Down是节能模式,Nominal是普通模式,UP是高性能模式。

它们在默认情况下分别可以为机器配置15-20W,20-25W,25W到28W的功耗,功耗设置的越低则机器性能越弱,但续航时间更长,发热更小,功耗设置的越高则反过来,可以使机器的性能更强,但续航时间会缩短,发热量会增大,同样风扇噪音也会变的更大。

关于功耗墙和温度墙对移动端芯片的性能影响的问题,以前我在测Max的时候详细说明过了,对这方面有兴趣的话,也可以看我以前测Max的专栏。

另外这三档的功耗也是可以手动修改的,我们既可以使用AMIBCP来修改BIOS默认设置的功耗,也可以直接在BIOS里手动输入来进行调整,比如我们要为默认模式(也就是Nominal档)将功耗调整到28-35W的话,只需要在Custom Settings UP这里修改Power Limit 1和2的值即可,在PL1这里输入28000,PL2这里输入35000即可。

设置完成后,最终在Exit这里选择保存设置并退出即可,也可以按快捷键F4,机器重新启动后即可运用我们之前设置的TDP,我们可以在AIDA64里查看。

至于BIOS其他高级选项的话大家就自己探索吧,目前我还暂时没有折腾BIOS的打算,最多也只是打算改下默认的内存频率和CPU的TDP设置。

CPU篇

既然是一台性能还不错的Windows掌机,那么它搭载的当然是x86处理器了,这台机器采用的是英特尔第十一代酷睿处理器,到目前有三种不同的配置可选。

它们分别是i5 1135G7,i7 1165G7和i7 1195G7,Win3去年刚发售那会的高配是1165G7版的,低配是1135G7版的,后面又新出了1195G7版的顶配版。

三种配置不同的机器除了CPU不相同和硬盘容量可能会有不同以外,其他硬件配置应该是相同的,使用的也都是同样的模具。

规格方面的话,这三款CPU都是四核心八线程的规格,架构也都是Tiger Lake-U,主要的区别则在于频率的不同,以及核显规格的区别。

关于三种处理器的配置选择建议的话,若以后i5版的价格相较于i7版更为便宜,且对性能要求不算太高的话,也是可以的选择,它与i7的区别是处理器的最大睿频会低一些,核显的执行单元从96个减少到了80个,以及缓存部分会有减少,例如i7的三级缓存有12M,i5的三级缓存则减少到了8M。

而i7 1165G7和1195G7的区别则在于CPU主频和核显的频率,例如1195G7的单核最大睿频可以到5GHz,全核心最大睿频可以到4.6GHz,最大核显频率可以到1400Mhz。

换句话说1195G7相比1165G7来说,CPU单核最大睿频提升0.3GHz,全核心的最大睿频提升0.5GHz,最大核显频率提升了100MHz,要不要多花钱提升这点主频的话,就看自己了。

我个人买i7版的主要也是想要96EU完整规格的核显,以及更大一些的三级缓存,频率方面只要够用也无所谓了。

我这台机器采用的是1165G7的CPU,它的单核睿频可以到4.7GHz,全核心最大睿频可以到4.1Ghz,最大TDP可以配置到28W,最小TDP可以配置到12W,不过这台机器的TDP可以随便调整,英特尔官方给出的TDP也没什么参考性了。

另外1165G7这款CPU的基础频率也是和TDP配置的多少是有关系的,在12W的TDP配置下,它的基础频率为1.2Ghz,15W的TDP配置下基础频率为1.7GHz,28W的TDP配置下基础频率为2.8GHz,最大睿频能否跑到单核4.7或全核4.1的话,也同样和TDP的配置息息相关,若将TDP配置的很低,显然也是跑不到官方给出的最大睿频的。

架构方面的话,这台掌机搭载的Tiger Lake-U处理器,也就是上一代Ice Lake-U的继任者,Tiger Lake的架构从Ice Lake的Sunny Cove升级为了Willow Cove,它所带来的改进我个人则感觉更像是上一代的加强版。

例如它用上了更成熟的工艺,英特尔将这一代所使用的10nm称为10nm SuperFin(其实这个也是英特尔第三代的10纳米了)第一代10nm其实在2018年就已经出现了,它最早被运用到Cannon Lake架构的i3 8121U上,这也让人感到非常疑惑,新工艺为什么不用到高端的i7或者i9上,怎么会用到一颗低端的i3上呢?

原因正是第一代10nm只能算是英特尔的试水之作,那颗i3 8121U尽管使用了更先进的工艺,但它的基础频率仅有2.2GHz,单核最大睿频也只能到3.2GHz,甚至因为良品率问题屏蔽了核显,这样来看英特尔第一代10nm只能让定位低端的产品来做小白鼠,高端却依然还在打磨14nm,这样看第一代10nm可以说是完全不成熟的半成品也不为过。

上一代Ice Lake-U终于用上了良品率高的10nm,也就是英特尔第二代的10nm,但那一代的10纳米还不算是非常成熟,高频特性还是比较差,当时主频最高的i7 1068NG7的单核最大睿频也就只能到4.1GHz,核显频率只能到1.1GHz,也就是1100Mhz,这就导致了那一代尽管CPU的IPC性能与核显都有了很大进步,可是频率上不去的话,还是极大限制了性能。

而这一代的Tiger Lake-U总算用上了良品率更高,且高频性能更好的10nm SuperFin,也就是英特尔第三代的10nm,它最大的改进是用上了SuperMIM电容,改进了FinFET的性能,可以让电荷更快的通过,栅极间距的扩大也使得晶体管可以承受更高的电流,SuperMIM相比上一代电容容量更高,可以使晶体管性能更强,同样它也改进了源极和漏极的晶体结构并降低了电阻,使得电流更容易通过。

这样的改进使得Tiger Lake-U总算是可以冲到更高的频率,例如这一代的1195G7的单核最大睿频可以达到5GHz,核显频率也提升到了1.4Ghz,而且核显在规模如此大的提升下,频率却依然还有提升的空间,这里也可以看出这一代10nm在高频性能方面,相比上一代还是有了很大进步的。

另外这一代10nm的芯片在同样的晶体管数量下,芯片面积相较上一代来说也会略微减小,例如上一代的i7 1065G7的插槽是BGA1526,封装大小是50x25mm,而这一代i7 1165G7的插槽是BGA1449,封装大小也减小到了45.5x25mm,从这个细节我们也可以看出这一代的晶体管密度的确是有提升的,尤其是核显部分的规模增加了这么多,而核心尺寸却没有增大。

除了制程的进步所带来频率提升以外,Willow Cove相比Sunny Cove来说,也略微改进了缓存部分,例如二级缓存的大小从原本的8路512K提升到了20路1.25M,三级缓存虽然从16路减少到了12路,但从以前每个核心最大只分配2M提升至了3M。

当然每个核心分配3M的三级缓存是i7才有的待遇,i5的每个核心只会分配2M,不过相较于上一代i7每个核心只分配2M,i5的每个核心分配1.5M的话,还是有提升的,我个人感觉理论性能方面的话,这代i5 1135G7还是超越了上一代的i7 1065G7的。

一级缓存方面则与上代Ice Lake-U相同,都是每个核心分配80KB,其中32K用于指令,48K用于数据,因此我这颗1165G7的一级缓存为320K,二级缓存为5M,三级缓存为12M。

扩展方面的话,Tiger Lake-U也终于支持了PCIE4.0,这也就意味着Tiger Lake平台可以用上性能更强,速度更快PCIE4.0的Nvme硬盘了,之前我给这台机器换固态也正是因为不想浪费这个高速的M.2插槽。


除了PCIE4.0以外,还有一点是雷电4的支持,之前我提到了这个机器下方的那个Type-C接口是支持雷电4的,我们可以在这台机器的驱动软件Thunderbolt控制中心中查看。

说到这项技术的话,早期支持雷电协议的设备是非常昂贵的,搭载雷电接口的笔记本大多数也只有一线牌子的高端产品才有,原因正是在于曾经的雷电接口的授权费是很高的,而且早期的英特尔老平台想要支持雷电的话,还需要使用雷电控制器来实现,例如JHL7540,JHL7340,JHL6240等,这又进一步增加了成本,不过后期英特尔还是逐渐免除了雷电接口昂贵的授权费用,并将雷电3的规范于2019年发布到了USB-IF上,可用于构成下一代USB标准。

除了将雷电接口的授权费取消,把规范普及以后,英特尔也宣布在CPU中集成雷电控制器,例如上一代Ice Lake-U就集成了雷电3控制器,Max用上了这款CPU,也就成为了GPD掌机中首款支持雷电3接口的机器,Win3这一代使用了Tiger Lake-U,也支持了雷电4,这也意味着只要我们财力雄厚,就可以为这些掌机外接显卡,极大提升这些掌机的游戏和图形性能。

说到外接显卡的话,以前我玩Max的时候就外接过一张RX 290的显卡,当时给那张显卡刷了290X的BIOS,然后放在雷蛇的雷电3显卡坞里给Max用,有外置GPU的支持那台机器在800P的分辨率下也确实可以高特效流畅运行一些3A游戏,我当时试了一下死亡搁浅高特效还是非常流畅的,比起核显来说也确实是两种截然不同的游戏感受了,这两张图是去年发动态留下的,游戏测试的图当时比较懒就没拍。

回归原题,雷电4则可以看作上一代雷电3的小幅改进版,雷电4和雷电3的主要区别在于PCIe链路的最低带宽要求为32Gbit/s,而雷电3的PCIe链路带宽仅有16Gbit/s,这样在连接高速的Nvme硬盘或者外接显卡的话,雷电4相比雷电3来说会有更好的表现。

显示输出方面,雷电4可以支持两台4K显示器或者一台8K显示器来进行画面输出,相较于上一代雷电3只能支持一台4K显示器的话,多屏扩展方面还是有进步的。

还有更重要的一点是安全问题的改进,雷电3有漏洞,这个问题相信大家也是耳有所闻的,造成这种情况的原因就是雷电接口既然可以支持外接显卡和显示器,那么它当然是需要走PCIE通道和支持DisplayPort通信协议的,因此就可能很容易受到DMA(Direct Memory Access)也就是直接内存访问攻击,它允许黑客对计算机进行非常底层的访问,这也就意味着如果雷电接口存在有很严重漏洞的情况下,即便计算机处于锁定或受密码保护的状态,依然还是可能会被黑客入侵并成功访问。

除此之外黑客还可以通过物理附加恶意设备,直接且不受阻碍地访问系统内存和其他设备,这样的操作几乎可以绕过操作系统的所有安全措施,从而允许攻击者读取和写入系统内存,获取加密的密钥或者安装恶意软件。

而雷电4是基于英特尔VT-d的直接内存访问的保护的,就可以起到防止物理DMA攻击的作用,安全性相比雷电3来说就有提升。

CPU核显篇

说完Tiger Lake的CPU带来的新技术以后,我们就要来说核显了,以往的Win掌机没有发展起来的还有一个原因也正是x86芯片的核显性能较弱,很难满足高端游戏的需求。

而英特尔现在的核显的确是有了非常大的进步,从曾经追赶友商AMD的核显连车尾灯都看不到的状态,到现在Gen12的Xe核显能与Vega8扳手腕,在720P的低分辨率下可以运行一些优化比较好的3A大作,甚至之前我测试了一下在4K分辨率下玩红警3也能开高画质了,尽管还是不能做到特效全开,但跑个关闭抗锯齿的4K高画质(不是最高)应该没有问题。

不过我在夸英特尔现在的新核显有如此大的进步的同时,也还是想批评英特尔前几年的核显还是挤了非常久的牙膏,事实上前几代除了CPU的架构是Skylake一路小修小补过来的以外,核显部分也同样是如此。

从六代Skylake架构开始,英特尔就将自己的核显架构更新到了Gen9,图形API方面相比Broadwell架构的Gen8来说还是有进步的,例如Gen8只能支持DX11.1,而Gen9架构则支持了DX12.1,也支持了DX12.1所需的那几个强制功能,例如像Resource Binding(资源绑定),Tiled Resources(资源平铺),Typed UAV loads(类型化无序访问视图读取,这个的全称应该是Typed Unordered Access View Loads,做为术语我也不知道这样翻译对不对),Conservative Rasterization(保守光栅化),Rasterizer Ordered Views(光栅顺序视图),资源虚拟寻址也从Gen8的31位提升至了38位。

七代KabyLake则将核显架构更新至了Gen9.5,视频编解码方面相比Gen9增加了VP9,还有8bit和10bit的HEVC的支持,也支持了HDCP 2.2(高带宽数字内容保护),不过图形API的支持上就没有什么变化了。

从Gen9.5这一代开始,英特尔也同样开始在核显上挤牙膏了,自从Kaby Lake的核显用上了这个架构以后,后面几代我们熟知的Kaby Lake Refresh、Coffee Lake、Coffee Lake Refresh、Whiskey Lake、Amber Lake、Comet Lake采用的核显,都同样是基于Gen9.5架构的,规格方面我们也能看出,那几代核显(比如615,620和630)都是祖传的3个光栅单元,24个纹理单元和192个流处理器,这样的规格我们也可以说是非常熟悉了,你说那几代核显功能上没有任何改进也就算了,性能上也没什么进步的话,这不完全就是挤牙膏吗?

目前英特尔核显的最新驱动还能支持到六代酷睿的核显,原因正是那几代核显的架构并没有太大差别,Gen9这个架构的核显也和同代的Skylake架构一样,一起被打磨了很多年。

直到移动端Ice Lake才换用了Gen11架构,桌面端的Rocket Lake换用了Gen12.1的架构,Gen9.5这个旧架构还是用了好几代,从2016年一直用到了2020年,从七代酷睿一直用到了十代酷睿的桌面端,这样看那几年的英特尔果然还是吃了多年老本啊,所以那几代基于旧架构打磨的产品,几乎没有激起我个人的任何购买欲望。

但是从Gen9.5到Gen11的提升我个人感觉还是很可观的,在Ice Lake GT2那一代开始,英特尔就将Gen11架构的执行单元的数量从Gen9.5的最大48个(不过其实48个的很少见,大多数还是24个),增加到了最大64个,Gen11架构每个执行单元支持8个线程,这使得它最大具有512个并发通道,同样为这些执行单元配备了3M的三级缓存,相比Gen9.5仅配备了768K来说,也有了四倍的三级缓存容量的提升。

而这款掌机使用的1165G7处理器的搭载的是Iris Xe G7 96EU的核显,核心代号为Tiger Lake GT2,它的架构升级到了Generation 12.1,也可以看作是上一代Ice Lake GT2的Generation 11.0的小幅改进,更多是规模上的堆砌。

例如Tiger Lake GT2的执行单元从上一代的Ice Lake GT2最大64个增加到了96个,光栅单元从上一代的8个提升至24个,纹理单元也从上一代的32个提升至48个。

更重要的是频率的提升,由于用上了更成熟的10nm,最大核显频率也从上一代的1100MHz提升至了1400MHz,当然1400MHz是i7 1195G7配备的核显,1165G7和1135G7配备的核显频率只有1300MHz。

除了规模上的堆砌以外,Tiger Lake GT2的执行单元相比上一代也有变化,上代Ice Lake GT2的一个执行单元中有8个算术逻辑单元,其中4个用于浮点和整数,4个用于扩展,这代的一个执行单元中有10个算术逻辑单元,其中8个用于浮点和整数,2个用于扩展。

缓存方面也同样有略微改进,Gen12核显与上一代Gen11相比三级缓存大小又增加了1.25倍,上一代Ice Lake GT2的三级缓存为3M,这一代Tiger Lake GT2的三级缓存为3.75M。

另外这一代英特尔也改变了对核显的分级,虽然和上一代一样后缀G后面的数字越大,代表核显性能越强,但是这一代会根据CPU的定位来配备不同规格的核显,例如i7是配备96EU的核显,i5配备80EU的核显,i3配备48EU的核显,不像上一代的i5既可以配备G7的高端核显,也可以配备G4或者G1的中低端核显,换句话来说11代只要你选择的CPU是高端的,那么就不用担心像上一代那样买到G1那种残次品的核显,例如i5配备的核显都是80EU的,不过你想要高端96EU的核显就得选择i7了,不像上一代买i5只要选择G7后缀的,核显和i7就没太大差别。

图形API方面,Tiger Lake GT2核显依然还是没能完整支持DX12旗舰版,其中DX12 Ultimate所要求的光线追踪,网格着色器这两个强制功能还是没有支持,听说intel后面出的ARC独显有可能会支持DX12.2,也不知道消息是否属实,等出了具体的产品后再观望吧。

可变速率着色VRS的话,这一代Xe核显依然还是只能支持到第一级,第一级的VRS只能对单个图形指定特定的着色率,着色率会均匀的应用于绘制的对象,而与它位于渲染目标内的位置无关,这样在某些情况下还是很容易让人察觉到画质的下降。

DX12.2则要求GPU支持第二级的VRS,而第二级的VRS又需要GPU支持16x16或更小的屏幕空间平铺大小,也就是Screen Space Tiling,这代Xe核显还是没有支持。

至于Additional Shading Rates这个功能的话,在上一代就已经支持了,它在程序中是一个布尔类型,用于指示GPU是否支持使用2x4,4x2和4x4这些粗略的像素大小进行单一采样渲染,以及2x的MSAA是否支持2x4的粗略像素大小。

虽然这代Xe核显没有完整支持DX12 Ultimate,但是相比上一代又支持了采样器反馈,采样器反馈简单来说是一项Direct3D的功能,它用于捕获和记录纹理采样信息和位置,也是GPU支持DX12 Ultimate中所需的强制功能之一。

采样器反馈其中两个重要的功能是采样器反馈流和纹理空间渲染,其中纹理空间渲染可以将动态的着色值存储在纹理空间内,利用那些可以重复使用的着色值,就可以减少不必要的重新着色,通过丢弃像素着色器中重复率较高的像素,也可以提高性能并降低显存的占用,这个我以前在介绍NV图灵显卡带来这项技术的时候也提到过。

目前采样器反馈有两个等级,也就是Tier 0.9和Tier 1这两个级别,就像VRS拥有第一级和第二级,光线追踪DXR有1.0和1.1两个级别一个道理,GPU支持这项功能的级别越高,就可以实现更多的新功能和新特性。

例如在C++代码中,D3D12_SAMPLER_FEEDBACK_TIER_NOT_SUPPORTED表示GPU不支持采样器反馈,这样尝试调用采样器反馈相关的API的话,会出现错误。

TIER_0_9表示网格和放大着色器支持到0.9级,TIER_1_0表示可以支持到1.0级,其中第0.9级会有部分特性不支持,而1.0级的所有纹理寻址模式都支持采样器反馈,并且无论传入的着色器资源视图如何,都支持写入反馈方法。

硬件方面NVIDIA的图灵和安培,英特尔的Gen12架构可以支持到第0.9级,AMD的RDNA2支持第1级的采样器反馈。

也就是采样器反馈NV那边从2018年发布的图灵架构开始就支持了,英特尔直到Gen12架构才支持这项技术,它们支持的均是第0.9级,AMD则走的更远一点,从RDNA架构的不支持,到RDNA2架构支持到了第1级,考虑到AMD与微软合作开发的Xbox Series X的GPU就是RDNA2架构,那代主机使用的也是DirectX12 Ultimate的图形API,因此这项技术比友商超前一点点也没什么大不了的。

除了采样器反馈的支持以外,View Instancing,也就是DX12的视图实例化,这代Xe核显支持到了第二级,这项技术虽然不是GPU支持DX12.2所需的强制功能,但也是一个可选功能,简单来说是优化了DrawCall(绘制调用)的性能,也就是优化了CPU在调用图形API的时候,命令GPU进行渲染的操作。

我们知道CPU和GPU是并行操作的,它们之间存在一个命令缓冲区,当CPU需要GPU来渲染一个对象的时候,就需要向命令缓冲区发送命令,当GPU开始渲染的时候,就会从命令队列中取出对应的命令执行。

换句话来说GPU可见的内存一般分为两部分,一种是专用视频内存,一种是共享内存,GPU执行的程序以及相关参数一般放在共享内存里面,因为这些是需要CPU不断更新的,CPU有时候同样也需要访问专用视频内存,也就是显卡的显存,来读取GPU计算的结果,这两部分空间我们也可以理解为它们之间的命令缓冲区。

说到这里再说个和View Instancing不太相关,但和CPU对GPU显存访问相关的题外话,过去CPU只能读取到GPU的部分显存容量,而像Resizable Bar那项技术的出现,则是可以让CPU读取到GPU的所有显存容量,因此那项技术在有些优化好的游戏中就可以提升性能。

而通常情况下,DrawCall的命令会多次往返于CPU和GPU的命令缓冲区,这样在绘制大量对象和比较复杂的场景下,自然就会出现性能瓶颈,而View Instancing允许在一次过程中复制多个视图的几何图形,通过将以相同方式处理几何图形的多个过程和实例转换为一个过程,就可以避免冗余的CPU和GPU工作,并减轻它们的负载。

目前View Instancing也分为三个等级,第一级仅在绘制调用级别循环的时候,支持部分的视图实例化功能,第二级除了支持第一级的功能以外,还可以让GPU在依赖于体系结构的特定情况下,更有效的执行视图实例化,第三级则可以完整支持所有视图实例化功能。

硬件方面NVIDIA的图灵支持第三级,Intel Gen12架构支持第二级,AMD虽然最早在GCN架构就支持第一级了,但目前最新的RNDA2架构依然还是只能支持到第一级。

硬核的东西就到此为止吧,这些与我们普通用户没有什么关系,那就说点有关系的吧,这代Xe核显在视频编解码方面支持了12bit的HEVC(4:2:2和4:4:4),12bit的VP9(4:4:4)和8K AV1的10bit(4:2:0)的硬件解码。

显示输出方面,这代Xe核显可以支持8K分辨率的输出了,最大支持单个8K 12bit HDR显示器或者两个4K 10bit HDR显示器,相比上一代最大只支持5K分辨率输出还是有进步的,我前面也测试过接单个4K 10bit HDR显示器是没有问题的,不过8K的显示器现在我就玩不起了,那个4K的便携屏也是一个比较一般的屏,只是支持8抖10而已,HDR效果也不算是很好。

说完了这代核显支持的那些新技术以后,再来说说理论性能吧,i7 1165G7的核显基础频率为400MHz,最大睿频1300MHz,显存方面则使用系统内存做为显存,规格由厂商还有BIOS的设置决定,我这台机器为这个核显设置了128M的专用视频内存,显存频率为2000MHz。

它的执行单元为96个,英特尔核显的一个执行单元等效A卡或者N卡的8个流处理器,那么它则拥有768个流处理器,它的光栅单元为24个,纹理单元为48个,GPU-Z这里还是没有正确识别出来。

这样来看理论上它的峰值像素填充率为31.2GPixel/s,峰值纹理填充率为62.4GTexel/s,峰值显存带宽为64GB/s。

像素填充率指的是GPU在每秒内所能渲染的像素数量,纹理填充率就是指GPU在每秒内能处理的纹理贴图的数量,显存带宽则与内存带宽的定义类似,即显存在每秒内所能够传输数据的大小,也就是GPU核心与显存之间交换数据的速度。

图形API与计算方面的话,DirectX它可以完整支持DX12 feature level 12_1,OpenGL它可以支持OpenGL4.6,Vulkan支持Vulkan1.2,开放运算语言OpenCL可以支持OpenCL3.0。

那么关于CPU和核显的解析就到此为止,我们也能看出无论从CPU还是核显方面来看,Tiger Lake也算是富二代继承家业了,那它究竟会带来怎样的性能呢,后面我会进行测试。

内存篇

这台机器使用的内存是LPDDR4X内存,也就是焊在主板上不可拆卸的板载内存,位宽为128位,最大频率为4267MHz,在4267MHz频率下的时序为CL36-39-39-90,这个时序我个人感觉还是非常高了。

我这台机器采用的内存是来自海力士的颗粒,由8颗2G的内存颗粒组成,单个颗粒的位宽应该是16bit,听说部分机器也有三星的,前面换硬盘的时候把硬盘拆下的时候,也可以看到内存颗粒是哪家的,不过当时我比较懒就没拍照。

性能方面的话,在4267的内存频率下,理论上它峰值可以带来4267*128/8000=68.272GB/s的内存带宽,实际跑分我之前测试下来也差不多63G/s,考虑到时序比较高,与理论值有一定差距也没啥问题,但是与官方这里宣传86G/s的带宽是严重不符的,我怀疑是8和6打反了。

由于这篇专栏里主要是做这台机器的硬件解析,性能测试就留给下一篇专栏吧,关于AIDA64的内存和缓存测试,我会在下一篇专栏里发。

至于存储方面的话,更换Nvme硬盘的流程和更换了三星PM9A1 512G的测试,已经在上一篇专栏说过了,这篇就不再展开了。

屏幕篇

对于一台电子设备来说,它的屏幕素质也是非常重要的,屏幕素质的好坏将直接影响体验,那么Win3这台机器的屏幕素质究竟如何呢?

首先说下简单的参数,这个屏幕的尺寸大小为5.5英寸,最大分辨率为1280x720,支持8bit的位深度,像素密度为268PPI,支持5点触控。

不过它的原生分辨率还是一块竖屏,也就是720x1280的分辨率,支持以下的视频模式,这也就意味着某些游戏可能需要设置窗口化,或者无边框窗口化才能正常游玩,全屏在低于720P的分辨率下的话,可能还是会出现显示不正常,或者游戏报错的情况。

AIDA64也并没有读出这块屏幕相关的太多信息,读出来的东西好多也是错的,例如制造日期,毕竟它本质上也是需要读取显示器的EDID信息来识别这些参数的。

这个不太专业的色域检测工具检测出了这块屏幕接近70%NTSC,100%的sRGB色域,不过这个工具计算色域的方法,也是需要读取显示器EDID中的数据信息来计算的,因此结果可能会不准确。

那就让我来测试这块屏幕的素质吧,上回写Max的专栏关于色域和色准方面的问题,我确实是云来的,没有使用比较专业的设备测试过,而这次我来个专业一点的测试吧。

之前我租借了红蜘蛛X校色仪,除了拿来检测这台机器的屏幕素质和校色以外,也顺带给笔记本和另外那块便携屏校色。

本来校色仪我也想买一个的,但现如今在外打工没那么多闲钱,买这台机器已经是大出血了,也是花了我好几个月省吃俭用攒下来的薪水才买下的。

当然只是测试这台机器的屏幕素质的话,我显然也没必要花这个钱,所以我主要的目的并不只是测试这块屏幕的素质,而还是要给这个屏幕校色

这里大家可能会感到疑惑,这就只是台当玩具玩的东西,既不用它来修图,又不用它来剪视频或者调色,为什么还要进行校色呢?

原因是这台机器我上手以后就感觉这台机器的屏幕色温偏高,也就是我们俗称的冷色温和大蓝屏,而我个人比较习惯暖色的屏幕,这台机器玩久了眼睛就感觉比较疲劳。尽管我们也可以在系统设置中开启夜间模式,或者使用英特尔显卡控制中心里调整,但这样调整出来的效果最多也只是我们自己的肉眼看着舒服,实际的色彩准确度还是会比较糟糕。

而且之前我也看过关于这台机器屏幕相关的测试的确是色温偏高,在非常高的色温下,屏幕也自然会造成非常严重的色彩偏差,所以就还是打算用校色仪来调整一下。

由于我也是第一次给屏幕校色和做详细测试,可以说是完全没有经验,操作方面也不太专业,有什么问题的话请专业人士指出,谢谢。

在测试前要将屏幕清洁干净,关闭夜间模式,在Intel显卡控制中心中还原默认的颜色格式,并禁用显示器节能,把屏幕亮度调到最高,预热半个小时以上。

由于我在这方面还是新手,还不太会使用Display CAL,这个校色仪也是租来的,所以我就使用红蜘蛛X官方的软件Spyder X Elite来进行测试和校色了。

不过这个校色仪我其实也就只用了半天,给我两台显示器和这个掌机校完色以后就还掉了,感觉有点小亏,也不知道自己使用方法是否正确,至于使用Display CAL校色的话,后面我有钱买校色仪以后再慢慢学吧。

首先是不进行校色,在默认情况下测试这块屏幕的情况,由于这方面目前我也不是很懂,就测试一下色域,亮度与对比度,屏幕均匀性和色彩精确度的测试。

亮度方面,在给屏幕设置100%亮度的时候,它的峰值亮度还是有400nit以上的,符合官方的宣传,不过我个人测出来的值仅供参考。

我说我测试的可能不准确的原因是这个机器的屏幕比较小,放置校色仪还是不太方便(测试的区域比较小,校色仪的镜头就不好对准),上面测试不同区域亮度的时候,屏幕右边的偏差比较大,可能就是我没有放好的原因,至于在校色仪上打码是因为这个是租来的,上面写着配套软件的激活码,不能随便泄露。

亮度、对比度和色彩亮度的均匀性,也是我在不太专业的情况下测试的,测试结果仅供参考。

色域方面的话,这块屏幕的色域还行,sRGB的覆盖率为90%,AdobeRGB和DCI-P3的色域均为68%,NTSC色域为64%,在我个人看来虽然也算不上是非常好的屏,但相比有些仅采用45%NTSC或者72%的sRGB的低色域屏幕来说,也还是好很多了。

测试结果也仅供参考,具体怎么样大家还是自己拿校色仪去测吧,我在这方面还是菜鸟。

不过这里我也想吐槽一下官方的宣传,这块屏是哪来的84%的NTSC色域呢?和我测出来的结果差了20%了,刚上手的时候,我主观就感觉这块屏到不了这么高的色域。

然后是色准了,这块屏幕在默认情况下色准的△E最小值为0.32,最大为8.21,平均值为1.76,如果测出来的值属实的话,那么这块屏幕的色准表现还是有很大进步的。

当然前面我也提到了这块屏默认情况下的色温偏高,我看有评测也说了这块屏默认情况下的色温有接近10000K,相比D65白点标准的6500K来说,实在是高了太多了,色温与标准的相差这么大的话,显然是会造成色彩的偏差,因此就需要校色了。

校色完成后,屏幕的色域肯定是不会有变化的,但色准还是有了明显的进步,这台机器的屏幕在我进行校色后,色准△E最小值为0.08,最大值为4.32,平均值为0.72,也确实验证了有人评测的Win3屏幕在经过校色以后,色准的表现依然还有进步空间的结论。

校色完成后我们也可以使用Display CAL来加载校准后的颜色配置文件,从配置文件信息中我们也可以看出,这个颜色配置文件重新为这台机器的屏幕运用了接近6500K的色温,这样这台机器的屏幕相比之前来说,就会有一个更好的观感和颜色表现。

虽然这次我第一次校色非常不专业,也不知道测出来的值是否准确,但我主观感觉校色后观感好了不少,屏幕确实没之前那么蓝了,玩游戏的时候视疲劳也减少了很多。

我知道可能有人想找我要这个颜色配置文件,本来我也想发出来的,但感觉还是算了,这个在校色过程中受各种因素影响都非常大,我提供的颜色配置文件可能不太准确,也并不适用于所有的机器,因此大家有那个需求的话,还是自己使用校色仪来校色吧。

而且严格意义上来说,液晶显示器在经过长时间的显示以后,无论是色彩,亮度和灰阶色都会发生不可避免的变化,就经常需要定期使用校色仪校色,所以并不是运用一个颜色配置文件就可以一劳永逸的,而像艺卓那种专业显示器就内置校准传感器,可以保证图像的稳定,因此那种显示器是非常昂贵的。

那么屏幕方面的解析就说到这里,关于这块屏的日常体验,这台机器的性能究竟如何,我会在下一篇专栏里说。

【折腾测试】GPD Win3折腾测试(中)的评论 (共 条)

分享到微博请遵守国家法律