英特尔出了5.0,实际3.0时代的王者也跑不满3x16。
这里的数据基于TPU,原网址详细测试在此,因为比较长可以自己看哈。
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/
这里说结果。首先看下3x8和3x16的带宽区别

差距是一倍。但是2080ti在各个分辨率下的游戏性能差别并不是特别大。



最大也不过97%,假设一个游戏平均帧100帧,那么差距就是2~3帧。这里有个有趣的结论分享“帧速率是 PCIe 带宽的主要驱动因素,而不是分辨率。”就是说,接口的带宽是决定帧数的上限,那么低分辨率就吃CPU多些,反而高分辨率,帧数降低,吃CPU就少些,瓶颈就向CPU转移,所以得出结论,同一游戏下,分辨率越高,显卡占用更高,CPU反而是占用越低呢!
小伙伴你们觉得呢?
这里的数据基于TPU,原网址详细测试在此,因为比较长可以自己看哈。
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/
这里说结果。首先看下3x8和3x16的带宽区别

差距是一倍。但是2080ti在各个分辨率下的游戏性能差别并不是特别大。



最大也不过97%,假设一个游戏平均帧100帧,那么差距就是2~3帧。这里有个有趣的结论分享“帧速率是 PCIe 带宽的主要驱动因素,而不是分辨率。”就是说,接口的带宽是决定帧数的上限,那么低分辨率就吃CPU多些,反而高分辨率,帧数降低,吃CPU就少些,瓶颈就向CPU转移,所以得出结论,同一游戏下,分辨率越高,显卡占用更高,CPU反而是占用越低呢!
小伙伴你们觉得呢?