今天有时间调了下我自己的一个玩具用cuda 11跑,3090的TensorCore FP16的实际性能,比2080TI还低!!
虽然因为白皮书里写TensorCore性能提高一倍但数量砍半,早有预期,但以为是3080略弱,3090稍强,毕竟功率在这里,可实际上是3090就比2080TI弱!然后那个什么狗屁结构化稀疏矩阵,越想越不爽,实际上真正适用场景极其有限,而且基本都可以手工优化(说到底就是pruning嘛),就这样一个鸡肋,cudnn库里根本没有对这个功能做支持,广告倒是满天飞。
光追性能提高实际也是假的,就是为了动态场景改了点,基本的光追可以说就没进步,就是80TI的68个现在82个。实际测试也就是这个比例的提高。
然后那个什么30T的FP32,还真就是吞吐,把最基础的运算电路翻翻,这基本就不叫活儿,大学生就会干。实际上其它的什么也没翻翻。所以除非针对硬件优化(而且应用特征得能进行这种优化),实际上性能根本就翻不了翻。完全就是唬人的。
如果AMD真的是规模翻翻,光追赶上2080TI,说实话我觉得NV领先的时期已经完了。想一想,2080TI完整的规模翻翻,比6900XT确实能强不少,尤其是光追单元等,但是没有新牙膏了,以后就靠芯片代工厂了。下一代NV恐怕也拿不出新东西(而AMD在缺的地方肯定会进步)。靠软件,靠生态,没戏。
CUDA不是C这种重量级的东西,NV连微软都比不过,一时的繁荣建立不起别人没法离开的生态。大多数成熟的开发者应该随时准备跳槽如OpenCL一类的公开标准化的解决方案。私有化生态的结局就是Adobe Flash。C、C++为什么不过时?还不是因为是公开的、标准化的。一个开发者受不住一生10年依赖私有生态,然后高峰期过了自己的技术也过时了,所以除了新手,谁也不会为了私有化的东西欢欣鼓舞,而是随时等对自己更有利的替代方案。
你们天天骂2080TI,从20系首发,我就觉得20系是真正的一大步。现在看来还就是。跟20系比起来,30什么也不是。
还有说3090起码有24G搞机器学习人工智能的,其实这类人理解的ML、AI也就是大数据拟合那一点点东西。真正的ML和AI,就像吴恩达说的,其实是小数据,如何自我改进,这要的根本不是大显存,因为这样的机器或算法需要的是平时自己不停思考然后自我改进,那么推断才是主要的,要的是算力。何况Titan RTX也有24G啊。
那么对于机器学习,整个30系,也就是3080便宜这一点了。然后90 vs Titan RTX,3080 vs 2080ti,对电源的压力激增。难怪这块老黄比较的时候天天把Volta拿出来,决口不提图灵。说实话,老黄怕图灵显得安培在这块没有真正的新东西。几个月前我就有点这么想,现在确凿了,尤其是GA10x这些游戏卡。
说穿了这玩意也就是渲染用了。得,再制造个玩具玩玩自产自销的光追渲染器吧。谁叫不能自己刻芯片呢,也就发发牢骚。但东西买了用了,非要我说真香,那绝对不可能。
虽然因为白皮书里写TensorCore性能提高一倍但数量砍半,早有预期,但以为是3080略弱,3090稍强,毕竟功率在这里,可实际上是3090就比2080TI弱!然后那个什么狗屁结构化稀疏矩阵,越想越不爽,实际上真正适用场景极其有限,而且基本都可以手工优化(说到底就是pruning嘛),就这样一个鸡肋,cudnn库里根本没有对这个功能做支持,广告倒是满天飞。
光追性能提高实际也是假的,就是为了动态场景改了点,基本的光追可以说就没进步,就是80TI的68个现在82个。实际测试也就是这个比例的提高。
然后那个什么30T的FP32,还真就是吞吐,把最基础的运算电路翻翻,这基本就不叫活儿,大学生就会干。实际上其它的什么也没翻翻。所以除非针对硬件优化(而且应用特征得能进行这种优化),实际上性能根本就翻不了翻。完全就是唬人的。
如果AMD真的是规模翻翻,光追赶上2080TI,说实话我觉得NV领先的时期已经完了。想一想,2080TI完整的规模翻翻,比6900XT确实能强不少,尤其是光追单元等,但是没有新牙膏了,以后就靠芯片代工厂了。下一代NV恐怕也拿不出新东西(而AMD在缺的地方肯定会进步)。靠软件,靠生态,没戏。
CUDA不是C这种重量级的东西,NV连微软都比不过,一时的繁荣建立不起别人没法离开的生态。大多数成熟的开发者应该随时准备跳槽如OpenCL一类的公开标准化的解决方案。私有化生态的结局就是Adobe Flash。C、C++为什么不过时?还不是因为是公开的、标准化的。一个开发者受不住一生10年依赖私有生态,然后高峰期过了自己的技术也过时了,所以除了新手,谁也不会为了私有化的东西欢欣鼓舞,而是随时等对自己更有利的替代方案。
你们天天骂2080TI,从20系首发,我就觉得20系是真正的一大步。现在看来还就是。跟20系比起来,30什么也不是。
还有说3090起码有24G搞机器学习人工智能的,其实这类人理解的ML、AI也就是大数据拟合那一点点东西。真正的ML和AI,就像吴恩达说的,其实是小数据,如何自我改进,这要的根本不是大显存,因为这样的机器或算法需要的是平时自己不停思考然后自我改进,那么推断才是主要的,要的是算力。何况Titan RTX也有24G啊。
那么对于机器学习,整个30系,也就是3080便宜这一点了。然后90 vs Titan RTX,3080 vs 2080ti,对电源的压力激增。难怪这块老黄比较的时候天天把Volta拿出来,决口不提图灵。说实话,老黄怕图灵显得安培在这块没有真正的新东西。几个月前我就有点这么想,现在确凿了,尤其是GA10x这些游戏卡。
说穿了这玩意也就是渲染用了。得,再制造个玩具玩玩自产自销的光追渲染器吧。谁叫不能自己刻芯片呢,也就发发牢骚。但东西买了用了,非要我说真香,那绝对不可能。