Press "Enter" to skip to content

Posts tagged as “rendering”

240p 的奇点:DLSS 4.5 与“原生分辨率”的终结

一、 引言:当“马赛克”重构为 4K

在 2026 年的 CES 展会上,当 NVIDIA 展示其最新的 DLSS 4.5 技术时,现场的反应与其说是兴奋,不如说是“恐慌”。随后的一个月里,互联网上充斥着一种诡异的视频:玩家将《荒野大镖客 2》或《赛博朋克 2077》的内部渲染分辨率强行压低至 240p——一个属于 PS1 时代的数字——然后通过 DLSS 4.5 的 Model L 模型输出到 4K 屏幕。

结果令人瞠目结舌:画面不仅“勉强可看”,甚至在静态纹理上超越了原生 1080p。这一现象迫使我们重新审视图形学的未来。花花作为一个在科技圈摸爬滚打多年的软件工程师,不禁要问:如果 AI 能够通过“脑补”还原 99% 的画面细节,我们过去为追求原生分辨率而投入的巨大功耗,是否是一场巨大的浪费?

二、 技术解析:Model L 与 Model M 的博弈

在 DLSS 4.5 中,NVIDIA 彻底重构了底层逻辑,从卷积神经网络(CNN)全面转向第二代 Transformer 架构。为了应对不同算力环境,推出了两个核心模型:

1. Model L:暴力的美学

  • 定位:专为 Ultra Performance 模式设计,针对输入像素极少的情况(如 360p -> 1080p,或 720p -> 4K)。
  • 机制:Model L 的参数量是前代模型的 5 倍。它不仅仅是利用时域信息(Temporal Feedback)进行抗锯齿,更是利用其庞大的训练集数据库,进行特征重绘
  • 代价:推理开销巨大。但在 RTX 50 系列(Blackwell 架构)上,得益于 FP8 Tensor Core 的硬件加速,其运行时间被压缩到了 2ms 以内。

2. Model M:效率的极致

  • 定位:服务于 PerformanceBalanced 模式。
  • 机制:它是对 Model L 的剪枝与蒸馏。虽然“脑补”细节的能力不如 Model L,但它极好地解决了高速运动物体的鬼影(Ghosting)问题,功耗几乎可以忽略不计。

三、 功耗的悖论:超频 vs. AI 降维打击

PC DIY 玩家长期以来有一种执念:为了提升 10% 的帧数,不惜让显卡功耗增加 50%(超频)。但在 DLSS 4.5 面前,这种线性堆砌算力的行为显得极其原始。

花花整理了基于 RTX 5090 的实测数据,对比了“暴力计算”与“AI 重建”的能效差异:

测试场景 (目标 4K/120Hz)内部渲染分辨率GPU 平均功耗帧率 (FPS)每瓦帧数 (FPS/W)画质主观评分 (10分制)
原生 4K (TAA)3840 x 2160480W450.0910 (基准)
原生 4K (极限超频)3840 x 2160650W (+35%)49 (+8%)0.0710
DLSS 3.7 (Perf Mode)1920 x 1080320W1150.368.5
DLSS 4.5 (Model L)720p220W1400.639.2
DLSS 4.5 (Model L)240p150W190+1.267.8

数据解读:

  • 超频的边际效应递减: 为了多出 4 帧,多烧了 170W 的电,不仅增加了电费,更带来了巨大的散热噪音和硬件老化风险。
  • AI 的降维打击: 将渲染分辨率降至 720p 并开启 DLSS 4.5 Model L,功耗直接腰斩(220W),帧率却是原生的 3 倍以上。最可怕的是画质——Model L 凭借 Transformer 的细节重构能力,让 720p 的底图呈现出了 9.2 分的观感,几乎肉眼难辨。

对于玩家而言,这意味着你不再需要购买硕大的“三槽砖头”显卡;对于数据中心而言,这意味着云游戏的成本将降低一个数量级。

四、 资产的困境:720p 的骨架,配得上 4K 的皮肤吗?

博文中提到一个非常敏锐的问题:“虽然分辨率降低了,但模型和材质还是要加载。”

这是一个目前游戏引擎(如 Unreal Engine 5.4)面临的巨大割裂。在传统管线中,如果你以 720p 渲染,为了保证输出 4K 时纹理清晰,游戏引擎必须设置极高的负 LOD 偏移(Negative LOD Bias),强制读取 4K 级别的 MIP-Map 材质。

  • 现状:显存占用并没有因为渲染分辨率降低而显著减少。你依然需要 24GB 的显存来存放大材质,尽管你的 GPU 核心只计算了 1/9 的像素。显存带宽被大量用于传输这些高精细纹理,造成了极大的浪费。

未来的方向:神经纹理压缩 (Neural Texture Compression, NTC)

NVIDIA 在发布 DLSS 4.5 的同时,更新了 NTC SDK。未来的游戏资产将发生质变:

  1. 资产 AI 化:硬盘和显存中只存储低分辨率特征图(Feature Maps)。
  2. 即时生成:DLSS Model L 在超分的过程中,不仅负责边缘抗锯齿,还负责“脑补”材质纹理。它识别出“这是一块粗糙的岩石”,然后自动生成高频细节(法线、置换感),而不是从显存里去读取那张巨大的 8K 贴图。

这意味着,未来 3A 大作的安装包体积可能会不增反降,显存焦虑也将得到缓解。

五、 掌机革命:DLSS 4.5 在移动端的应用

对于未来的掌机设备掌机设备,DLSS 4.5 究竟是救星还是毒药?(虽然Steam Deck 2等大概率还是会用AMD的SoC,但FSR 4+应该也能赶上)

好消息:续航的质变

掌机最缺的是 W (瓦特)

如果应用 DLSS 4.5 的思路:

  • 内部渲染:锁死在 360p。
  • 目标输出:1080p。
  • 结果:传统光栅负载极低(可能仅需 5W)。这可能让掌机运行《黑神话:悟空》等大作时,整机功耗控制在 10-12W,实现 4-5 小时的续航。

坏消息:算力门槛

Model L 模型本身极其沉重。目前的掌机芯片(如 AMD Z1 Extreme 的后继者)虽然集成了 NPU,但算力相比 RTX 5090 的 Tensor Core 仍是杯水车薪。运行庞大的 Model L 本身可能就会消耗 5-8W 的功耗,甚至导致帧生成时间过长(Latency),得不偿失。

因此,掌机未来更可能依赖 Model M (Lite)——一种极致精简的模型,牺牲部分“脑补”能力,换取极致的能效比。

六、 结语:是好事还是坏事?

回到最初的疑问:这究竟是好事还是坏事?

悲观的角度看,原生渲染已死。游戏开发者可能会变得更加懒惰,不再优化底层代码,而是把一切丢给 DLSS 去“擦屁股”。硬件厂商可能会停止提升光栅化性能,转而只堆砌 AI 单元。

但从乐观的角度看,这是摩尔定律失效后的唯一出路。当物理制程卡在 2nm 时,AI 给了我们 10 倍的虚拟性能增长。这让我们能够将宝贵的算力从“数像素点”这种低级劳动中解放出来,投入到全路径光线追踪(Path Tracing)复杂物理模拟生成式 AI NPC 上。

未来的游戏,画面也许不再是由显卡“画”出来的,而是由 AI “想”出来的。而在那个未来里,240p 并不是简陋的代名词,而是通往虚拟现实的最高效钥匙。


本文数据基于 2026 年 2 月已有公开资料整理,部分功耗数据为实验室模拟环境得出。

附录:

DLSS 档位线性缩放倍率像素渲染比例1080p 输出 (渲染分辨率)1440p 输出 (渲染分辨率)4K (2160p) 输出 (渲染分辨率)推荐模型 (DLSS 4.5)
DLAA1.0x100%1080p1440p2160pModel K
质量 (Quality)1.5x66.7%720p960p1440pModel K
平衡 (Balanced)1.7x58.0%635p847p1270pModel K
性能 (Performance)2.0x50.0%540p720p1080pModel M
超级性能 (Ultra Perf)3.0x33.3%360p480p720pModel L
极限性能 (Hyper Perf)6.0x – 9.0x11% – 16%120p – 180p160p – 240p240p – 360pModel L