دقة عرض 4K مع تقنية تتبع الأشعة تسببتا بالكثير من المشاكل لصانعي البطاقات الرسومية Nvidia و AMD، إجهادهما على البطاقات الرسومية ضخمٌ جدًا و لم تتطوّر القوة التقنية المُجرّدة للبطاقات الرسومية بعد بما يكفي للإيفاء باحتياجاتهما دون مساعدة، هذه المساعدة أتت بحلول مختلفة من الشركتين، نفيديا استخدمت الذكاء الاصطناعي عن طريق أنوية Tensor لعرض الألعاب بدقة عرض حقيقية أقل و من ثم رفع جودة الصورة لتنافس الجودة الحقيقية عن طريق تقنية DLSS، أما AMD فقد أتت بفكرة أخرى تعتمد أيضًا على تقليل دقة العرض الحقيقية و تحسين جودة الصورة عن طريق خوارزميات إعادة بناء الصورة و تحسين جودتها دون الاعتماد على الهاردوير.

السؤال الذي يطرح نفسه من أتى بالحل الأفضل؟ حسنًا، المستخدم Bang4BuckPC Gamer قام بالمقارنة بين التقنيتين باستخدام لعبة Necromunda Hired Gun الداعمة لهما، بدقة عرض 4K أتت النتائج ربما مفاجئة بعض الشيء للكثيرين، إذ تفوقت تقنية FidelityFX Super Resolution قليلًا في جودة الصورة و قليلًا في الأداء باستعمال نفس البطاقة الرسومية (RTX 3090) باستعمال تقنية DLSS 2.2 بأعلى جودة و Super Resolution بأعلى جودة. و يُذكر بأن تقنية السوبر ريزوليوشن في هذه الحالة كانت ترفع دقة العرض من صورة بدقة 1662p حقيقية، أما DLSS 2.2 بأعلى الإعدادات فهي ترفع جودة الصورة من دقة 1440p حقيقية، و ربما كان هذا سبب الأفضلية الطفيفة في جودة الصورة لصالح تقنية AMD بحسب المستخدم المذكور بدقة عرض 4K.

باستخدام دقة عرض 1080p و 1440p عن طريق لعبة Marvel’s Avengers، أتت النتائج مُغايرة بعض الشيء بحسب المقارنة من @KanaSaber على تويتر فقد تفوقت DLSS 2.2 بوضوح على السوبر ريزوليوشن بإعدادات Quality (و ليس Ultra Quality) و بالإمكان مشاهدة الفرق في وضوح أعمدة الجسر على سبيل المثال:

شارك هذا المقال