Важна ли шина памяти видеокарты
Шина памяти видеокарты – это канал соединяющий память и графический процессор видеокарты. От ширины шины памяти зависит, сколько данных обработает видеокарта за единицу времени. Этот параметр один из главных, который влияет на производительность видеокарты и на ее цену.
Пропускная способность шины памяти высчитывается по формуле:
[ширина шины памяти] * [частота памяти] = [х бит пропуск] / [бит в байте (8бит)]
Если у видеокарты шина 256 бит, частота памяти 2200 Мгц, то пропускная способность равна:
Видеокарту с какой разрядностью шины памяти выбрать?
Ширина шины памяти напрямую влияет на пропускную способность памяти. Большее значение ширины памяти позволяет передавать большее количество данных из памяти видеокарты для обработки в графический процессор (GPU). Если рассуждать логически, то через шину шириной 128 bit данных можно передать в 2 раза больше, чем через шину в 64 бит. Однако на практике это значение немного ниже, чем в два раза.
Компенсировать потери в пропускной способности памяти можно установкой более быстрых типов памяти. Впервые это доказала компания AMD/ATI представив семейство видеокарт Radeon HD 5xxx. В этой серии некоторые модели видеокарт имели шину всего в 128 бит, но с самым быстрым типом памяти. Производительность таких видеокарт не уступает ускорителям с разрядностью шины памяти в 256 и с памятью GDDR3. За счет высокой скорости памяти GDDR5 компенсируется маленькая ширина шины памяти.
- для бюджетных видеокарт — 64 или 128 бит;
- для карт среднего уровня — 128 или 256 бит;
- для High-End видеокарт — от 256 до 512 бит.
Популярные модели видеокарт
Можно ли менять видеокарту с 64 на 512 бит?
Вопрос из комментариев.
— Да, можно (даже нужно). Единственное с чем у вас могут быть проблемы — это с повышением потребления и увлечения нагрузки на блок питания при установки более мощной видеокарты.
Если посмотрите на графике, то связующим звеном между видеокартой и вашим компьютером является шина PCI Express, то есть битность шины памяти видеокарты никаким образом не влияет на совместимость с той или иной материнской платой.
Еще статьи
Частота графического процессора (GPU)
Подключение SPDIF
Мультимониторные конфигурации на NVIDIA
Производители видеокарт
Все видеокарты nVidia
Производители графических процесоров. nVidia и ATI
Тестирование видеокарты AMD Radeon HD 7950 от XFX.
Все видеокарты ATI Radeon
SLI режим от nVidia: Используй мощность нескольких видеокарт
Тестирование AMD Radeon HD 6950 и Radeon HD.
94 комментария
Asus p5k se/epu какую видеокарту подойдёт
Видеокарта GIGABYTE GeForce® GT 710 1 Гб GDDR5
или
Видеокарта Palit GeForce® 9800 GT 1 Гб GDDR3 OEM
какая лучше и сильно они различаются?
Сам ответил на свой вопрос — GDDR3 и GDDR5 есть разница?
помогите с выбором ноутбука, нужен такой, чтобы был режим с разверткой 75гц. или подскажите как искать, так как на сайтах не пишут списки поддерживаемых режимов для разных разрешений экрана.
Производители лукавят с производительностью консолей. Железо всегда подбирается под разрешению вашего монитора/телевизора.
Помните, что поток информации, а значит и частота кадров в играх никогда не будет больше пропускной способности вашего монитора!
Для комфортного просмотра фильмов выделили по вертикали 25 кадров, но для игр кроме вертикального сканирования необходимо ещё и панорамное сканирование (горизонтальное перемещение).
А так как ширина экрана больше от вертикального размера на 1.8 для 16х9 и на 2.4 для 21х9, необходимо увеличивать частоту сканирования на это значение. 25х1.8=45, 25х2.4=60
В итоге для максимального перемещения по горизонтали необходимо сканирование с частотой не меньше 60 гц.
Конечно, можно и больше делать частоту кадров для монитора или телевизора, но это дополнительные расходы и производители неохотно идут на такие расходы.
Делаем расчёт видеокарты и процессора для игр на ПК или для игровой приставки.
Пример дан для стандартного монитора/телевизора, расчёты можно сделать и для другого формата монитора и с другой частотой кадров.
1920 х 1080 = получаем площадь 2.073600 бит, умножает на цвет 8 бит и на 60 кадров(60Гц) = получаем пропускной поток монитора 99.5328Гб/с (этот поток подходит для шины не ниже PSIe 3.0×16)
Подбираем видеокарту.
Поток монитора 99.5328Гб/с : на разрядность шины 1024 бит = получаем поток с частотой видеокарты 0.972МГц (1 ГГц).
Теперь выбираем процессор для ПК под видеокарту.
Поток монитора 99.5328Гб/с : на частоту процессора 64 бит, получаем поток с частотой 15.552ГГц, делим на 8 ядер и получаем частоту ядра 1.24416ГГц.
Итого: Для игр необходима одна видеокарта с частотой 1 ГГц и с разрядностью шины 1024бит.(PSIe 3.0×16)
Процессора на материнке при 8 ядрах, достаточно 1.25 ГГц.
Объём памяти должен быть не меньше пропускного потока монитора.
Всё это будет работать при 100% загрузке железа с частотой 60 кадров.
Для минимальной загрузки железа, или увеличения частоты кадров до 240Гц, показатель необходимо увеличить в несколько раз.
Неопытные пользователи верят в распространенные мифы о графических картах. Выбор видеоадаптера исключительно по его шине данных – популярное заблуждение. Рассмотрим на примерах зависимость производительности видеокарты от шины, частоты и типа чипов памяти. Приведем примеры расчёта пропускной способности. Выделим главные особенности, преимущества и недостатки 4096 битной шины HBM.
Подсистема памяти современных видеокарт
Все элементы на плате графического адаптера связаны между собой. Эти соединения обеспечивают синхронную работу всего устройства. Разрядность шины видеокарты являет собой набор каналов, которые соединяют модули памяти и графический чип. От количества этих дорожек зависит скорость обмена информацией.
Схематическое исполнение современных графических адаптеров изображено на рисунке выше. На самой плате помимо этого еще и размещена силовая часть, но она нас в вопросе шин не интересует. Рассмотрим связь между GPU и модулями видеопамяти.
В зависимости от объема и скорости, производители устанавливают несколько чипов.
Их размещают на печатной плате рядом с графическим процессором и соединяют с помощью дорожек. Количество дорожек определяет разрядность шины данных. Больше шина — видеокарта обрабатывает больше информации (в теории). При работе с высоким разрешением графический адаптер пропускает через себя огромное количество данных. Нехватка пропускной способности чаще всего актуальна для видеокарт среднего уровня при запуске требовательных игр в 4К разрешении. На практике это не является единственной характеристикой, на которую следует обращать внимание.
Критерии выбора видеокарты
Основные критерии выбора видеокарты для игр:
- Количество видеопамяти (текущий стандарт от 4 Гб и более);
- Пропускная способность памяти;
- Частота графического процессора;
- Потребляемая мощность (учтите при выборе БП);
- Наличие дополнительных функций (DLSS, Ray Tracing).
Расчет пропускной способности
Разрядность шины данных является лишь одной переменной. Опытные пользователи знают, что кроме нее стоит учитывать тип видеопамяти и ее частоту. Умножив их, можно узнать пропускную способность памяти. Именно этот параметр является одним из главных критериев, который определяет теоретическую производительность видеокарты.
Рассчитать ее можно с помощью простой формулы:
(разрядность шины памяти) * (частота памяти) = (пропускная способность в битах)/8
Для перевода в байты необходимо разделять на 8, так как в одном байте содержится 8 битов. Рассмотрим на примере бюджетной модели Radeon RX 6500 XT, которая имеет разрядность шины всего 64 бита, но получила новейшие чипы памяти типа GDDR6 с частотой 18 000 МГц.
Умножаем 18000 МГц на шину 64 бита и разделяем на 8. Для удобства можно перевести МГц в ГГц (1000 МГц = 1 ГГц):
Приведем еще один пример того, что неправильно оценивать графические карты только по шине. Недорогая офисная видеокарта GeForce GT1030 имеет разрядность шины данных 64 бита, что идентично Radeon RX 6500 XT. При этом максимальная пропускная способность памяти составляет 48 Гбайт/сек против 144 Гбайт/сек. Реальная разница в рабочих задачах и играх еще больше.
Шина 4096 бит и технология HBM
Память нового стандарта HBM (High Bandwidth Memory) представляет собой уникальную компоновку стекового типа. Элементы чипа выложены особым способом друг на друга и связаны в единую цепь. Такой архитектурный подход сокращает физическую дистанцию между чипами памяти и графическим процессором, что положительно сказывается на пропускной способности. Однако из-за слишком широкой шины, инженеры столкнулись с проблемой разводки такого внушительного количества контактов. Использование кремниевой подложки позволило разместить широкую шину близко к GPU.
Чипы HBM отличались низким потреблением энергии, небольшими габаритами, и высокой скоростью передачи данных. AMD Radeon R9 Fury X стала одной из первых массовых видеокарт, в которых использовалась шина данных разрядностью 4096 бита. Это внушительный показатель. Но, как мы уже выяснили, производительность графического адаптера зависит не только от этого показателя. Яркие представители таких видеокарт — Nvidia Tesla P100 16GB, AMD Radeon VII 16GB, RX Vega 64 ROG Strix 8GB. Технология продолжает развиваться и идет параллельно с GDDR6, хотя последней отдают больше предпочтения. Флагманские адаптеры Radeon RX 6900 XT используют GDDR6 память.
Среди бюджетных видеокарт эта технология не стала распространенной из-за высокой стоимости и сложности реализации. Производство чипа нового поколения — достаточно непростой процесс. Технология High Bandwidth Memory имеет право на конкуренцию с GDDR6, но не способна ее вытеснить. Активное развитие GDDR* памяти позволило поднимать частоты и получать высокую пропускную способность даже на 64-128 битных шинах.
Старые флагманские видеокарты с более широкой шиной часто оказываются на уровне самых бюджетных современных моделей или хуже. 64, 256 или 512 бит — разрядность шины сама по себе не важна. Разработчики графических адаптеров идут разными путями. В одних сериях применяют низкие частоты памяти с увеличенной разрядностью, в других высокочастотная память совмещена с небольшой шиной 64-128 бит. Для потребителя главное — конечная производительность (пропускная способность), которую очень просто подсчитать, умножив частоту памяти на разрядность.
Предварительные замечания
В качестве мерила производительности видеокарты мы будем использовать количество FPS (кадров/сек), которое видеокарта покажет в тесте Quake 4. Разрешение экрана выбиралось равным 1280х1024 точек и оставалось неизменным на протяжении всех тестов. Это типичное разрешение большинства современных мониторов с диагональю 17-19 дюймов. Графический режим в самой игре устанавливался на “High Quality”, с помощью видеодрайверов выбирались режимы тестирования “NO AA/AF” или “4AA/16AF”. В качестве тестовой платформы использовался следующий тестовый стенд:
Данный стенд не является чемпионом по производительности среди современных CPU. Тем не менее, как неоднократно показывалось, при тестировании видеокарт middle-end производительность центрального процессора не является ограничивающим фактором. Стандартные частоты GeForce 7600GT составляют 560/700 МГц для GPU/видеопамяти соответственно. Для видеопамяти указана реальная частота в мегагерцах, а не эффективная (1400 МГц DDR), так сделано лишь для удобства построения графиков. Из этих же соображений мы будем задавать исходную частоту для видеопроцессора 7600GT равной не 560 МГц, а 600 МГц ровно.
Тестирование
7600GT 256-bit memory
Вы скажете, что таких видеокарт в природе не бывает. В общем-то, да, не бывает. Но есть другие видеокарты, из которых, при желании, можно получить аналог GeForce 7600GT с шириной шины памяти 256 бит. Собственно, мы так и сделали. Взяли видеокарту ASUS EN7900GS TOP, у которой штатные частоты равны 590/720 МГц и ширина шины памяти 256-бит. Затем, с помощью утилиты RivaTuner, отключили пиксельные и вершинные блоки таким образом, чтобы привести их в точное соответствие с конвейерной формулой GeForce 7600GT – 12p, 5v. Таким образом, в нашем распоряжении оказался аналог видеокарты 7600GT, обладающий похожими на 7600GT характеристиками GPU, но имеющий ширину шины памяти 256-бит вместо 128. На графиках мы будем отображать результаты этой видеокарты красным цветом. Ниже приведен график, аналогичный Графику №1 и дополненный результатами, полученными на аналоге GeForce 7600GT с шириной шины памяти 256-бит.
Заключение
Expiiriens
Имеете ввиду ширину шины памяти? Или.
Научитесь мыслю сформулировать до написания (навроде семь раз подумай - один сказани)
Jumper007
Вполне допускаю и такой поворот хода мыслей автора
Expiiriens
Будьте добры в следующий раз точнее высказываться, тем более когда создаёте тему, просмотрите Правила, п.2.1
Как верно отметил камрад DEVES - всё зависит от GPU, укажите конкретную модель/модели ВК и тогда получите более развёрнутый ответ
И да и нет. Суть парадокса в том, что допустим 8е поколение - это очень широкая линейка. От 8800GTS320/640 (320бит) до 8800GTS512 (256бит). Последняя намного превышает предшественников по производительности. Но это как-бы тоже не совсем честно. Формально 8800GTS512 принадлежит к 9му поколению, хоть и называется 8800.
Шина памяти важна, но также важна частота памяти, совокупность этих параметров дает пропускную способность памяти (можно взять 128бит шину и память 5000мгц, а можно взять 256бит и частоту 2500Мгц), но пропускная способность памяти ничего не даст в связке со слабым видеоядром, и аналогично быстрое ядро в паре со слабой памятью тоже бесполезно. Нужно выбирать конкретную видяху, иначе не факт что видяха 512бит будет быстрей видяхи 128бит.
Какие шины?
У меня 2 гига!
Если брать продукцию Nvidia, то ваши утверждения ошибочны. Ни одна карта 512бит не проигрывала и не проигрывает до сих пор (в рамках до 6го поколения) 128битным карточкам, а то и вовсе 192х битным типа 550Ти.
Я это утверждаю ибо у меня были почти все карты GF, начиная от 8800GTX и заканчивая сейчас 580.
Так вот если сравнивать 512бит GTX280 и 128бит GTS450OC, то даже GDDR5 не спасает положения у последней.
Другое дело если сравнивать продукцию разных производителей: сразу вспоминается преславутая HD2900XTX c 512бит шиной и никакущей производительностью.
Котей: Какие шины?
У меня 2 гига!
И 2 ядра
Сразу вспоминается лохотроны от Эльдорадо 4 ядра - 4 гига
Внутири фекалии, но в названии всё верно
Шина соединяет память и графический процессор видеокарты. От ее ширины зависит количество данных, которое может быть передано графическому процессору и обратно в память. Рост производительности особенно заметен в тяжелых требовательных играх.
Битность(ширина) шины памяти+частота видеопамяти=пропускная способность памяти видеокарты (ПСП).
Чтобы говорить относительно оптимальной величины шины, нужно рассматривать всё в комплексе, то есть, саму ПСП. Обязательно должен быть баланс между графическим чипом и ПСП. Слабому чипу не поможет гиганская ПСП.
ПСП= эффективная частота памяти умноженная на ширину шины памяти.
Что бы перевести биты в байты делим их на 8.
Пример:
ПСП GTX 680=6000Mhz*32байта(256 бит)=192Гб/с
ПСП HD 7970=5500Mhz*48байт(384 бита)=264Гб/с
Jumper007
Золотые слова. В цене учтены буквально все нюансы - ПСП, чип, частоты, память, охлады, питальники и тд и тп. А многие знания влекут за собой немалые печали..
Если брать продукцию Nvidia, то ваши утверждения ошибочны. Ни одна карта 512бит не проигрывала и не проигрывает до сих пор (в рамках до 6го поколения) 128битным карточкам, а то и вовсе 192х битным типа 550Ти.
Я это утверждаю ибо у меня были почти все карты GF, начиная от 8800GTX и заканчивая сейчас 580.
Так вот если сравнивать 512бит GTX280 и 128бит GTS450OC, то даже GDDR5 не спасает положения у последней.
Другое дело если сравнивать продукцию разных производителей: сразу вспоминается преславутая HD2900XTX c 512бит шиной и никакущей производительностью.
у меня были GF начиная с GF 256 1999 года разлива, но речь не про это, и в теме нет упоминания о картах одного поколения или разного, или только ати или нвидия, мы же говорим в общем, а не про конкретную карту. Собственно про 512 бит я писал действительно про 2900хт, которая проигрывает всухую к примеру 128 битным 5770. А 2900ХТ у меня недавно нашлась в тумбочке и была продана после тестов - на самом деле вполне сносная производительность с учетом ее возраста, у нее достаточно высокая ПСП даже с учетом ДДР3, но само ядро на сегодня конечно слабенькое. И кстати хороший пример радеоны 6770 128бит и 6790 256 бит, несмотря на вдвое большую шину памяти, разница в скорости в пределах 30%
Доброго времени суток) Прошу совета по той же теме. Заинтересован gt 1030. У нее разрядность шины 64 бита. Это меня смущает.. Но неплохие частоты:
Частота памяти 6008 МГц
Частота ядра
Базовая частота: 1265 МГц
В режиме разгона: 1518 МГц
Что скажете? Будет ли такая разрядность занижать производительность? И, может, в таком случае лучше искать другие варианты?
Будь в курсе последних новостей из мира гаджетов и технологий
12 мифов о видеокартах, про которые пора забыть
В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.
Первый миф. Чем больше видеопамяти — тем быстрее видеокарта
Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.
Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.
Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное
Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.
Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено
Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.
Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.
Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.
Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.
Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета
Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.
Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.
Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним
В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.
На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.
Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0
Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:
Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.
Одиннадцатый миф. Разгон видеопамяти не имеет смысла
Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:
Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.
Читайте также: