Если видеокарте не хватает памяти

Память компьютера играет жизненно важную роль в быстром доступе к приложениям и программам. Компьютерная память или оперативная память используются системным процессором для хранения данных. Это энергозависимая память на материнской плате, которая хранит операционную систему и программы для быстрого доступа. Ваш системный процессор непрерывно загружает данные с жесткого диска в ОЗУ перед выполнением. Но иногда вам может понадобиться буфер для высокого качества видео, видео редакторов, 3D-структур и новой игры на вашем ПК.

Что такое VRAM

Приложения и программы с интенсивной графикой используют большое пространство системной памяти для визуализации графических данных с высоким качеством, цветом, четкостью и определением. В этих случаях ваша система может попасть в нехватку оперативной памяти и бороться за буферизацию высокоинтенсивных графических программ, так как ваша видеокарта разделяет системную память. Если вам не нужно буферизовать высококачественные видео приложения, ваш ПК работает нормально с ОЗУ. В противном случае для буферизации высококачественного визуального отображения на монитор вам понадобится специальный тип памяти, называемый V >

Видеопамять предназначена для специальной обработки видео высокой интенсивности быстрее, чем оперативная память системы. Графические карты или графический процессор используют видеопамять (VRAM), встроенную в нее для хранения изображений и видеоданных. VRAM также называется виртуальной оперативной памятью и используется как память GPU для легкой обработки графических приложений, игр, сложных текстур и 3D-графики.

В последних игр и видео, может потребоваться воспроизведение видео с разрешением 1080p или 4k, которое требует большого количества VRAM. Кроме того, VRAM обрабатывает больше пикселей для изображений с более высоким разрешением, чтобы отображать их лучше. При этом современные игры требуют более подробной детализации и точных системных требований для их запуска на вашем мониторе, а наличие недостаточного количества VRAM приведет к большой перегрузке графического процессора.

Если у вас недостаточно VRAM, вы не сможете запускать современные игры. В таком случае вам потребуется графическая карта с большими характеристиками, чтобы легко загружать сложные текстуры с изображениями в высоком разрешении.

Проверить количество VRAM на видеокарте

Шаг 1. Откройте «Параметры» > «Система» > «Дисплей» и справа выберите «Дополнительные параметры дисплея».

Шаг 2. В новом окне выберите «Свойства видеоадаптера для дисплея».

Шаг 3. В новом окне вы увидите тип адаптера, используемый в вашей системе, и другую графическую информацию на вкладке «Адаптер». Запомните её или сделайте скриншот , чтобы сравнить память после увеличения.

Как увеличить Video RAM из BIOS

Это рекомендуемый метод перераспределения VRAM. Однако это не работает на всех материнских платах, и вам не разрешается перераспределять память на вашем ПК самостоятельно. Тем не менее, вы можете попробовать изменить настройки BIOS и проверить, есть ли у вас достаточно прав для изменения объема выделенной видеопамяти на вашем ПК.

Шаг 1. Перезагрузите ПК, ноутбук и войдите в BIOS, нажимая — F2 или клавишу Del во время загрузки. Можете посмотреть, как зайти в BIOS от разных производителей материнских плат. В BIOS вам нужно перейти Advanced > video/Graphics settings или VGA Share Memory Size или UMA Frame Buffer Size или Share Memory и выбрать значение. Ниже на картинках я привел два примера, первый — это мой UEFI Asrock на ПК, а второй — это старый ноутбук BENQ с обычным BIOS.

Вы должны понимать, что параметры BIOS у всех разные, и иногда в БИОСах есть расширенные настройки, которые по умолчанию не показывают всех параметров. Воспользуйтесь Google или Yandex «поиск по картинкам», вбив туда модель материнской платы.

Шаг 2. Как только вы выбрали значение, которое вам нужно, обязательно сохраните параметры БИОС, нажав F10.

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5−10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1−2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Читайте также:  Игры для руля logitech momo racing

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2−3 ГБ памяти, а игра требует 4−5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20−30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15−20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9−9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Читайте также:  Зачем нужен яндекс паспорт

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800—1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20−40%, что может прибавить к общей производительности графики еще 10−15% — для слабых видеокарт это лишним, разумеется, не будет:

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Читайте также:  Зачем нужен процессор в компьютере

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

Все больше современных программ и игр предъявляют повышенные требования к компьютерному «железу», в частности, к графическим адаптерам. Нехватка памяти видеокарты приводит к тому, что многие приложения не только зависают, но и не запускаются вообще. И тут остро встает вопрос о том, как увеличить объем видеопамяти, и возможно ли это сделать. Далее будет рассмотрено несколько вариантов, которые позволяют, если не увеличить ее, то по крайней мере, использовать наиболее оптимально.

Какова роль видеопамяти в системе

Наверное, нет нужды говорить о том, что память графического адаптера в чем-то очень сильно напоминает основную оперативную память компьютерной системы.

На нее возложены практически те же функции загрузки основных программных компонентов программ и приложений с передачей вычислений графическому процессору. Понятно, что при малом объеме, как ни пытайся, загрузить туда больше того, на что она рассчитана, не получится. Поэтому многие игры не то, что функционируют со сбоями, так иногда еще и не работают вообще. Но проблема того, как увеличить видеопамять видеокарты, как оказывается, решается достаточно просто. Правда, назвать это именно увеличением нельзя, поскольку физически размер видеопамяти не изменяется.

Определяем тип графического адаптера

Прежде чем заниматься поиском решения проблемы и ответа на вопрос о том, как увеличить видеопамять, нужно определиться с типом установленного в системе графического адаптера.

Они бывают двух типов: интегрированные (встроенные в материнскую плату) и дискретные (вставляемые в специальные слоты).

Визуально интегрированный адаптер можно определить по наличию рядом находящихся разъемов HDMI, USB, LAN и т.д.

Получить более подробную информацию можно в «Диспетчере устройств», вызвав его либо из «Панели управления», либо из консоли «Выполнить» (Win +R) командой devmgmt.msc.

Однако наиболее полные данные содержатся в диалоговом окне DirectX, вызываемом из меню «Выполнить» строкой dxdiag. На вкладке «Экран» и будет представлена вся информация. Кстати сказать, узнать основные характеристики интегрированных видеоадаптеров можно только таким способом.

Как увеличить видеопамять дискретных карт за счет повышения производительности

Для начала рассмотрим вопрос того, как увеличить видеопамять дискретной видеокарты. В идеале, конечно, проще всего купить новую, однако современные адаптеры стоят весьма недешево, поэтому лучше заняться настройкой имеющегося в наличии.

Исходя из того, что сегодня на рынке предлагаются в основном чипы NVIDIA и AMD/ATI, стоит использовать сопутствующее программное обеспечение, которое поставляется в предустановленном виде при покупке ПК или ноутбука.

Также для Windows-систем в плане улучшения производительности прекрасно подойдут утилиты вроде ATITool или MSI Afterburner, которые позволяют постепенно увеличивать тактовую частоту графического процессора, оставляя показатель памяти без изменений.

Кроме того, можно использовать и программы вроде Catalyst, PhysX или Riva Tuner, способные оптимизировать память видеочипа для использования в определенных играх или других приложениях, высвобождая ресурсы.

Настройки буфера кадра

Теперь посмотрим, как увеличить видеопамять на ноутбуке. В большинстве своем современные бюджетные модели оборудованы интегрированными чипами.

Просмотреть параметры выделенной памяти можно через «Диспетчер устройств», где из меню правого клика нужно выбрать свойства и перейти к вкладке «Драйвера». Здесь имеется строка параметров кадрового буфера UMA, где и находится требуемое значение. Но такого пункта может и не быть, поэтому вопрос о том, как увеличить видеопамять, должен решаться другим методом. Каким? Настройками BIOS, которые предполагают изменение распределяемой динамической памяти.

Как увеличить видеопамять за счет оперативной (распределяемой) через BIOS

В первичной системе ввода/вывода, которая вызывается нажатием определенных клавиш, из сочетаний или специальных кнопок, нужно найти раздел наподобие Video RAM или Shared Memory.

Как увеличить видеопамять с применением таких настроек? Для улучшения производительности изменяется параметр апертуры, обозначенный как AGP OverVoltage. При этом нужно помнить, что прирост рассчитывается по определенной формуле. Для примера возьмем 16 Мб памяти интегрированного адаптера и 256 Мб основной оперативной памяти. Результат составит 256 Мб/(16 Мб/2)=32 Мб. А вот и интересный парадокс. Для ОЗУ 256 Мб и памяти адаптера 64 Мб увеличение будет 256 Мб/(64 Мб/2)=8 Мб.

В настройках VGA Shared Memory (он же буфер UMA) нужно установить требуемый параметр, однако выставлять максимальное значение не рекомендуется. Оптимальным вариантом считается установка значения, которое только вдвое превышает установленное по умолчанию.

Стоит ли этим заниматься

Напоследок нужно добавить, что вопрос о том, как увеличить видеопамять программными средствами, не изменяя ее физическим способом, является весьма условным, ведь в конечном итоге речь идет только о максимально эффективном ее использовании. По сути, в чем-то это напоминает разгон графического адаптера. Но, если уж вы этим занялись, нужно быть очень осторожным, а то такие действия могут привести только к тому, что карта выйдет из строя. По крайней мере, не следует устанавливать максимально возможные пиковые значения любого параметра, хотя графические адаптеры, равно как и любые другие устройства, так сказать, имеют определенный запас прочности.

Оцените статью
Adblock detector