Проблемы при регистрации на сайте? НАЖМИТЕ СЮДА!                               Не проходите мимо весьма интересного раздела нашего сайта - проекты посетителей. Там вы всегда найдете свежие новости, анекдоты, прогноз погоды (в ADSL-газете), телепрограмму эфирных и ADSL-TV каналов, самые свежие и интересные новости из мира высоких технологий, самые оригинальные и удивительные картинки из интернета, большой архив журналов за последние годы, аппетитные рецепты в картинках, информативные Интересности из Интернета. Раздел обновляется ежедневно.                               Всегда свежие версии самых лучших бесплатных программ для повседневного использования в разделе Необходимые программы. Там практически все, что требуется для повседневной работы. Начните постепенно отказываться от пиратских версий в пользу более удобных и функциональных бесплатных аналогов.                               Если Вы все еще не пользуетесь нашим чатом, весьма советуем с ним познакомиться. Там Вы найдете много новых друзей. Кроме того, это наиболее быстрый и действенный способ связаться с администраторами проекта.                               Продолжает работать раздел Обновления антивирусов - всегда актуальные бесплатные обновления для Dr Web и NOD.                               Не успели что-то прочитать? Полное содержание бегущей строки можно найти по этой ссылке.                              

Руководство покупателя видеокарты

Последнее обновление от 31.07.2009




Введение

Компьютерная техника развивается очень быстро, большинство деталей обычного домашнего компьютера устаревает намного раньше, чем они выходят из строя физически. Через некоторое время в современных трехмерных играх начинает наблюдаться явная нехватка производительности: низкая частота кадров даже при не самых высоких графических настройках, отсутствие плавности и комфорта во время игры, долгое время загрузки игры и т.п. Каждый год выходят новые, всё более требовательные к мощности игровой системы трехмерные игры. И домашний компьютер, купленный всего год-полтора назад (многие люди просто не могут понять, что за такое время «железо» может устареть), на котором после покупки с играми не было никаких проблем, начинает тормозить, не позволяя комфортно поиграть в последние игры.

Именно игры больше всего нагружают домашние компьютеры, предъявляя все более серьезные требования к большинству деталей компьютера: к процессору, видеокарте, объему памяти, и даже объему накопителей на жестких дисках. Иногда, замена этих деталей тянет за собой и смену системной платы, блока питания и других комплектующих, казалось бы, напрямую не связанных с производительностью. Обычному человеку, далекому от «железок», не так просто определить то самое слабое звено, которое больше всего ограничивает производительность. Мало того, чаще всего пользователь примерно знает, какой у него стоит «Пентиум», и что установлена какая-то «Джифорс» видеокарта. И если он хочет сделать апгрейд, то ему приходится начинать потихоньку разбираться во всем этом.

При принятии решения о самостоятельной смене видеокарты, пользователь должен осознавать, что он меняет одну из важнейших комплектующих, которую необходимо уметь выбирать и настраивать. Пользователь должен понимать, что для получения наибольшей отдачи от новой видеокарты, ему придется учиться азам трехмерной графики. В противном случае, вместо самостоятельного апгрейда проще приобрести готовые системные блоки, предназначенные для игр, или даже игровые приставки.

В случае же самостоятельного выбора, самое главное — найти правильный баланс всех частей системного блока, собранного на основе деталей примерно одного ценового уровня (об уровнях подробнее во второй части статьи). Более-менее сбалансированными для современного игрового компьютера получаются компьютеры с ценой не менее $1000 за системный блок. Причем, не стоит думать, что его хватит на несколько лет, игры только сначала почти не тормозят и работают на высоких настройках, в дальнейшем появляются новые игры, которым не хватает мощности любого компьютера не самой последней свежести. Новые модели видеокарт выходят раз в полгода или год, каждая новая серия обычно и заметно быстрее предыдущей и поддерживает новые технологии, которые подхватываются разработчиками игр.

Видеокарты обычно являются так называемыми платами расширения, которые вставляются в специальные слоты на основной (системной или материнской) плате компьютера. Это сделано для упрощения модернизации, прежде всего. Самые дешевые графические решения могут быть встроены в чипсет системной платы, они обычно хоть и могут выполнять функции игровой 3D видеокарты, но делают это крайне медленно и подходят разве что для обычной офисной работы или двухмерных игр. Современные же игровые видеокарты предлагают массу новых технологий, в их описаниях и обзорах встречается масса непонятных многим терминов. Покупка или обновление видеокарты становится не таким уж простым действием. Чтобы упростить задачу для неопытных пользователей, мы решили помочь им, сделав руководство по покупке видеокарты для начинающих пользователей.

У пользователя есть возможность как покупки нового компьютера целиком, так и модернизации (или upgrade — апгрейда) старой конфигурации, с приобретением части новых и вероятной продажи (выбрасывания в мусор, откладывания на черный день или для сборки очередного ПК — на выбор) старых комплектующих. Заменив наиболее важные комплектующие, зачастую можно сравнительно небольшими средствами поднять производительность ПК для того, чтобы играть в современные игры с приемлемой производительностью.

Продажа старого и покупка нового ПК — выход выгодный только в том случае, если вам есть куда пристроить старое железо целиком за приемлемые деньги. И если время есть на замену компьютера целиком где-то раз в полтора года. Кроме того, появляются дополнительные заботы по продаже, переносу данных и возможному «безлошадному» времени между продажей старого ПК и покупкой нового. Во многих случаях лучшим выходом является частичная модернизация компьютера. Основной задачей в таком случае является нахождение слабого места (или нескольких мест) и их устранение путем замены соответствующей детали. Понятное дело, что апгрейд имеет смысл лишь тогда, когда его сроки не запущены, когда уровень производительности еще удастся подтянуть заменой одной или двух частей ПК. В случае очень старого ПК (два-три года и более), проще будет продать старый и купить новый.

Более подробно все плюсы и минусы разных подходов расписаны в статье Стратегия и тактика апгрейда домашнего компьютера. В данном руководстве, ориентированном, прежде всего на неопытных пользователей, мы опишем лишь основные вопросы, возникающие при выборе и покупке видеокарты, этот материал дает базовые знания по теме современных видеоадаптеров, но он предназначен всё же для читателей с определенным уровнем знаний.

Важность видеокарты для игрового ПК

Несмотря на то, что определение слабого звена для игрового компьютера не всегда является простой задачей, чаще всего в низкой производительности будет виновата именно видеокарта, а не процессор или малый объем памяти (если только её не совсем мало). Да, существуют игры, которые при определенных условиях будут ограничены процессором (они называются «процессорозависимыми»), игры, которые сильно страдают от недостатка оперативной памяти, но в первую очередь, производительность игры зависит от видеокарты. И чем более высокие графические настройки в играх вы хотите использовать, тем большая нагрузка ляжет на неё, и тем большая зависимость будет от её производительности. Особенно к этому относятся такие настройки, как разрешение экрана, уровень антиалиасинга и анизотропной фильтрации, которые нагружают исключительно видеокарту.

Иногда бывает так, что на старых видеокартах в новые игры играть можно, и даже довольно быстро, но с минимальным качеством, из-за отсутствия поддержки установленной видеоплатой последних графических технологий. Можно оценить разницу между такими режимами для старых видеокарт и современных на примере игры STALKER: Clear Sky (слева DirectX 8, справа - DirectX 10).

  

Разница в получаемом изображении довольно велика, на вид это почти что две разные игры, с разным освещением и тенями. И в случае устаревшей видеокарты, играть во многие современные игры с максимальным качеством картинки получится только при смене видеоподсистемы. То же самое получится с видеокартами современными, но из нижнего ценового диапазона — они хотя и «умеют» всё, что от них требуется, но выполняют требуемое очень медленно для комфортной игры.

Мы еще не касаемся тех случаев, когда свежая игра вообще не запускается на компьютере, требуя поддержки некоторых возможностей, например — шейдеров последней версии. С подобной проблемой в 2006 году столкнулись пользователи видеокарт ATI поколения R3x0/R4x0 (то есть, начиная с RADEON 9500 и заканчивая RADEON X850 XT), в нескольких современных играх, к которым относятся Splinter Cell: Double Agent и Rainbow Six: Vegas. Им было отказано даже в запуске этих игр, так как они в обязательном порядке требуют поддержки Shader Model 3.0. Единственным выходом тут также является апгрейд видеокарты.

В общем, основной мыслью этой части статьи является такое выражение: «Никогда не экономьте на видеокарте для домашнего и/или игрового компьютера, она является самой важной деталью вашего ПК, если речь идет о современных 3D играх!» При выборе видеокарты для домашнего ПК, нужно стараться отвести максимальный бюджет именно для видеокарты, если только в самом ближайшем будущем не планируется очередное денежное вливание и покупка более мощной видеокарты. В таком случае, если не хватает денег на хорошую видеокарту сразу, оправданной может быть покупка системы с интегрированной графикой, но обязательно с возможностью установки внешней видеокарты! Во всех остальных случаях нужно выбирать самую мощную и дорогую в рамках запланированного бюджета (а если больше его — то еще лучше). Мало того, видеокарта игрового компьютера должна стоить дороже центрального процессора системы (CPU).

Несмотря на то, что идеального сочетания процессора и видеокарты не существует (если только не считать таковыми наиболее мощные CPU и видеокарту из тех, что есть в продаже на данный момент времени), есть диапазон сбалансированных сочетаний. Причем, от игры к игре разница есть, и она может быть заметной — существуют более процессорозависимые игры (автосимуляторы, стратегии) и менее процессорозависимые (шутеры от первого лица, аркадные автогонки), в которых нагрузка на CPU и GPU очень сильно разнится.

Итак, продолжим мысль о том, что видеокарта для современных игр важнее, чем всё остальное. Лучше иметь процессор средней производительности и мощную видеокарту, чем мощный процессор и среднюю видеокарту. На середину 2009 года, рекомендуемым минимумом для большинства игр являются CPU уровня младших моделей Intel Core 2 Duo E6x00/E8x00, а также AMD Athlon 64 X2 6000+ и выше.

В отличие от рекомендаций прошлого года, теперь мы не просто даже не упоминаем одноядерные центральные процессоры, но и рекомендуем присматриваться к трёх- и четырехъядерным. Хотя на данный момент оптимальной покупкой до сих пор являются двухъядерные процессоры, в некоторых игровых приложениях их мощности начинает не хватать. Примером может служить игра Grand Theft Auto IV, где четырёхъядерные процессоры значительно опережают CPU с двумя вычислительными ядрами.

Поэтому крайне желательно приобретать уже AMD Phenom 8x50 и Intel Core 2 Quad Q6600/Q8200, и выше. Для таких процессоров в составе игровых компьютеров рекомендуются как минимум mid-end видеокарты, так как покупать новую low-end видеокарту для 3D игр вообще неразумно, а приобретение наиболее дорогой high-end платы в такую систему будет не совсем оправдано.

Среди карт среднего уровня можно особо отметить ATI RADEON HD 4870 и GeForce GTX 260, которые сейчас являются одними из наиболее выгодных приобретений с достаточной производительностью. Более мощные видеокарты будут оправданы скорее в экстремально высоких разрешениях, а их мощность не будет раскрыта из-за относительно низкой производительности CPU. Ну а видеокарты низшего ценового диапазона вообще малопригодны для современных игр на максимальных настройках и с учетом некоторого времени полноценной жизни игровой системы. В самом крайнем случае стоит приобрести карты уровня GeForce 9800 GT или RADEON HD 4830, но никак не медленнее!

А для более мощных процессоров уровня Intel Core 2 Quad и AMD Phenom 9x50/Phenom II, лучше всего подойдут видеокарты из верхнего mid-end или нижнего high-end (про ценовые диапазоны написано во второй части статьи) секторов, то есть, самый минимум — RADEON HD 4870 и GeForce GTX 260, а лучше — GeForce GTX 285 или RADEON HD 4890. Само собой, для самых мощных CPU и видеокарты нужно брать самые быстрые, или даже двухчиповые. Верхнего предела тут нет, нижним будут GeForce GTX 260 и RADEON HD 4870. Оптимальным же решением в таком случае будет, на наш взгляд, модель GeForce GTX 285. Для тех, кто не боится недостатков двухчиповых систем: RADEON HD 4870 X2 и GeForce GTX 295.

Подводя краткий итог баланса между CPU и GPU, заметим, что видеокарта должна быть в 1.5-2.5 раза дороже, чем центральный процессор системы, для того, чтобы игровая система была сбалансирована. Оценка средняя и очень приблизительная, но прислушаться к совету стоит. Как и ознакомиться со статьями по исследованию процессорозависимости на нашем сайте:
www.ixbt.com/video2/0105i-video.shtml
www.ixbt.com/video2/0205i-video.shtml

Слоты расширения: PCI Express и AGP

При смене одной только видеокарты обязательно нужно учитывать, что новые модели могут просто не подходить к вашей материнской плате, так как существует не просто несколько разных типов слотов расширения, но несколько их версий (применительно и к AGP, и к PCI Express). Если вы не уверены в своих знаниях по этой теме, внимательно ознакомьтесь с разделом.

Как мы уже отметили выше, видеокарта вставляется в специальный разъем расширения на системной плате компьютера, через этот слот видеочип обменивается информацией с центральным процессором системы. На системных платах чаще всего есть слоты расширения одного-двух (реже трёх) разных типов, отличающихся пропускной способностью, параметрами электропитания и другими характеристиками, и не все из них подходят для установки видеокарт. Очень важно знать имеющиеся в системе разъемы и покупать только ту видеокарту, которая им соответствует. Разные разъемы расширения несовместимы физически и логически, и видеокарта, предназначенная для одного типа, в другой не вставится и работать не будет.

Мы не будем касаться ISA и VESA Local Bus слотов расширения и соответствующих им видеокарт, так как они безнадежно устарели, и не каждый специалист ныне знает о них что-то большее, чем их названия и то, что они когда-то существовали. Обойдем вниманием и слоты PCI, так как игровых видеокарт для них давно уж нет.

Современные графические процессоры используют только один тип интерфейса: PCI Express. Чуть раньше был распространён AGP. Эти интерфейсы отличаются друг от друга в основном пропускной способностью, предоставляемыми возможностями для питания видеокарты, а также другими менее важными характеристиками. Теоретически, чем выше пропускная способность интерфейса, тем лучше. Но практически, разница в пропускной способности даже в несколько раз не слишком сильно влияет на производительность, и пропускная способность интерфейса крайне редко является узким местом, ограничивающим производительность.

Лишь очень малая часть современных системных плат не имеет слотов AGP или PCI Express, единственной возможностью расширения для них является интерфейс PCI, видеокарты для которого весьма редки и попросту не подходят для домашнего компьютера. Рассмотрим два современных интерфейса подробнее, именно эти слоты вам нужно искать на своих системных платах. Смотрите фотографии и сравнивайте.

AGP

AGP

AGP

AGP (Accelerated Graphics Port или Advanced Graphics Port) — это высокоскоростной интерфейс, основанный на спецификации PCI, но созданный специально для соединения видеокарт и системных плат. Шина AGP лучше подходит для видеоадаптеров по сравнению с PCI (не Express!) потому, что она предоставляет прямую связь между центральным процессором и видеочипом, а также некоторые другие возможности, увеличивающие производительность в некоторых случаях, например, GART — возможность чтения текстур напрямую из оперативной памяти, без их копирования в видеопамять; более высокую тактовую частоту, упрощенные протоколы передачи данных и др.

В отличие от универсальной шины PCI, AGP используется только для видеокарт. Интерфейс имеет несколько версий, последняя из них — AGP 8x с пропускной способностью 2.1 Гб/с, что в 8 раз больше начального стандарта AGP с параметрами 32-бит и 66 МГц. Новых системных плат с AGP уже не выпускают, они окончательно уступили рынок решениям с интерфейсом PCI Express, но AGP до сих пор имеет широкое распространение и дает достаточную пропускную способность даже для новых видеочипов.

Спецификации AGP появились в 1997 году, тогда Intel выпустил первую версию описания, включающую две скорости: 1x и 2x. Во второй версии (2.0) появился AGP 4x, а в 3.0 — 8x. Рассмотрим все варианты подробнее:
AGP 1x — это 32-битный канал, работающий на частоте 66 МГц, с пропускной способностью 266 Мбайт/с, что в два раза выше полосы PCI (133 Мбайт/с, 33 МГц и 32-бит).
AGP 2x — 32-битный канал, работающий с удвоенной пропускной способностью 533 Мбайт/с на той же частоте 66 МГц за счет передачи данных по двум фронтам, аналогично DDR памяти (только для направления «к видеокарте»).
AGP 4x — такой же 32-битный канал, работающий на 66 МГц, но в результате дальнейших ухищрений была достигнута учетверенная «эффективная» частота 266 МГц, с максимальной пропускной способностью более 1 ГБ/с.
AGP 8x — дополнительные изменения в этой модификации позволили получить пропускную способность уже до 2.1 ГБ/с.

Видеокарты с интерфейсом AGP и соответствующие слоты на системных платах совместимы в определенных пределах. Видеокарты, рассчитанные на 1.5 В, не работают в 3.3 В слотах, и наоборот. Но существуют универсальные разъемы, которые поддерживают оба типа плат. Некоторые новые видеокарты из последних AGP серий, такие как NVIDIA GeForce 6 серии и ATI X800, имеют специальные ключи, не позволяющие установить их в старые системные платы без поддержки 1.5 В, а последние AGP карты с поддержкой 3.3 В — это NVIDIA GeForce FX 5x00 и часть из ATI RADEON 9x00, кроме основанных на R360.

При апгрейде старой AGP системы обязательно нужно учитывать возможную несовместимость разных версий слотов AGP. Бывает, что никаких проблем не возникает, но перед модернизацией видеосистемы стоит ознакомиться со статьей:

Совместимость стандартов AGP — установка современных видеокарт на старые системные платы

Краткая выжимка из этой статьи: новые видеокарты в старые системные платы можно пробовать вставлять без особого риска, в крайнем случае, система просто не заработает, в отличие от попытки установки старых видеокарт на новую материнскую плату, что может иметь печальные последствия. Для установки новых видеоплат на устаревшую системную, имеющую разъема AGP 1.0, нужно, чтобы новая видеокарта имела универсальный разъем AGP 1.0/2.0:

Но если новая видеокарта имеет разъем AGP 2.0, то заставить ее работать на старой системе не получится.

AGP 3.0 видеокарты имеют такой же разъем, как показан выше, и их можно устанавливать на материнские платы со слотом AGP 2.0. Существуют и видеокарты AGP 3.0 с универсальным разъемом, которые можно устанавливать в том числе и на системную плату с портом AGP 1.0.

Несмотря на то, что версии AGP действительно сильно отличаются друг от друга по теоретическим показателям, таким, как пропускная способность, более старый и медленный интерфейс тормозить работу видеокарты будет не сильно, разница в производительности в играх при режимах AGP 4x и AGP 8x составляет лишь несколько процентов, а то и еще меньше:

NVIDIA GeForce4 Ti 4200 with AGP8x (NV28) и GeForce4 MX 440 with AGP8x (NV18)

Посмотрите — теоретическая разница в пропускной способности отличается в два раза, но практические результаты тестов показывают отсутствие значительного преимущества AGP 8x решений по сравнению с AGP 4x вариантами.

Нужно отметить, что в переходный период смены слотов AGP на PCI Express выходили системные платы с гибридными решениями, предоставляющими так называемые слоты AGP Express. Эти слоты зачастую размещались совместно с PCI Express x16 слотом, но они не являются полноценными AGP слотами и работают на скорости обычных PCI слотов, что дает очень низкую скорость, позволяющую разве что переждать время перехода на полноценное PCI Express решение.

AGP Express

Про подобный продукт можно прочитать в статье:
Тестирование AGP-Express в исполнении ECS

Вообще же, видеокарты, рассчитанные на морально и физически устаревший слот AGP, в наших статьях давно не рассматриваются, поэтому мы ограничимся лишь написанным выше текстом и ссылкой на последние тесты AGP видеокарт на iXBT.com.

Последние из Могикан на базе AGP: GeForce 7800 GS, RADEON X1600 PRO, X1300

PCI Express

PCI Express

PCI Express

PCI Express (PCIe или PCI-E, не путать с PCI-X), ранее известная как Arapaho или 3GIO, отличается от PCI и AGP тем, что это последовательный, а не параллельный интерфейс, что позволило уменьшить число контактов и увеличить пропускную способность. PCIe — это лишь один из примеров перехода от параллельных шин к последовательным, вот другие примеры этого движения: HyperTransport, Serial ATA, USB и FireWire. Важное преимущество PCI Express в том, что он позволяет складывать несколько одиночных линий в один канал для увеличения пропускной способности. Многоканальность последовательного дизайна увеличивает гибкость, медленным устройствам можно выделять меньшее количество линий с малым числом контактов, а быстрым — большее.

Интерфейс PCIe пропускает данные на скорости 250 Мбайт/с на одну линию, что почти вдвое превышает возможности обычных слотов PCI. Максимально поддерживаемое слотами PCI Express количество линий — 32, что дает пропускную способность 8 ГБ/с. А PCIe слот с восемью рабочими линиями примерно сопоставим по этому параметру с быстрейшей из версий AGP —. Что еще больше впечатляет при учете возможности одновременной передачи в обоих направлениях на высокой скорости. Наиболее распространенные слоты PCI Express x1 дают пропускную способность одной линии (250 Мбайт/с) в каждом направлении, а PCI Express x16, который применяется для видеокарт, и в котором сочетается 16 линий, обеспечивает пропускную способность до 4 ГБ/с в каждом направлении.

Несмотря на то, что соединение между двумя PCIe устройствами иногда собирается из нескольких линий, все устройства поддерживают одиночную линию, как минимум, но опционально могут работать с большим их количеством. Физически, карты расширения PCIe входят и работают нормально в любых слотах с равным или большим количеством линий, так, PCI Express x1 карта будет спокойно работать в x4 и x16 разъемах. Также, слот физически большего размера может работать с логически меньшим количеством линий (например, на вид обычный x16 разъем, но разведены лишь 8 линий). В любом из приведенных вариантов, PCIe сам выберет максимально возможный режим, и будет нормально работать.

Чаще всего для видеоадаптеров используются разъемы x16, но есть платы и с x1 разъемами. А большая часть системных плат с двумя слотами PCI Express x16, работает в режиме x8 для создания SLI и CrossFire систем. Физически другие варианты слотов, такие как x4, для видеокарт не используются. Напоминаю, что всё это относится только к физическому уровню, попадаются и системные платы с физическими PCI-E x16 разъемами, но в реальности с разведенными 8, 4 или даже 1 каналами. И любые видеокарты, рассчитанные на 16 каналов, работать в таких слотах будут, но с меньшей производительностью. Кстати, на фотографии выше показаны слоты x16, x4 и x1, а для сравнения оставлен и PCI (снизу).

Хотя разница в играх получается не такой уж и большой. Вот, например, обзор двух системных плат на нашем сайте, в котором исследуется разница в скорости трехмерных игр на двух системных платах, пара тестовых видеокарт в которых работает в режимах 8 каналов и 1 канала соответственно:
www.ixbt.com/mainboard/foxconn/foxconn-mcp61vm2ma-rs2h-mcp61sm2ma-ers2h.shtml

Интересующее нас сравнение — в конце статьи, обратите внимание на две последние таблицы. Как видите, разница при средних настройках весьма небольшая, но в тяжелых режимах начинает увеличиваться, причем, большая разница отмечена в случае менее мощной видеоплаты. Примите это к сведению.

PCI Express отличается не только пропускной способностью, но и новыми возможностями по энергопотреблению. Эта необходимость возникла потому, что по слоту AGP 8x (версия 3.0) можно передать не более 40 с небольшим ватт суммарно, чего уже не хватало видеокартам последних поколений, рассчитанных для AGP, на которых устанавливали по одному или двух стандартным четырехконтактным разъемам питания (NVIDIA GeForce 6800 Ultra). По разъему PCI Express можно передавать до 75 Вт, а дополнительные 75 Вт получают по стандартному шестиконтактному разъему питания (см. последний раздел этой части). В последнее время появились видеокарты с двумя такими разъемами, что в сумме дает до 225 Вт.

PCI Express 2.0

В дальнейшем, группа PCI-SIG, которая занимается разработкой соответствующих стандартов, представила основные спецификации PCI Express 2.0. Вторая версия PCIe вдвое увеличила стандартную пропускную способность, с 2.5 Гб/с до 5 Гб/с, так что разъем x16 позволяет передавать данные на скорости до 8 ГБ/с в каждом направлении. При этом PCIe 2.0 совместим с PCIe 1.1, старые карты расширения будут нормально работать в новых системных платах, появление которых ожидается уже в 2007 году.

Спецификация PCIe 2.0 поддерживает как 2.5 Гб/с, так и 5 Гб/с скорости передачи, это сделано для обеспечения обратной совместимости с существующими PCIe 1.0 и 1.1 решениями. Обратная совместимость PCI Express 2.0 позволяет использовать прошлые решения с 2.5 Гб/с в 5.0 Гб/с слотах, которые просто будут работать на меньшей скорости. А устройство, разработанное по спецификациям версии 2.0, может поддерживать 2.5 Гб/с и/или 5 Гб/с скорости.

Основное нововведение в PCI Express 2.0 — это удвоенная до 5 Гб/с скорость, но это не единственное изменение, есть и другие нововведения для увеличения гибкости, новые механизмы для программного управления скоростью соединений и т.п. Нас больше всего интересуют изменения, связанные с электропитанием устройств, так как требования видеокарт к питанию неуклонно растут. В PCI-SIG разработали новую спецификацию для обеспечения увеличивающегося энергопотребления графических карт, она расширяет текущие возможности энергоснабжения до 225/300 Вт на видеокарту. Для поддержки этой спецификации используется новый 2x4-штырьковый разъем питания, предназначенный для обеспечения питанием будущие модели видеокарт.

Видеокарты и системные платы с поддержкой PCI Express 2.0 были анонсированы и появились в широкой продаже уже в 2007 году, и теперь на рынке других и не встретить. Оба основных производителя видеочипов, AMD и NVIDIA, выпустили осенью-зимой новые линейки GPU и видеокарт на их основе, поддерживающие увеличенную пропускную способность второй версии PCI Express и пользующиеся новыми возможностями по электрическому питанию для карт расширения. Естественно, все они обратно совместимы с системными платами, имеющими на борту слоты PCI Express 1.x. Хотя не очень частые случаи несовместимости всё же встречаются, нужно быть осторожным.

PCI Express External

В 2007 году группа PCI-SIG, занимающаяся официальной стандартизацией решений PCI Express, объявила о принятии спецификации PCI Express External Cabling 1.0, описывающих стандарт передачи данных по внешнему интерфейсу PCI Express 1.1. Эта версия позволяет передавать данные со скоростью 2.5 Гб/с, а следующая должна увеличить пропускную способность до 5 Гб/с. В рамках стандарта представлены четыре внешних разъема: PCI Express x1, x4, x8 и x16. Старшие разъемы оснащены специальным язычком, облегчающим подключение.

PCI Express External

Внешний вариант интерфейса PCI Express может использоваться не только для подключения внешних видеокарт, но и для внешних накопителей и других плат расширения. Максимальная рекомендованная длина кабеля при этом равна 10 метров, но её можно увеличить при помощи соединения кабелей через повторитель.

Чем это может быть полезно для видеокарт? Например, это точно может облегчить жизнь любителей ноутбуков, при работе от батарей будет использоваться маломощное встроенное видеоядро, а при подключении к настольному монитору — мощная внешняя видеокарта. Значительно облегчится апгрейд подобных видеокарт, не нужно будет вскрывать корпус ПК. Производители смогут делать совершенно новые системы охлаждения, не ограниченные особенностями карт расширения, да и с питанием должно быть меньше проблем — скорее всего, будут использоваться внешние блоки питания, рассчитанные специально на определенную видеокарту, их можно в один внешний корпус с видеокартой встроить, используя одну систему охлаждения. Должна облегчиться сборка систем на нескольких видеокартах (SLI/CrossFire). В общем, с учетом постоянного роста популярности мобильных решений, такие внешние PCI Express должны завоевать определенную популярность.

По состоянию на середину 2009 года, внешних вариантов видеокарт на рынке совсем мало. Их круг ограничен устаревшими моделями видеочипов и очень узким выбором совместимых ноутбуков. К сожалению, дело внешних видеокарт не пошло, и потихоньку заглохло. Не слышно уже даже победных PR заявлений от производителей ноутбуков...


В статье мы не трогаем устаревшие интерфейсы, их характеристики действительно сильно влияли на производительность даже в старые времена. Затем производители перешли на производство видеокарт, рассчитанных на интерфейс AGP (Accelerated Graphics Port), но его первой спецификации оказалось недостаточно, AGP 1.0 в некоторых случаях мог ограничивать производительность. Поэтому в дальнейшем стандарт модифицировали, версии 2.0 (AGP 4x) и 3.0 (AGP 8x) уже достигли высоких значений пропускной способности, выше которых скорость просто не росла.

Абсолютное большинство современных видеоплат рассчитано на интерфейс PCI Express 2.0, поэтому при выборе видеокарты мы предлагаем рассматривать только его, все данные о AGP приведены для справки. Хотя некоторые производители видеокарт по своей инициативе делают карты низшего уровня для интерфейса AGP даже до сих пор, но все они используют специальный мост для трансляции вызовов PCI Express в AGP, а новых видеочипов с поддержкой AGP давно не существует.

Итак, новые платы используют интерфейс PCI Express x16, объединяющий скорость 16 линий PCI Express, что дает пропускную способность до 4 (в случае PCI-E 2.0 - до 8) ГБ/с в каждом направлении, это примерно в два-четыре раза больше, по сравнению с той же характеристикой AGP 8x. Важное отличие состоит в том, что PCI Express работает с такой скоростью в каждом из направлений, поэтому в некоторых случаях PCI Express может дать преимущества по сравнению с AGP.

Будущего у AGP давно нет, этот интерфейс следует рассматривать только с точки зрения апгрейда, все новые системные платы поддерживают только PCI Express, производительные видеокарты с интерфейсом AGP не выпускаются, а те, что есть, труднее найти в продаже. Если речь о покупке новой платы или одновременной смене системной и видеоплаты, то просто необходимо покупать карты с интерфейсом PCI Express, он будет наиболее распространен еще несколько лет, а его вторая версия совместима с первой.

Основные характеристики видеокарт

Современные графические процессоры содержат множествофункциональных блоков, от количества и характеристик которых зависит и итоговая скорость рендеринга, влияющая на комфортность игры. По сравнительному количеству этих блоков в разных видеочипах можно примерно оценить, насколько быстр тот или иной GPU. Характеристик у видеочипов довольно много, в этом разделе мы рассмотрим самые важные из них.

Тактовая частота видеочипа

Рабочая частота GPU измеряется в мегагерцах, в миллионах тактов в секунду. Эта характеристика прямо влияет на производительность видеочипа, чем она выше, тем больший объем работы чип может выполнить в единицу времени, обработать большее количество вершин и пикселей. Пример из реальной жизни: частота видеочипа, установленного на плате RADEON HD 4870 равна 750 МГц, а точно такой же чип на RADEON HD 4850 работает на частоте в 625 МГц. Соответственно будут отличаться и все основные характеристики производительности. Но далеко не только рабочая частота чипа однозначно определяет производительность, на его скорость сильно влияет и архитектура: количество исполнительных блоков, их характеристики и т.п.

В некоторых случаях тактовая частота отдельных блоков GPU отличается от частоты работы остального чипа. То есть, разные части GPU работают на разных частотах, и сделано это для увеличения эффективности, ведь некоторые блоки способны работать на повышенных частотах, а другие — нет. Из свежих примеров можно назвать семейства GeForce GTX от NVIDIA, видеочип модели GTX 285 работает на частоте 648 МГц, но универсальные шейдерные блоки тактуются на значительно более высокой частоте — 1476 МГц.

Скорость заполнения (филлрейт)

Скорость заполнения показывает, с какой скоростью видеочип способен отрисовывать пиксели. Различают два типа филлрейта: пиксельный (pixel fill rate) и текстурный (texel rate). Пиксельная скорость заполнения показывает скорость отрисовки пикселей на экране и зависит от рабочей частоты и количества блоков ROP (блоков операций растеризации и блендинга), а текстурная — это скорость выборки текстурных данных, которая зависит от частоты работы и количества текстурных блоков.

Например, пиксельный филлрейт у GeForce GTX 275 равен 633 (частота чипа) * 28 (количество блоков ROP) = 17724 мегапикселей в секунду, а текстурный — 633 * 80 (кол-во блоков текстурирования) = 50640 мегатекселей/с. Чем больше первое число — тем быстрее видеокарта может отрисовывать готовые пиксели, а чем больше второе — тем быстрее производится выборка текстурных данных. Оба параметра важны для современных игр, но они должны быть сбалансированы. Именно поэтому количество блоков ROP в современных чипах обычно меньше количества текстурных блоков.

Количество блоков пиксельных шейдеров (или пиксельных процессоров)

Пиксельные процессоры — это одни из главных блоков видеочипа, которые выполняют специальные программы, известные также как пиксельные шейдеры. По числу блоков пиксельных шейдеров и их частоте можно сравнивать шейдерную производительность разных видеокарт. Так как большая часть игр сейчас ограничена производительностью исполнения пиксельных шейдеров (см. технологические обзоры игр), то количество этих блоков очень важно! Если одна модель видеокарты основана на GPU с 8 блоками пиксельных шейдеров, а другая из той же линейки — 16 блоками, то при прочих равных вторая будет вдвое быстрее обрабатывать пиксельные программы, и в целом будет производительнее. Но на основании одного лишь количества блоков делать однозначные выводы нельзя, обязательно нужно учесть и тактовую частоту и разную архитектуру блоков разных поколений и производителей чипов. Чисто по этим цифрам прямо можно сравнивать чипы только в пределах одной линейки одного производителя: AMD(ATI) или NVIDIA. В других же случаях нужно обращать внимание на тесты производительности в интересующих играх.

Количество блоков вершинных шейдеров (или вершинных процессоров)

Аналогично предыдущему пункту, эти блоки выполняют программы шейдеров, но уже вершинных. Данная характеристика важна для некоторых игр, но не так явно, как предыдущая, так как даже современными играми блоки вершинных шейдеров почти никогда не бывают загружены даже наполовину. И, так как производители балансируют количество разных блоков, не позволяя возникнуть большому перекосу в распределении сил, количеством вершинных процессоров при выборе видеокарты вполне можно пренебречь, учитывая их только при прочих равных характеристиках.

Количество унифицированных шейдерных блоков (или универсальных процессоров)

Унифицированные шейдерные блоки объединяют два типа перечисленных выше блоков, они могут исполнять вершинные, пиксельные, геометрические программы (также и другие типы, которые появятся в DirectX 11). Впервые унифицированная архитектура была применена в видеочипе игровой консоли Microsoft Xbox 360, этот графический процессор был разработан компанией ATI. А в видеочипах для персональных компьютеров унифицированные шейдерные блоки появились в плате NVIDIA GeForce 8800. Все DirectX 10 совместимые видеочипы основаны на подобной унифицированной архитектуре. Унификация блоков шейдеров значит, что код разных шейдерных программ (вершинных, пиксельных и геометрических) универсален, и соответствующие унифицированные процессоры могут выполнить любые программы из вышеперечисленных. Соответственно, в новых архитектурах число пиксельных, вершинных и геометрических шейдерных блоков как бы сливается в одно число — количество универсальных процессоров.

Блоки текстурирования (TMU)

Эти блоки работают совместно с шейдерными процессорами всех указанных типов, ими осуществляется выборка и фильтрация текстурных данных, необходимых для построения сцены. Число текстурных блоков в видеочипе определяет текстурную производительность, скорость выборки из текстур. И хотя в последнее время большая часть расчетов осуществляется блоками шейдеров, нагрузка на блоки TMU до сих пор довольно велика, и с учетом упора некоторых игр в производительность блоков текстурирования, можно сказать, что количество блоков TMU и соответствующая высокая текстурная производительность являются одними из важнейших параметров видеочипов. Особое влияние этот параметр оказывает на скорость при использовании трилинейной и анизотропной фильтраций, требующих дополнительных текстурных выборок.

Блоки операций растеризации (ROP)

Блоки растеризации осуществляют операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как мы уже отмечали выше, производительность блоков ROP влияет на филлрейт и это — одна из основных характеристик видеокарт всех времен. И хотя в последнее время её значение несколько снизилось, еще попадаются случаи, когда производительность приложений сильно зависит от скорости и количества блоков ROP (см. технологические обзоры игр). Чаще всего это объясняется активным использованием фильтров постобработки и включенным антиалиасингом при высоких игровых настройках.

Нужно еще раз отметить, что современные видеочипы нельзя оценивать только числом разнообразных блоков и их частотой. Каждая серия GPU использует новую архитектуру, в которой исполнительные блоки сильно отличаются от старых, да и соотношение количества разных блоков может отличаться. Компания ATI первой применила архитектуру, в которой количество блоков пиксельных шейдеров было в разы больше числа блоков текстурирования. В некоторых архитектурах нет отдельных пиксельных конвейеров, пиксельные процессоры не «привязаны» к блокам TMU.

Объем видеопамяти

Собственная память используется видеочипами для хранения необходимых данных: текстур, вершин, буферов и т.п. Казалось бы, что чем её больше — тем лучше. Но не всё так просто, оценка мощности видеокарты по объему видеопамяти — это наиболее распространенная ошибка! Значение объема памяти неопытные пользователи переоценивают чаще всего, используя его для сравнения разных моделей видеокарт. Оно и понятно — раз параметр, указываемый во всех источниках одним из первых, в два раза больше, то и скорость у решения должна быть в два раза выше, считают они. Реальность же от этого мифа отличается тем, что рост производительности растет до определенного объема и после его достижения попросту останавливается.

В каждой игре есть определенный объем видеопамяти, которого хватает для всех данных, и хоть 4 ГБ туда поставь — у нее не появится причин для ускорения рендеринга, скорость будут ограничивать исполнительные блоки, о которых речь шла выше. Именно поэтому во многих случаях видеокарта с 1 ГБ видеопамяти будет работать с той же скоростью, что и карта с 2 ГБ (при прочих равных условиях).

Ситуации, когда больший объем памяти приводит к видимому увеличению производительности, существуют, это очень требовательные игры в высоких разрешениях и при максимальных настройках. Но такие случаи до сих пор редки, поэтому, объем памяти учитывать нужно, но не забывая о том, что выше определенного объема производительность просто не растет, есть более важные параметры, такие как ширина шины памяти и ее рабочая частота. Подробнее о выборе объема видеопамяти читайте в последующих частях материала.

Ширина шины памяти

Ширина шины памяти является важнейшей характеристикой, влияющей на пропускную способность памяти (ПСП). Большая ширина позволяет передавать большее количество информации из видеопамяти в GPU и обратно в единицу времени, что положительно влияет на производительность в большинстве случаев. Теоретически, по 128-битной шине можно передать в два раза больше данных за такт, чем по 64-битной. На практике разница в скорости рендеринга хоть и не достигает двух раз, но весьма близка к этому во многих случаях с упором в пропускную способность видеопамяти.

Современные видеокарты используют разную ширину шины: от 64 до 512 бит, в зависимости от ценового диапазона и времени выпуска конкретной модели GPU. Для самых дешёвых low-end видеокарт чаще всего используется 64- и (значительно реже) 128-бит, для среднего уровня 128-бит и иногда 256-бит, ну а high-end видеокарты используют шины от 256 до 512 бит шириной. Частично потери в ПСП могут быть скомпенсированы установкой современных типов памяти (см. далее).

Частота видеопамяти

Еще одним параметром, влияющим на пропускную способность памяти, является её тактовая частота. А как мы поняли выше, повышение ПСП прямо влияет на производительность видеокарты в 3D приложениях. Частота шины памяти на современных видеокартах бывает от 500 МГц до 2000 МГц, то есть может отличаться в четыре раза. И так как ПСП зависит и от частоты памяти и от ширины ее шины, то память с 256-битной шиной, работающая на частоте 1000 МГц, будет иметь большую пропускную способность, по сравнению с 1400 МГц памятью с 128-битной шиной.

Рассмотрим относительную производительность видеокарт с разной пропускной способностью на примере видеокарт RADEON X1900 XTX и RADEON X1950 XTX, которые используют почти одинаковые GPU с одними характеристиками и частотой. Основные их отличия состоят в типе и частоте используемой памяти — GDDR3 на частоте 775(1550) МГц и GDDR4 на 1000(2000) МГц, соответственно.

Хорошо видно, как отстает карта с меньшей пропускной способностью памяти, хотя разница никогда не достигает теоретических 29%. Разница между достигнутой частотой кадров растет с увеличением разрешения, начинаясь с 8% в 1024x768 и достигая 12-13% в максимальных режимах. Но это сравнение видеокарт с небольшой разницей в ПСП, а особенное внимание на параметры ширины шины памяти и частоты ее работы следует уделять при покупке недорогих видеокарт, на многие из которых ставят лишь 64-битные интерфейсы, что сильно сказывается на их производительности. Вообще, покупка решений на базе 64-бит шины для игр вовсе не рекомендуется.

Типы памяти

На видеокарты устанавливают несколько различных типов памяти. Старую SDR память с одинарной скоростью передачи мы рассматривать не будем, её уже почти нигде не встретишь. Все современные типы памяти DDR и GDDR позволяют передавать в два или четыре раза большее количество данных на той же тактовой частоте за единицу времени, поэтому цифру её рабочей частоты зачастую указывают удвоенной или учетверённой (умножают на 2 или 4). Так, если для DDR памяти указана частота 1400 МГц, то эта память работает на физической частоте в 700 МГц, но указывают так называемую «эффективную» частоту, то есть ту, на которой должна работать SDR память, чтобы обеспечить такую же пропускную способность.

Основное преимущество DDR2 памяти заключается в возможности работы на больших тактовых частотах, а соответственно — увеличении пропускной способности по сравнению с предыдущими технологиями. Это достигается за счет увеличенных задержек, которые, впрочем, не так важны для видеокарт. Первой платой, использующей DDR2 память, стала NVIDIA GeForce FX 5800 Ultra. По сути, на ней стояла GDDR2 память, которая не настоящая DDR2, а нечто среднее между технологиями DDR и DDR2. После применения GDDR2 в серии GeForce FX 5800, последующие видеокарты NVIDIA использовали DDR память, но эта память получила дальнейшее распространение в GeForce FX 5700 Ultra и в некоторых более поздних mid-end видеокартах. С тех пор технологии графической памяти продвинулись дальше, был разработан стандарт GDDR3, который близок к спецификациям DDR2, с некоторыми изменениями, сделанными специально для видеокарт.

GDDR3 — это специально предназначенная для видеокарт память, с теми же технологиями, что и DDR2, но с улучшениями характеристик потребления и тепловыделения, что позволило создать микросхемы, работающие на более высоких тактовых частотах. И опять же, несмотря на то, что стандарт был разработан в ATI, первой видеокартой, ее использующей, стала вторая модификация NVIDIA GeForce FX 5700 Ultra, а следующей стала GeForce 6800 Ultra.

GDDR4 — это дальнейшее развитие «графической» памяти, работающее почти в два раза быстрее, чем GDDR3. Основными отличиями GDDR4 от GDDR3, существенными для пользователей, являются в очередной раз повышенные рабочие частоты и сниженное энергопотребление. Технически, память GDDR4 не сильно отличается от GDDR3, это дальнейшее развитие тех же идей. Первыми видеокартами с чипами GDDR4 на борту стали ATI RADEON X1950 XTX, а от компании NVIDIA продукты на базе этого типа памяти не выходили вовсе. Преимущества новых микросхем памяти перед GDDR3 в том, что энергопотребление модулей может быть примерно на треть ниже. Это достигается за счет более низкого номинального напряжения для GDDR4.

Впрочем, GDDR4 не получила широкого распространения даже у AMD(ATI). Начиная с GPU семейства RV7x0, контроллерами памяти видеокарт поддерживается новый тип памяти GDDR5, работающий на эффективно учетверённой частоте до 4 ГГц и выше (теоретически предполагается до 7 ГГц), что даёт пропускную способность до 120 ГБ/с с применением 256-битного интерфейса. Если для повышения ПСП у GDDR3/GDDR4 памяти приходилось использовать 512-битную шину, переход на использование GDDR5 позволяет увеличить производительность вдвое при меньших размерах чипов и меньшем потреблении энергии. Первые чипы поддерживают напряжение 1.5 В (в отличие от 2.0 В для GDDR3, к примеру) и предлагают скорости до 1000*4=4.0 ГГц.

Итак, видеопамять самых современных типов: GDDR3 и GDDR5, отличается от DDR некоторыми деталями, но также работает с удвоенной/учетверённой передачей данных. В ней применяются некоторые специальные технологии, позволяющие поднять частоту работы. Так, GDDR2 память обычно работает на более высоких частотах, по сравнению с DDR, GDDR3 — на еще более высоких, а GDDR5 обеспечивает максимальную частоту и пропускную способность на данный момент.

Разъемы для подключения устройств вывода

На выбор видеокарты может повлиять и имеющийся или предполагаемый к приобретению монитор. Так, для современных LCD мониторов с DVI входом очень желательно, чтобы на видеокарте был разъем DVI. К счастью, практически на всех современных решениях сейчас есть как минимум один порт DVI. Еще одна тонкость в том, что если требуется разрешение выше 1920х1200 по цифровому выходу DVI (такие мониторы редки и дороги, но они существуют), тогда нужно обязательно иметь видеокарту с поддержкой Dual-Link DVI, то есть, начиная с семейств ATI RADEON X1000 и NVIDIA GeForce 7, и выше. Рассмотрим основные разъемы, использующиеся для подключения устройств отображения информации.

Аналоговый D-Sub разъем (также известен как VGA выход или DB-15F)

D-Sub

D-Sub

Это давно известный нам и привычный 15-контактный разъем для подключения аналоговых мониторов. Сокращение VGA расшифровывается как video graphics array (массив пикселей) или video graphics adapter (видеоадаптер). Разъем предназначен для вывода аналогового сигнала, на качество которого может влиять множество разных факторов, таких, как качество RAMDAC и аналоговых цепей, поэтому качество получаемой картинки может отличаться на разных видеокартах. Современные видеокарты обычно используют качественные компоненты и дают четкую картинку на всех поддерживаемых разрешениях, а вот старые видеоплаты в высоких разрешениях могли давать некачественную картинку.

Разъемы D-Sub были фактически единственным стандартом до времени широкого распространения LCD мониторов. Такие выходы до сих пор чаще всего используются для подключения мониторов на электронно-лучевых трубках, да и на современных телевизорах и проекторах они встречаются и по сей день, даже игровая консоль последнего поколения от Microsoft предлагает именно такой метод подключения. Но для подключения LCD мониторов рекомендуется использовать цифровые интерфейсы, самый распространенный из которых DVI.

Разъем DVI (вариации: DVI-I и DVI-D)

DVI

DVI

DVI — это стандартный интерфейс, чаще всего использующийся для вывода цифрового видеосигнала на ЖК мониторы, начиная с 19" моделей, за исключением самых дешевых. На фотографии показана видеокарта с тремя разными разъемами: D-Sub, S-Video и DVI. Существует три типа DVI разъемов: DVI-D (цифровой), DVI-A (аналоговый) и DVI-I (integrated — комбинированный или универсальный):

DVI-D — исключительно цифровое подключение, позволяющее избежать потерь в качестве из-за двойной конвертации цифрового сигнала в аналоговый и из аналогового в цифровой. Этот тип подключения предоставляет максимально качественную картинку, он выводит сигнал только в цифровом виде, к нему могут быть подключены цифровые LCD мониторы с DVI входами или профессиональные ЭЛТ-мониторы с встроенным RAMDAC и входом DVI. От DVI-I этот разъем отличается физическим отсутствием части контактов, и переходник DVI-2-D-Sub, о котором речь пойдет далее, в него не воткнуть. Чаще всего этот тип DVI применяется в системных платах с интегрированным видеоядром, на видеокартах он встречается значительно реже.

DVI-A — это довольно редкий тип аналогового подключения по DVI, предназначенного для вывода аналогового изображения на ЭЛТ приемники. В этом случае сигнал ухудшается из-за двойного цифрово-аналогового и аналогово-цифрового преобразования, его качество соответствует качеству стандартного VGA подключения.

DVI-I — это комбинация двух вышеописанных вариантов, способная на передачу как аналогового сигнала, так и цифрового. Этот тип применяется в видеоплатах наиболее часто, он универсален и при помощи специальных переходников, идущих в комплекте поставки большинства видеокарт, к нему можно подключить и обычный аналоговый ЭЛТ-монитор с DB-15F входом. Вот как выглядят эти переходники:

DVI-to-D-Sub

Во всех современных видеокартах есть хотя бы один DVI выход, а чаще всего универсальных DVI-I разъема ставят по два, а D-Sub вообще отсутствуют (но их можно подключать при помощи переходников, см. выше). Для передачи цифровых данных используется или одноканальное решение DVI Single-Link, или двухканальное — Dual-Link. Формат передачи — Single-Link использует один 165 МГц TMDS передатчик, а Dual-Link — два, он удваивает пропускную способность и позволяет получать разрешения экрана выше, чем 1920x1080 и 1920x1200 на 60 Гц, поддерживая режимы очень высокого разрешения, вроде 2560x1600 и 2048x1536. Поэтому для самых крупных LCD мониторов с большим разрешением, таких, как 30" модели, обязательно нужна видеокарта с двухканальным DVI Dual-Link выходом.

Разъем HDMI

В последнее время широкое распространение получил новый бытовой интерфейс — High Definition Multimedia Interface. Этот стандарт обеспечивает одновременную передачу визуальной и звуковой информации по одному кабелю, он разработан для телевидения и кино, но и пользователи ПК могут использовать его для вывода видеоданных при помощи HDMI разъема.

HDMI

HDMI

На фото слева — HDMI, справа — DVI-I. Хотя HDMI выходы на видеокартах встречаются не очень часто, но таких моделей всё больше, особенно в случае видеокарт среднего уровня, предназначенных для создания медиацентров. Просмотр видеоданных высокого разрешения на компьютере требует видеокарты и монитора, поддерживающих систему защиты содержимого HDCP, и соединенных кабелем HDMI или DVI. Видеокарты не обязательно должны нести разъем HDMI на борту, в остальных случаях подключение HDMI кабеля осуществляется через переходник на DVI:

HDMI

HDMI — это очередная попытка стандартизации универсального подключения для цифровых аудио- и видеоприложений. Оно сразу же получило мощную поддержку со стороны гигантов электронной индустрии (в группу компаний, занимающихся разработкой стандарта, входят такие компании, как Sony, Toshiba, Hitachi, Panasonic, Thomson, Philips и Silicon Image), и большинство современных устройств вывода высокого разрешения имеет хотя бы один такой разъем. HDMI позволяет передавать защищенные от копирования звук и изображение в цифровом формате по одному кабелю, стандарт первой версии основывается на пропускной способности 5 Гб/с, а HDMI 1.3 расширил этот предел до 10.2 Гб/с.

HDMI 1.3 — это свежая спецификация стандарта с увеличенной пропускной способностью интерфейса, увеличенной частотой синхронизации до 340 МГц, что позволяет подключать дисплеи высокого разрешения, поддерживающие большее количество цветов (форматы с глубиной цвета вплоть до 48-бит). Новой версией спецификации определяется и поддержка новых стандартов Dolby для передачи сжатого звука без потерь в качестве. Кроме этого, появились и другие нововведения, в спецификации 1.3 был описан новый разъем mini-HDMI, меньший по размеру по сравнению с оригинальным.

mini-HDMI

В принципе, наличие разъема HDMI на видеокарте совершенно необязательно, его с успехом заменяет переходник с DVI на HDMI. Он несложен и поэтому прилагается в комплекте большинства современных видеокарт. Мало того — на видеокартах серий RADEON HD 2000 и выше по DVI через специальный переходник на HDMI выводятся и видео- и аудиоданные, так как формат цифровой, а его полосы пропускания хватает и на видео и на звук одновременно.

Встроенный на карту аудиочип, необходимый для поддержки передачи звука по HDMI, стал одним из ожидаемых решений в серии RADEON HD 2000. На видеокартах с видеочипами семейств R6xx, R7xx нет необходимости во внешнем аудиорешении и соответствующих соединительных кабелях, и передавать аудиосигнал с внешней звуковой карты не нужно. Передача видео- и аудиосигнала по одному HDMI разъему востребована прежде всего на картах среднего и низшего уровней, которые устанавливают в маленькие и тихие баребоны, используемые в качестве медиацентров. Из-за встроенного аудио, видеокарты RADEON HD 2400 и HD 2600 имеют определенное преимущество для сборщиков подобных мультимедийных центров.

Разъем DisplayPort

Вероятно, на смену распространенным видеоинтерфейсам VGA и DVI должен прийти интерфейс DisplayPort. Single-Link DVI передаёт видеосигнал с разрешением до 1920 х 1080 пикселей, частотой 60 Гц и 8-бит на компоненту цвета, Dual-Link позволяет передавать 2560 х 1600 на частоте 60 Гц, а уже 3840 х 2400 пикселей при тех же условиях для Dual-Link DVI недоступны. У HDMI почти те же ограничения, версия 1.3 поддерживает передачу сигнала 2560 х 1600 точек с частотой 60 Гц и 8-бит на компоненту цвета, ну а на низких разрешениях — и 16-бит. Хотя максимальные возможности у DisplayPort немногим больше, чем у Dual-Link DVI, всего 2560 х 2048 пикселей при 60 Гц и 8-бит на цветовой канал, но есть поддержка 10-бит на канал при разрешении 2560 х 1600, а также 12-бит для 1080p.

DisplayPort — это новый цифровой видеоинтерфейс, первая версия которого была принята VESA (Video Electronics Standards Association) весной 2006 года. Она определяет новый универсальный цифровой интерфейс, не подлежащий лицензированию и не облагаемый выплатами, предназначенный для соединения компьютеров и мониторов, а также другой мультимедийной техники. В группу VESA DisplayPort, продвигающую стандарт, входят крупные производители электроники: AMD, NVIDIA, Dell, Genesis Microchip, HP, Intel, Lenovo, Molex, Philips, Samsung.

Основным соперником DisplayPort является разъём HDMI с поддержкой защиты от записи HDCP, хотя он предназначен скорее для соединения бытовых цифровых устройств, вроде плееров и HDTV панелей. Ещё одним конкурентом раньше можно было назвать Unified Display Interface — менее дорогую альтернативу разъёмам HDMI и DVI, но основной её разработчик, компания Intel, отказалась от продвижения стандарта в пользу DisplayPort.

Отсутствие лицензионных выплат важно для производителей, ведь за использование в своей продукции интерфейса HDMI они обязаны выплачивать лицензионные сборы организации HDMI Licensing, которая затем делит средства между держателями прав на стандарт: Panasonic, Philips, Hitachi, Silicon Image, Sony, Thomson и Toshiba. Отказ от HDMI в пользу аналогичного «бесплатного» универсального интерфейса сэкономит производителям видеокарт и мониторов приличные средства, понятно, почему им DisplayPort понравился.

Технически, разъём DisplayPort поддерживает до четырёх линий для передачи данных, по каждой из которых можно передавать 1.62 или 2.7 гигабит/с. Поддерживаются режимы с глубиной цвета от 6 до 16 бит на цветовой канал. Дополнительный двунаправленный канал, предназначенный для передачи команд и управляющей информации, работает на скорости 1 мегабит/с, и используется для обслуживания работы основного канала, а также передачи сигналов VESA EDID и VESA MCCS. Также, в отличие от DVI, тактовый сигнал передаётся по сигнальным линиям, а не отдельным, и декодируется приёмником.

DisplayPort имеет опциональную возможность защиты контента от копирования DPCP (DisplayPort Content Protection), разработанную компанией AMD и использующую 128-битное AES кодирование. Передаваемый видеосигнал не совместим с DVI и HDMI, но по спецификации допускается их передача. На данный момент DisplayPort поддерживает максимальную скорость передачи данных 10.8 гигабит/с и WQXGA разрешение (2560 x 1600) при помощи интерфейсного кабеля длиной до трёх метров.

Обновленная версия стандарта — 1.1, появилась через год после 1.0, в 2007 году. Её нововведениями стала поддержка защиты от копирования HDCP, важная при просмотре защищенного контента с дисков Blu-ray и HD-DVD, и поддержка волоконно-оптических кабелей в дополнение к обычным медным. Последнее позволяет передавать сигнал ещё на большие расстояния без потерь в качестве. Также планируется выпуск версии 2.0, но про него пока что мало известно, кроме того, что там появится поддержка ещё больших разрешений, таких как 3840 x 2400.

Основные отличительные особенности DisplayPort: открытый и расширяемый стандарт; поддержка форматов RGB и YCbCr; поддержка глубины цвета: 6, 8, 10, 12 и 16 бит на цветовую компоненту; передача полного сигнала (2560 х 2048) на 3 метра, а 1080p — на 15 метров; поддержка 128-битного AES кодирования DisplayPort Content Protection, а также 40-битного High-bandwidth Digital Content Protection (HDCP 1.3); большая пропускная способность по сравнению с Dual-Link DVI и HDMI; передача нескольких потоков по одному соединению (планируется в будущих версиях); совместимость с DVI, HDMI и VGA при помощи переходников; простое расширение стандарта под изменяющиеся потребности рынка; внешнее (видеокарта к монитору) и внутреннее присоединение (подсоединение LCD панели в ноутбуке, замена внутренним LVDS соединениям).

Внешний разъем DisplayPort имеет 20 контактов, его физический размер можно сравнить со всем известными разъёмами USB. Новый тип разъёма уже можно увидеть на некоторых современных видеокартах и мониторах. Внешне он похож и на HDMI, и на USB, но также может быть оснащён защёлками на разъёмах, аналогичным тем, что предусмотрены в Serial ATA.

DisplayPort

Перед тем как AMD купила компанию ATI, последняя сообщила о поставках видеокарт с разъёмами DisplayPort уже в начале 2007 года, но слияние компаний отодвинуло это появление на какое-то время. В дальнейшем AMD объявила DisplayPort стандартным разъёмом в рамках платформы Fusion, подразумевающей унифицированную архитектуру центрального и графического процессоров в одном чипе, а также будущих мобильных платформ, выходящих в наступившем году.

В июле 2007 года AMD объявила о поддержке DisplayPort выходящими продуктами на основе чипсета RS780 и видеочипов RV670, но для этого должны были использоваться внешние трансмиттеры. Включение которых в состав чипа было выполнено в дальнейшем в GPU, известных как RV635 и RV620. NVIDIA не отстаёт, и первые видеокарты от обоих производителей постепенно начали появляться в продаже (GeForce 8800 GT и RADEON HD 3650, HD 3470, HD 3450 и далее).

DisplayPort

Из производителей мониторов, объявивших о поддержке и анонсировавших DisplayPort продукты, можно отметить Samsung и Dell. Так, новые мониторы Dell: 3008WFP с размером диагонали экрана в 30 дюймов, и 24-дюймовый 2408WFP, обладают поддержкой и HDMI и DisplayPort, и уже доступны в продаже. Существование в них сразу двух интерфейсов объясняется переходным периодом и тем, что в цене больших LCD мониторов влияние стоимости лицензионных отчислений за HDMI просто незаметно.

Уже существуют и переходники DisplayPort-to-HDMI и DisplayPort-to-DVI, а также DisplayPort-to-VGA, преобразующий цифровой сигнал в аналоговый. То есть, даже в случае присутствия на видеокарте исключительно разъёмов DisplayPort, их можно будет подключить к любому типу монитора.

Кроме вышеперечисленных разъёмов, на современных видеокартах часто встречаются композитный и S-Video (S-VHS) разъемы с четырьмя или семью штырьками. Чаще всего они используются для вывода сигнала на телевизионные приемники, и даже на S-Video композитный сигнал зачастую получают смешиванием, что негативно влияет на качество картинки. S-Video лучше по качеству, чем композитный «тюльпан», но оба они уступают компонентному выходу YPbPr. Этот стандартный выход предусматривает три раздельных разъема типа «тюльпан» (Y, Pb и Pr), по которым передается разделенная цветовая информация. Такой разъем есть на многих мониторах и телевизорах высокого разрешения, и хотя сигнал по нему передается в аналоговой форме, по качеству он сравним с D-Sub интерфейсом. Для вывода некоторых разъемов из перечисленных в этом абзаце, производители видеокарт используют специальные переходники-разветвители.

Выбор ценового диапазона

В продолжение темы о необходимости приобретения мощной видеокарты для игрового компьютера, рассмотрим ценовые диапазоны, сложившиеся на рынке видеоплат. В новых линейках производители обычно выпускают по несколько моделей для разных ценовых уровней. Решения начального уровня стоят дешевле всего, они поддерживают почти все функции старших чипов, но являются самыми медленными. Медленными настолько, что всех их возможностей иногда хватает только на то, чтобы запустить современную игру, но не играть в неё комфортно, не говоря уже про высокие настройки качества и разрешение экрана. Приобретение таких плат разумно только в условиях очень сильно ограниченного бюджета и/или отсутствия желания играть в современные игры.

С другой стороны, верхние модели линеек всегда стоят слишком много с точки зрения среднего пользователя (цены в $600-700 уже давно никого не удивляют), и их выбор нужно делать, хорошо подумав. Ведь нет ничего хорошего в одновременном приобретении топовой видеокарты и недоедании из-за этого :). Самые производительные из видеокарт дадут возможность выставления максимальных настроек при сохранении высокой производительности во всех играх, и позволят отодвинуть сроки следующего апгрейда далеко вперёд, но стоимость их для большинства покупателей слишком высока.

Наиболее массовыми и чаще всего имеющими наилучшее соотношение цены и производительности, являются видеокарты среднего ценового диапазона. Они находятся посередине между решениями начального уровня и топовыми, обеспечивают приемлемую производительность и стоят не слишком дорого. Но для апгрейда или покупки новой видеокарты я бы все же советовал брать как минимум решения из так называемого верхнего mid-end диапазона (а то и нижнего high-end, если хватает денег), чтобы иметь хоть какой-то запас на будущее. Иначе захочется сменить видеокарту уже через год-полтора.

Кстати, при выходе новых линеек видеокарт не стоит навсегда забывать о старых. Так, решение из верхнего диапазона прошлой линейки может оказаться производительнее и выгоднее новой видеокарты среднего ценового диапазона. Даже с учетом того, что последняя имеет новые возможности, одинаковые для всей линейки, зачастую может оказаться так, что они вам просто не понадобятся. Но если отличия новой линейки значительны, в них появилась аппаратная поддержка более новых версий DirectX и версий шейдерных моделей, то в новый компьютер не стоит устанавливать устаревшую видеокарту, лучше будет поднапрячься и купить модель среднего диапазона из самой свежей линейки. В обратном случае, менять видеокарту, скорее всего, придется гораздо раньше, чем планировалось изначально.

Приведем пример подобного — в 2006 году владельцы видеокарт ATI RADEON X800 и X850 столкнулись с тем, что некоторые современные игры (Splinter Cell: Double Agent и Rainbow Six: Vegas) просто не работают на их, казалось бы, довольно производительных системах. А на менее производительных из низшего ценового диапазона конкурента — работают, хотя и медленно. Всё дело в том, что год-два назад у этих пользователей был выбор между решениями NVIDIA с поддержкой SM 3.0 и решениями ATI без таковой. Тогда казалось, что игры, требующие SM 3.0 в обязательном порядке, не появятся в обозримом времени, и они приобрели изделия на базе видеочипов ATI. В реальности получилось иначе. Отсюда урок — всегда обращайте внимание на поддерживаемые видеокартой возможности и версии DirectX, но не считайте эту поддержку главным свойством видеокарт, обращайте внимание и на производительность, оценивайте продукт комплексно!

Разделение видеокарт на ценовые диапазоны:

  • low-end с ценой менее $99 (GeForce 9600 GT, GeForce 9800 GT, RADEON HD 4670, RADEON HD 4770)
  • нижний mid-end — $100-199 (GeForce GTS 250, GeForce GTX 260, RADEON HD 4850, RADEON HD 4870)
  • верхний mid-end — $200-299 (GeForce GTX 275, RADEON HD 4890)
  • нижний high-end — $300-499 (GeForce GTX 285, GeForce GTX 295, RADEON HD 4870 X2)
  • верхний high-end — от $500 и выше (SLI и CrossFire системы)

Примеры видеокарт по ценовым диапазонам приведены на момент обновления статьи, в дальнейшем они будут корректироваться. За основные цены в данном случае взяты те, которые рекомендуются производителем для розницы, так называемые MSRP. Розничные цены на нашем рынке (в Москве) также будут приводиться далее в тексте, на них основана последняя часть путеводителя — практические рекомендации по покупке видеокарты для всех ценовых диапазонов.

Несмотря на то, что low-end не имеет нижней границы, по сути, по цене ниже $50 уже нет достойных видеокарт, и если уж очень хочется приобрести видеокарту именно из этого диапазона (то есть, подразумевая, что покупатель не планирует запуска современных 3D игр на компьютере вообще), то имеет смысл обратить внимание на интегрированную в чипсеты графику. Она поддерживает многие из возможностей отдельных видеокарт, но не обладает достаточным 3D быстродействием, в точности как и самые медленные из выделенных.

Обзоры с тестами интегрированных видеоядер можно посмотреть в соответствующем разделе сайта iXBT.com: Платформа ПК

Ну а те видеоплаты, что продаются по ценам выше $500 — это решения для энтузиастов, которые могут себе позволить выложить за видеокарту не одну сотню в условных единицах. Отдельным примером тут являются системы SLI и CrossFire, которые позволяют объединять в одной системе две (в некоторых случаях даже и более) видеокарты одной модели.

Ещё раз подчеркнем, что от выбора ценового диапазона видеокарты игрового компьютера зависит очень многое. Этот выбор определяет то, насколько комфортно вам будет играть, и какое качество изображения при этом будет. Для того чтобы вы лучше осознали разницу между игрой на видеокартах с разными возможностями и из разных ценовых диапазонов, я приведу несколько скриншотов, показывающих разницу в качестве при разных настройках.

Call of Duty 2

  


Call of Juarez

  

Некоторые могут возразить и сказать, что нет большой разницы между показанными скриншотами. Подумаешь, нет теней, постобработки, освещение примитивное, отсутствует попиксельная обработка, текстуры похуже, играть ведь это не мешает... На что я могу лишь заметить, что из таких мелочей и собирается реалистичная картинка, когда отсутствие даже одной из приведенных составляющих может испортить всю картину.

Мы же стремимся к реалистичности и максимальному качеству, а кто этого не хочет, тот вполне может довольствоваться и дешевыми видеокартами. В общем, каждый волен думать и выбирать сам. Но учтите, что эти скриншоты еще не показывают разницу в разных разрешениях экрана, уровнях антиалиасинга и сняты не на крайних минимальных и максимальных настройках. В реальности разница может оказаться еще большей. Например, такой:

Gothic 3

  

Вот это уже экстремальный случай, со сравнением минимальных настроек и максимальных. Кстати, конкретно в Gothic 3 на интегрированном видео и на low-end видеокартах вы вряд ли поиграете даже с минимальными настройками, так как банально не хватит производительности. Кстати, относительную производительность решений разного ценового уровня можно легко оценить по следующему графику из 3DGiТогов:

Были взяты по две видеокарты ATI и NVIDIA разных ценовых диапазонов, чтобы никому обидно не было. Как видите, производительность видеокарт хорошо масштабируется в зависимости от их ценового уровня. На видеокарте за $100 можно поиграть только в самом низком разрешении, да еще и без особого комфорта (при том, что видеокарты самого низкого уровня мы в расчет вообще не брали!), верхний mid-end дает возможность комфортной игры в более высоком разрешении, ну а high-end модели предоставляют комфортную частоту кадров даже в самых высоких разрешениях, вплоть до 2560x1600. Всё это, конечно, при условии максимальных настроек качества.

SLI и CrossFire

Многие современные системные платы и платформы допускают одновременную установку двух видеокарт, что позволяет получить увеличенную производительность видеосистемы. Причем, сначала можно приобрести одну видеокарту, дополнив систему второй при дальнейшем апгрейде. Такой метод модернизации видеоподсистемы имеет как свои плюсы, так и минусы. Вопросы работы таких конфигураций непросты, существует несколько ограничений и нюансов, которые подробно рассмотрены в материалах соответствующего раздела нашего сайта:
Тестирование NVIDIA SLI
Самый мощный в мире тандем 2x7800 GTX 2x512MB SLI
Технология ATI CrossFire: асимметричный ответ на NVIDIA SLI
ATI CrossFire на базе RADEON X1900 XT
CrossFire на базе ATI Xpress 3200 (RD580)

Использование нескольких игровых видеокарт в одной системе было впервые осуществлено компанией 3dfx в далеких 90-х. Еще тогда 3dfx вышла на рынок с видеокартами Voodoo 2, имеющими возможность парной работы над одной и той же сценой при помощи технологии SLI. После этого, технологии многочиповой работы игровых видеокарт широкого распространения не получили, хотя те же 3dfx и ATI выпускали подобные системы для профессиональных применений. На бытовой рынок технология вернулась с появлением NVIDIA SLI и ATI CrossFire. Первая вышла раньше и получила значительно большее распространение, в силу своего удобства (отсутствия необходимости в специальных моделях видеокарт, подобно CrossFire Edition) и более раннего выхода.

Решения с применением пары видеокарт или двухчиповые платы имеют плюсы и минусы. Из плюсов — повышение производительности и/или качества изображения, SLI/CF действительно помогают увеличить скорость, когда из одиночной карты выжато уже всё, а в некоторых случаях можно и улучшить качество картинки при помощи новых режимов антиалиасинга. Явные же минусы таких решений в их высокой стоимости (платить придется за две видеокарты, подбирать специальную системную плату, которая дороже стоит), во встречающихся проблемах совместимости (не во всех играх можно получить увеличение производительности или качественные улучшения), в два раза более высокий уровень энергопотребления и тепловыделения, который может привести к необходимости смены блока питания системы и улучшению схемы охлаждения ПК.

Самый важный недостаток SLI и CF — отсутствие двукратного прироста производительности во всех приложениях. Две платы в совместной работе хотя и дают прирост производительности, но он чаще всего составляет 1.5-1.7 раза, а иногда и того меньше. В некоторых случаях прироста скорости нет вообще или он отрицательный, если в драйверах не сделана специальная оптимизация для конкретной игры. Именно поэтому конфигурации SLI и CrossFire на базе недорогих видеоплат оправдываются только в случае последующего «быстрого» апгрейда — покупки дополнительной видеокарты, соответствующей уже имеющейся. В случае же покупки новой системы, более дорогое одиночное решение будет всегда быстрее и удобнее пары дешевых плат. SLI и CrossFire имеют смысл только в тех случаях, когда производительность нужна любой ценой!

Кроме того, для SLI нужны только специальные системные платы, основанные на чипсетах NVIDIA с поддержкой SLI, а для CrossFire подойдут только платы на соответствующих чипсетах ATI(AMD) и некоторых наборах логики производства компании Intel, имеющие на борту два физических PCI Express x16 слота. Эти платы чаще всего из верхнего ценового сегмента, и стоят соответствующе.

В случае с некоторыми устаревшими системами CrossFire дело дополнительно осложняется необходимостью применения специальной версии графической карты, имеющей специальный разъем — CrossFire Edition. У NVIDIA SLI изначально таких проблем нет, для соединения двух обычных карт используется специальная плата, а также слоты PCI Express.

Компания ATI сделала подобное решение лишь после выхода следующих моделей карт: RADEON X1950 PRO и RADEON X1650 XT, которые работают, обмениваясь данными по PCI Express (хотя режим с использованием карты CrossFire Edition обеспечивает более высокую производительность) и специальным мостикам. Все видеокарты новых серий поддерживают режим CrossFire без мастер-карты.

Чтобы было понятно, что пользователь получает от CrossFire и SLI, рассмотрим диаграмму сравнительной производительности одной видеокарты NVIDIA GeForce 8800 GTX и связки двух таких карт в игре F.E.A.R., результаты взяты из наших 3DGiТогов.

Хорошо видно, что прирост производительности составил от 62% в разрешении 1024x768 до 98-100% в наиболее высоких разрешениях. Но игра F.E.A.R. удобна для SLI/CrossFire, производительность в ней ограничена, прежде всего, филлрейтом и производительностью блоков пиксельных шейдеров, поэтому она и показывает двукратный прирост в тяжелых режимах. В большинстве же игр такого добиться намного сложнее, попадаются проекты, где и 50-60% считается хорошей цифрой, а 100% прирост не получится ни в каких условиях.

Отдельно нужно отметить появляющиеся решения на основе двух чипов, работающие как SLI/CrossFire система с точки зрения приложений, SLI/CF в которых реализован прямо на картах аппаратно: GeForce 7950 GX2, RADEON HD 3870 X2 и GeForce 9800 GX2. Компания AMD так и вообще теперь следует своей новой стратегии, выпуская топовые решения на основе мультичиповых карт по технологии CrossFire. Сначала они анонсировали первую подобную видеокарту на основе двух чипов RV670 (RADEON HD 3870 X2), начав эру двухчиповых решений AMD. Затем NVIDIA тоже выпустила похожую видеокарту на базе двух G92.

RADEON HD 3870 X2

В дальнейшем от AMD летом 2008 года мы увидели двухчиповые модели HD 4870 X2 и HD 4850 X2, а NVIDIA уже в 2009 году выпустила конкурирующий продукт - GeForce GTX 295. Подобное увлечение (особенно это относится к AMD, которая не выпускает мощных решений на основе одного GPU) мультичиповыми продуктами, работающими при помощи технологий SLI и CrossFire, несколько расстраивает. Несмотря на удобство создания продуктов для разных ценовых диапазонов на основе разного количества одних и тех же чипов, одночиповое решение всегда будет обладать определенными преимуществами: оно будет быстрее во всех приложениях, а не только оптимизированных для мультичиповых конфигураций, кроме того, оно не содержит избыточных блоков в каждом из чипов, обладает лучшими характеристиками по энергопотреблению и тепловыделению, а самое главное — в случае одночипового решения отсутствуют проблемы при отрисовке изображения, свойственные основным режимам SLI/CrossFire.

Двухчиповые платы на данный момент мало отличаются от соответствующих SLI и CrossFire систем, просто они основаны на двух чипах, установленных на одну (или две соединённые) печатную плату вместе с памятью и остальной обвязкой. Двухчиповая система работает по технологиям SLI или CrossFire, реализованным аппаратно, линии PCI Express и соответствующий мост выполнены прямо на плате, и карта не использует соответствующих ресурсов системной платы, не требуя от той поддержки указанных технологий. А реальная разница, с точки зрения пользователя, по сравнению с системой из двух плат, заключается в размерах и иной рабочей частоте чипа и памяти.

Выбор объема видеопамяти

Производительность видеокарты определяется не только мощностью GPU. Любому чипу нужны большой объем выделенной памяти и высокая пропускная способность при записи и чтении различных данных: текстур, вершин, содержимого буферов. Даже мощный видеочип можно «задушить» малым объемом видеопамяти с медленным доступом, поэтому её характеристики (а также характеристики видеочипов по работе с внешней памятью) являются одними из важнейших.

Микросхемы памяти, количество которых на некоторых экземплярах достигает уже 12 штук, обычно располагаются на плате вокруг видеочипа. В некоторых случаях для них не используется даже пассивное охлаждение, но чаще всего применяется общий кулер, а иногда и отдельные радиаторы. Вот так микросхемы памяти выглядят на GeForce 8800 GTS со снятым устройством охлаждения:

Memory

Современные видеокарты оснащаются разным объемом локальной видеопамяти, обычно от 512 Мбайт до 2048 Мбайт (2 ГБ). Чаще всего на low-end и mid-end видеокарты ставят 512 Мбайт памяти, а на high-end от 1 гигабайта и более, но есть и исключения. Чем больше памяти установлено на видеокарте, тем больше данных (тех же текстур, вершин и буферов) в ней можно хранить, не используя медленный доступ к ОЗУ компьютера. Причем, больше всего места занимают текстуры, рассмотрим скриншоты из игры Call of Duty 2 с разными установками качества текстур:



В Call of Duty 2 игра сама настраивает качество текстур под имеющийся объем текстурной памяти (объем видеопамяти минус место, занятое фреймбуфером). Так, режим Extra автоматически выставится на 320-1024 Мбайт видеокартах, High или Normal — на 256 Мбайт, в зависимости от настроек разрешения и уровня антиалиасинга, а Low — на 128 Мбайт. Даже если вы выставите максимальные настройки вручную, то на видеокарте с недостаточным объемом видеопамяти для хранения ресурсов будет использоваться часть системной памяти, что приведет к сильным тормозам и отсутствию комфорта и плавности в игре.

Для того чтобы было проще ориентироваться, приведем таблицу среднего использования видеопамяти некоторыми из несколько устаревших 3D игр в режиме максимальных настроек, при разрешении 1024x768 и использовании антиалиасинга уровня 4x (там, где это возможно), информация взята из технологических обзоров игр и других исследований.

Название игры Средний
объем занятой
видеопамяти, Мбайт
Максимальный
объем занятой
видеопамяти, Мбайт
Call of Duty 2 280-300 350
Lost Planet: Extreme Condition 460-480 600
Colin McRae Rally: DiRT 360-380 450
Call of Juarez DX10 500-510 650
S.T.A.L.K.E.R.: Shadow of Chernobyl 560-580 700
SEGA Rally Revo Demo 280-300 420
Clive Barker's Jericho Demo 380-400 500
Среднее 370-380 500

Как вы видите, даже подустаревшие игры довольно требовательны к объему видеопамяти, и среди рассмотренных игр уже нет таких, которые бы довольствовались объемом видеопамяти, равном 256 Мбайт, все используют до 600-700 Мбайт. Это не значит, что все ресурсы игр должны загружаться в локальную память видеокарты, зачастую игры просто отдают таким образом менеджмент ресурсов в управление API, тем более, что в Direct3D 10 используется виртуализация видеопамяти. Тем не менее, прослеживается явная тенденция к увеличению требуемых объемов локальной памяти на видеокартах.

Минимально необходимый объем локальной памяти для видеокарт составляет 320 Мбайт, но он доступен лишь для GeForce 8800 GTS. Оптимальным давно уже стал объем 512 Мбайт, тем более, что в более высоких разрешениях и других выходящих играх требования изменятся, а видеокарту лучше подбирать с небольшим запасом. И уже сейчас в некоторых играх желательно иметь объём памяти 768-1024 Мбайт.

В некоторых случаях бывает так, что указанное на коробке количество видеопамяти не равно объему установленных на плату микросхем. Такое было ранее в случае low-end видеоплат, работающих с частью системной памяти при помощи технологий TurboCache от NVIDIA и HyperMemory от ATI:

Обзор NVIDIA GeForce 6200 TurboCache 16/32MB (128MB)
Обзор ATI RADEON X300SE HyperMemory 32 (128)MB

В характеристиках видеокарт с поддержкой этих технологий, в маркетинговых целях указывался объем памяти (в т.ч. и часть ОЗУ), который может использоваться видеочипом, равный 128 Мбайт, в то время как в реальности на них установлен меньший объем — 16-32 Мбайт. Нужно внимательно читать материалы нашего сайта, чтобы не попадаться на подобные ухищрения в будущем, если они будут. А пока что можно жить спокойно, сейчас в таких видеокартах уже никто не видит смысла, их нишу заняли интегрированные чипсеты.

Ну хорошо, с имеющимися разновидностями видеокарт по объему локальной памяти мы разобрались. Но ведь объём памяти для видеокарт — это еще не всё, и даже зачастую не главное! Очень часто бывает так, что на дешевые видеокарты ставят большое количество памяти, чтобы нарисовать красивые цифры в ценниках и на коробках, с расчетом на то, чтобы они хорошо продавались. Но для слабых видеокарт в этом смысла нет, они все равно не смогут выдавать приемлемую частоту кадров на высоких настройках, в которых и используется большие объемы текстур и геометрии.

Продавцы иногда используют объем видеопамяти в качестве основной характеристики видеокарт, и это часто вводит в заблуждение простых покупателей, плохо знакомых с реальным положением дел. Сравним производительность решений с разным количеством видеопамяти на примере двух одинаковых видеокарт NVIDIA GeForce 8800 GTS, с единственным отличием — на первой установлено 320 Мбайт памяти, а на второй — 640 Мбайт. Любой продавец вам скажет, что вторая видеокарта значительно быстрее первой, кроме случаев, когда в магазине есть модели с 320 Мбайт, а другие отсутствуют (редчайшие случаи честных и одновременно компетентных продавцов мы в расчет не берем). А что же на самом деле? Смотрим цифры, полученные в двух играх:



Как видите, в большинстве режимов объем видеопамяти влияет на производительность незначительно, лишь в сверхвысоких разрешениях и с максимальными настройками качества появляются провалы, когда 320 Мбайт вариант заметно отстаёт от более дорогой карты. Но в целом можно считать, что объем памяти не слишком сильно сказывается на скорости, и сравнивать две видеокарты только по количеству памяти не стоит.

Важное замечание! Речь идет об объемах памяти не менее 256 Мбайт для low-end и 512 Мбайт для остальных! В этом случае, примеры, когда объем памяти сказываться на производительности, весьма редки, но если сравнивать 256 Мбайт и 512 Мбайт решения, то такие выводы уже не являются верными. Дело в том, что разработчики игровых приложений рассчитывают используемые в играх ресурсы так, чтобы они входили в локальную видеопамять наиболее распространенных на рынке видеокарт, он на данный момент уже равен 512 Мбайт, а для высоких разрешений и максимальных настроек уже можно ориентироваться на объём видеопамяти в 1 гигабайт. И если видеопамяти меньше, то современные игры или будут тормозить, подгружая данные из оперативной памяти, или не дадут выставить максимальные настройки, а может быть, и то и другое вместе.

Расчетный объем видеопамяти у игровых разработчиков постоянно растет, пару лет назад было вполне достаточно 256 Мбайт, теперь появились проекты, в которых и 512 Мбайт недостаточно. Таких пока мало, но они уже появляются, можно вспомнить ту же GTA IV. Поэтому, в случае небольшой разницы в цене между видеокартами с разными объемами памяти при прочих равных условиях (частота и ширина шины), следует покупать плату с большим объемом. Но без погони за цифрами — никакой low-end карте не поможет пара гигабайт видеопамяти. Они на данный момент просто не нужны. В общем, можно сказать, что для low-end и нижнего mid-end оптимальным объемом является 512 Мбайт, для верхнего mid-end и high-end — уже 1024 Мбайт.

Подробнее о пропускной способности памяти

Еще одна важная характеристика, о которой мы уже говорили — пропускная способность памяти (ПСП), которая зависит как от частоты работы памяти, так и от ширины шины. Этот параметр определяет количество данных, которые теоретически можно передать в память или из памяти за единицу времени. Другими словами, это скорость, с которой графическое ядро может записывать и считывать различные данные в локальную видеопамять. Соответственно, чем быстрее считываются текстурные и геометрические данные, и чем быстрее записываются рассчитанные пиксели, тем выше будет производительность.

Пиковая пропускная способность памяти рассчитывается просто — это произведение «эффективной» частоты памяти на количество данных, передаваемых за такт (ширина шины памяти). Например, для GeForce GTX 285 с шиной 512-бит и частотой видеопамяти 1242(2484) МГц, ПСП равна:

1242 МГц * 2 (передача по двум фронтам) * 64 байта (перевод ширины шины в байты) ~ 155 ГБ/с

Если с частотой памяти все понятно, ее обычно и на коробках пишут, и в характеристиках прописывают прямо, то с шиной сложнее, она не всегда явно указана производителем, поэтому на нее нужно обращать особое внимание. Большинство современных видеокарт используют 128-битную или 256-битную шину памяти, но некоторые недорогие платы оснащаются лишь 64-битной шиной, и это нигде широко не афишируется. Для производителя это и дешевле в производстве, и позволяет удобнее масштабировать производительность решений линейки. Две одинаковые видеокарты с одинаковыми частотами, но с разной шириной шины памяти, будут сильно отличаться по производительности. Та, у которой ПСП больше, сможет обрабатывать большее количество данных, по сравнению с картой с меньшей разрядностью шины.

Поэтому, при выборе между видеокартой с большим объемом видеопамяти и меньшим, нужно всегда смотреть на тактовые частоты, ширину шины и цены! Так, при большой разнице в ценах между двумя low-end решениями с 256 и 512 Мбайт памяти, нет смысла гнаться за вторым вариантом, видеокарта низкого уровня просто не получит большой прибавки в производительности от этого. Другой пример — видеокарты с разным объемом, но разными же частотами видеопамяти. Тут нужно выбирать, исходя из того, какого уровня видеокарта и насколько разные частоты, не забывая и про цену, естественно.

Например, из high-end решения с 1 ГБ памяти и более высокими тактовыми частотами против такой же 2 ГБ карты со стандартными частотами и более высокой ценой, на данный момент выгоднее будет первая видеокарта, так как она обеспечит большую производительность почти во всех режимах и условиях, кроме самых высоких разрешений. В большинстве режимов видеокарты большая частота играет значительно более важную роль, чем больший объём памяти. И только в сверхвысоких разрешениях в два раза больший объем может сказаться на скорости рендеринга.

Выбор видеочипа, модели и производителя видеокарты

Основные производители видеочипов

Выбор производителя графического процессора для игровой видеокарты все последние годы довольно прост. По сути, на рынке дискретных видеочипов существует лишь два мощных производителя: компания NVIDIA и компания AMD, производящая соответствующие изделия под торговой маркой ATI. Именно эти две компании выпускают подавляющее большинство GPU для выделенных (не встроенных в чипсет) видеокарт и только на их продукцию и стоит ориентироваться при покупке игровой видеокарты.

ATI logo   NVIDIA logo

Конечно, не так давно продавались и весьма редкие видеокарты на основе чипов других производителей, например от S3 Graphics, подразделения VIA Technologies. Никаких успехов на мировом рынке они не добились, продаваясь в основном на внутреннем китайском. Поэтому они могут рассматриваться лишь с музейной точки зрения, хотя производитель продолжает работу над созданием современных GPU и даже что-то тихо анонсируют изредка. В скором будущем на рынке должен появиться третий мощный игрок в лице компании Intel, но это вряд ли случится в 2009 году.

На момент обновления материала, наиболее интересными являются видеокарты, основанные на чипах серий ATI RADEON HD 4800 и NVIDIA GeForce GTX 200. Платы этих серий выгодны как по производительности, так и по возможностям, все они поддерживают DirectX 10, а решения AMD — даже DX 10.1. Если в прошлом году они ещё были довольно дорогими и часть из них находилась только в high-end ценовом диапазоне, то теперь они присутствуют во всех секторах рынка, начиная с $100 (для решений компании AMD).

Выбор между ATI и NVIDIA всегда непрост, в каждый момент времени в каждом из ценовых диапазонов есть свои лидеры, и однозначно указать лучшего производителя нельзя. Кроме того, у каждой серии видеокарт есть свои достоинства и недостатки. К примеру, видеокарты NVIDIA GeForce пока что не обладают поддержкой DirectX 10.1 API, зато выгодно отличаются активно продвигаемой технологией аппаратно-ускоренных физических эффектов NVIDIA PhysX. Также у всех решений ATI явно больше пиковоя производительность математических блоков, что может положительно сказываться и на производительности в некоторых современных играх. Зато у NVIDIA есть активно рекламируемые NVIDIA CUDA и 3D Vision. В общем, разница между решениями по функциональности есть, хотя и не всегда явная.

Выбор модели видеокарты

Если вы не хотите платить за производительность любую цену, а выступаете за разумные траты, то нет смысла в гонке за решениями верхнего уровня. В таком случае, лучшим выбором будут видеокарты среднего (или высокого среднего — верхнего mid-end) класса, которые дадут комфортную частоту кадров и качественную картинку во всех современных играх с приличными, пусть и не максимальными, настройками качества.

Конкретную модель видеокарты из выбранного ценового диапазона можно подобрать, используя данные из i3D-Speed и справочных материалов по моделям видеокарт. Так как справочные материалы по видеокартам даже только двух основных производителей имеют слишком большой объем, они вынесены в отдельные материалы и обновляются независимо от настоящего руководства покупателя:

Семейства видеокарт NVIDIA GeForce — Справочная информация
Семейства видеокарт AMD(ATI) RADEON — Справочная информация

Но в этих материалах приведены лишь теоретические характеристики всех существующих современных видеокарт, сделать окончательные выводы на их основе трудно. Очень удобно делать свой выбор, основываясь на периодическом исследовании производительности видеокарт в материале на нашем сайте под названием i3D-Speed (ранее известный как 3DGiТоги). В нём ежемесячно исследуется как производительность видеокарт в самых современных играх, так и некоторые качественные характеристики, с приведением списка отмеченных проблем в играх и соответствующими скриншотами.

Что еще важнее для нас с вами — там есть рейтинги видеокарт в виде наглядных таблиц, показывающих относительную производительность решений, в том числе и с учетом их цены (см. рейтинг полезности). Из которых можно выбрать наиболее выгодное на данный момент решение, имеющее лучшее соотношение цены, возможностей и производительности. Конкретные рекомендации по выбору GPU и модели видеокарты на основе материалов из i3D-Speed, даны в последней части путеводителя, они периодически обновляются, чтобы следовать тенденциям быстро изменяющегося рынка.

Выбор конкретного производителя

Сами фирмы AMD и NVIDIA не продают готовые видеокарты, это делают их партнеры. Они (список производителей на видеочипах NVIDIA, список производителей на видеочипах AMD) производят и продают видеокарты на базе GPU от двух вышеуказанных компаний. И у отдельных решений иногда есть свои плюсы и минусы, важные и не очень. Давайте разберёмся, на что стоит обращать внимание, а о чем можно и не задумываться, уже имея в виду всю ту информацию о характеристиках видеокарт, которая была описана нами ранее.

В прошлом, у видеоплат встречались недочёты, связанные с большим количеством производителей самого разного уровня, которые сами занимались разработкой дизайна плат и их выпуском. Иногда они допускали ошибки, и пользователи получали проблемы со стабильностью, качеством изображения, перегревом и т.п. Сейчас же, когда основная масса видеокарт производится на базе референсного дизайна, большинство этих проблем просто исчезло. В реальности теперь могут встретиться разве что плохо продуманные конструкции кулеров или установленная память с худшими характеристиками, но это обычно относится к low-end и нижнему mid-end секторам рынка, и очень редко бывает в верхних классах.

Абсолютное большинство high-end видеокарт с некоторого времени и по сей день, производятся на определенных заводах по заказу AMD и NVIDIA, их партнеры по выпуску готовых продуктов покупают у них эти уже изготовленные видеокарты и продают под своей торговой маркой, иногда меняя системы охлаждения, наклеивая свои наклейки, комплектуя играми и прочими завлекательными штуками. Даже кулеры на дорогих платах производители меняют редко, чаще всего у всех производителей карты абсолютно одинаковы, и отличаются наклейками, как максимум. Ну и тактовыми частотами иногда, если NVIDIA или AMD разрешили выпуск разогнанных решений.

  

Хорошо видно, что отличия только в наклейках на кулере. Причем, это со всеми топовыми продуктами так! Были RADEON Х800 и GeForce 6800 верхними моделями линеек — их делали только по заказу ATI и NVIDIA, остальные покупали у них готовое. Стали топовыми RADEON X1800 и GeForce 7800 — с ними повторилось то же самое. И так далее, до нынешних RADEON HD 4890/HD 4870 X2 и GeForce GTX 285/GTX 295. Чаще всего, лишь когда (и если) решения переходят в нижние ценовые диапазоны, производители чипов начинают продавать отдельные GPU партнерам, для того, чтобы они уже сами производили платы полностью. Так происходит не со всеми решениями, конечно, некоторые просто исчезают из линеек, заменяясь новыми моделями, и уже никто из производителей их не делает сам.

В общем, у high-end карт отличий практически нет, есть лишь малое количество моделей с отличающимися в лучшую сторону характеристиками, а вот для менее дорогих плат уже возможны варианты. Особенно внимательно нужно смотреть за low-end сектором и тем более, так называемыми OEM комплектациями (платы в антистатических пакетиках, без коробки), в этом случае желательно читать обзоры на сайте и обсуждения конкретных решений в нашей конференции. Особенно внимательно смотрите на установленную память, если она не закрыта радиаторами, именно на ней чаще всего стремятся сэкономить некоторые производители бюджетных решений. Впрочем, значительно реже встречаются и карты с более быстрой, чем необходимо, памятью.

Несмотря на то, что все топовые видеокарты одинаковы и выпускаются на одних и тех же заводах под надзором производителей чипов из одних комплектующих, некоторые из них имеют повышенные частоты относительно номинальных. Такие продукты просто проходят тестирование в лабораториях производителей карт уже после приобретения их у чипмейкеров. Там проходит отбор плат, способных к работе на повышенных частотах, не прошедшие его карты идут на обычные продукты со стандартными частотами, а отобранные выпускаются под другим названием.

Вообще же, совет по выбору определенного производителя дать невозможно, слишком многое тут зависит от конкретных моделей видеокарт. Можно лишь дать некоторые базовые рекомендации. Желательно покупать так называемые retail видеокарты — продающиеся в коробках и с определенным комплектом поставки, так как в виде ОЕМ решений можно купить продукт с отличающимися от ожидаемых характеристиками, пониженными частотами и т.п., что чаще встречается на видеокартах нижних ценовых диапазонов. Хотя слепо не доверять OEM решениям тоже неправильно, есть среди них и достойные видеокарты, с обычными характеристиками и более низкой ценой.

Для того чтобы не брать первое, что попадется, весьма желательно перед покупкой найти и внимательно прочитать обзоры интересующих вас моделей видеокарт у нас на сайте. Там есть фотографии коробок, самих плат и их комплектов поставок. При покупке видеокарты это даст определенную уверенность в характеристиках, если и карта и коробка будут точно такими же. И особенное внимание нужно уделить характеристикам, указанным на коробках, там часто пишут наименование модели, модификации, тактовые частоты и другие технические характеристики из рассмотренного нами ранее списка.

Ну а среди видеокарт верхних ценовых диапазонов, верхнего mid-end и high-end, производимых на одном и том же заводе и почти не отличающихся друг от друга, предпочтительнее искать решения с нестандартными системами охлаждения, которые чаще всего обладают лучшими техническими характеристиками по эффективности охлаждения и шуму. В остальном, следует руководствоваться, прежде всего, ценой, комплектом поставки и гарантийным сроком.

Ссылки на обзоры конкретных моделей всех производителей можно найти здесь:
Видеокарты на чипах AMD(ATI)
Видеокарты на чипах NVIDIA

Другие особенности выбора

При выборе видеокарт следует учитывать и некоторые другие их особенности, на которые стоит обращать внимание, и которые мы сейчас вкратце рассмотрим. К таким особенностям относятся неигровое применение, различные характеристики по электропитанию, тепловыделению и охлаждению, а также физические размеры видеокарт.

Неигровые применения

К неигровым относятся все видеорешения, которые приобретаются для использования в ПК, не предназначенных для запуска современных 3D игр. Например, для систем HTPC (домашних кинотеатров на основе ПК), или для работы в профессиональных пакетах 2D и 3D графики. В таких случаях требования к видеоядру совершенно иные, и рекомендации из данного руководства не подойдут.

В случае «офисного» и простейшего домашнего предназначения (текстовые редакторы, таблицы, любительская обработка изображений, простенькие игры и т.д.) нет никакой разницы, какое решение приобретать. Поэтому лучше всего подойдёт встроенное в набор системной логики видеоядро. От него требуется только выводить картинку на экран и примитивные 3D возможности и производительность, годную разве что для запуска графических оболочек современных операционных систем (например, Aero в Vista и OpenGL-ускоренные аналоги для Linux).

Для HTPC также лучше подойдут или встроенные в чипсеты видеорешения, или простенькие внешние видеокарты с пассивным охлаждением и низкопрофильные. Лучше использовать современные видеоядра (даже самые дешёвые и интегрированные), которые включают мощные блоки аппаратного декодирования видеоданных. И тут у решений компании AMD есть небольшое преимущество в полной аппаратной поддержке декодирования видеоданных в формате VC-1. Карты NVIDIA часть работы передают центральному процессору. Хотя в вопросах аппаратного декодирования видео есть множество «подводных камней», которые невозможно рассмотреть в данном материале.

С профессиональной 3D графикой и другими подобными применениями всё несколько сложнее и проще одновременно. Проще — потому что у производителей видеочипов есть специальные линейки, предназначенные для таких задач. А сложнее потому, что такие решения дороги, и некоторые пользователи заменяют их обычными. И вот тут уже выбирать нужно осторожно. Впрочем, такие видеокарты не рассматриваются нашим путеводителем вовсе, в нём речь идёт, прежде всего, об игровых видеокартах для домашнего применения.

Электропитание

Большинству современных видеокарт верхнего уровня обычно не хватает электропитания, получаемого ими через PCI Express слот, и они требуют дополнительного питания. Для этого на краю платы устанавливаются специальные шестиштырьковые и восьмиштырьковые разъемы (см. фото). Такие же разъемы есть и на новых блоках питания, что позволяет подключать провода без переходников. Но если на существующем блоке питания нет таких разъемов, можно воспользоваться переходником (или переходниками), позволяющим подключить любой четырехштырьковый разъем типа Molex, входящим в комплект всех таких видеокарт.

Power

Как видите, самые «прожорливые» модели видеоплат нуждаются сразу в двух разъемах (иногда 6-штырьковый и 8-штырьковый) питания, в дополнение к 75 Вт по PCI Express. И главное тут — чтобы блок питания мог обеспечить требуемое для видеокарты питание. Современные high-end видеокарты и видеокарты ближайшего будущего в одиночку потребляют до 150-200 Вт, и они одни нуждаются в 12-18 А по линии 12 В от БП только на видеокарту! Поэтому, подбирая блок питания для мощной системы, нужно обязательно учитывать, что кроме видеокарты, в ПК много других потребителей, и стоит обращать внимание на БП, дающие не менее 25-30 А по 12 В каналам. Видеокарты среднего уровня могут довольствоваться питанием по PCI Express, но им тоже нужны качественные блоки питания, никогда не экономьте на них!

Системы охлаждения и физические размеры

Второй важный момент — системы охлаждения. Так как видеокарты потребляют много энергии, они выделяют и большое количество тепла, его нужно отводить от них при помощи устройств охлаждения, так называемых кулеров. Без систем охлаждения или с их низкой эффективностью видеочип перегреется и выйдет из строя. Охлаждение на сравнительно медленных видеокартах может осуществляться при помощи пассивных систем (радиаторов), но чаще всего применяются активные, с радиатором (или радиаторами) и вентилятором (или вентиляторами).

Чем больше поверхность радиатора, тем выше его эффективность (при прочих равных, например, материале). Часто сложно или невозможно установить радиатор необходимого размера для эффективного охлаждения, да и площадь чипов не позволяет сделать это, поэтому приходится применять системы на базе тепловых трубок, которые улучшают теплопередачу. Эти трубки позволяют использовать для охлаждения маленьких чипов большие системы охлаждения, обеспечивающие эффективный теплоотвод.

Чаще всего кулер видеокарты является активным, он состоит из радиатора с вентилятором, продувающим воздух через радиатор. Такие кулеры бывают как однослотовыми (занимающими пространство одного слота расширения), так и двухслотовыми (соответственно, занимающими два слота). Однослотовый кулер не мешает установке карт расширения в соседний слот, а вот кулеры на high-end видеокартах часто имеют слишком большие размеры и не позволяют установить карту в соседний слот, расположенный ниже видеоплаты, поэтому они и называются двухслотовыми. Такие устройства обычно сделаны в виде турбины и выбрасывают горячий воздух наружу через заднюю панель, что улучшает общее охлаждение системы и снижает температуру воздуха в системном блоке.

Big cooler

Но не только толщина кулера видеокарты может являться препятствием к её установке. Некоторые из топовых моделей видеокарт обладают и слишком большой длиной печатной платы. Почти все современные видеоплаты высокого уровня очень длинные (со времен GeForce 8800 GTX чаще всего делают карты с длиной PCB — 270 мм, а до этой модели производители делали карты длиной максимум 220 мм), что не позволяет использовать их в некоторых распространенных корпусах с несъемными корзинами для жестких дисков. А в тех, в которые они входят, между картой и деталями корпуса остаётся лишь несколько миллиметров свободного пространства. Этот факт также необходимо учитывать при покупке видеокарты, и в наших обзорах физические размеры указываются.

Бесшумные системы охлаждения

Еще одним важным вопросом для многих пользователей является вопрос шумности системы охлаждения. Некоторые из кулеров на видеокартах имеют высокооборотистые вентиляторы небольшого размера, которые слишком сильно шумят, особенно при повышении температуры видеочипа. Тут можно лишь посоветовать внимательно читать наши материалы по конкретным моделям видеокарт и выбирать для себя подходящую, так как они могут сильно отличаться друг от друга, если это только не копии референсной платы. Если вы хотите собрать совсем бесшумную систему, то стоит поискать модель видеокарты с пассивным охлаждением, без вентилятора вовсе. Но такие системы редко бывают из наиболее производительных моделей, чаще всего дело ограничивается моделями из среднего ценового диапазона.

Passive cooler

Как видите, пассивное охлаждение тоже может быть настолько большого размера, что создаст неудобства при размещении комплектующих в корпусе. Такое решение может мешать другим компонентам системы и уж точно не будет способствовать понижению температуры в плохо вентилируемом корпусе. Если уж ставить такие модели, то охлаждение всего корпуса нужно продумывать очень тщательно.

Практические рекомендации по выбору видеокарты

В этом разделе мы постараемся помочь определиться с выбором, если вы уже решили, какой ценовой диапазон лучше подходит для вас. Еще лучше, если вы определились с производителем видеочипа: AMD или NVIDIA, в зависимости от своих личных предпочтений и некоторых тонкостей, таких как поддержка CUDA и PhysX у решений NVIDIA, или поддержка DirectX 10.1, полностью аппаратное воспроизведение видеоформата VC-1 и интегрированный на видеокарту аудиокодек для вывода звука по HDMI у ATI RADEON, например.

Но даже если этот выбор вы еще не сделали, практическая часть статьи тоже может быть полезной, в ней сравниваются наиболее интересные видеокарты, отдельно по ранее определенным нами ценовым диапазонам. И даже в том случае, если ценовой диапазон окончательно не выбран, цифры этого раздела могут помочь. Но сначала настоятельно рекомендуется ознакомиться со всеми предшествующими разделами, справочными материалами и таблицами чипов, если это еще не сделано.

Из всех видеокарт, участвующих в наших ежемесячных материалах i3D-Speed, для каждого из рассматриваемых ценовых диапазонов были выбраны по четыре достойных представителя, если они находились в таком количестве. Причем, они по возможности выбирались так, чтобы в сравнении участвовало по две видеокарты от каждого из основных производителей: AMD и NVIDIA. На момент написания текущей версии путеводителя, это сделать удалось во всех ценовых диапазонах, с некоторыми оговорками (см. ниже по тексту). Прямого сравнения не получится разве что в верхнем high-end секторе. Решения от AMD стоят дешевле сравниваемых с ними решений NVIDIA.

Мы стараемся рассматривать, прежде всего, модели с номинальными тактовыми частотами, объемом памяти и т.п. Но и модели, которые разогнаны фабрично и/или с нестандартным объемом памяти, в путеводителе упоминаются, особенно если их выпуск приобрел массовый характер, и такие модели есть в широкой продаже, и желательно от нескольких производителей сразу. Данные об основных параметрах видеокарт в каждом ценовом секторе для удобства вынесены в таблицы.

Из всех результатов, определяемых в i3D-Speed, было выбрано по несколько игр, преимущества одних карт над другими в которых хорошо видны. Набор игр для каждого ценового диапазона свой, также, для каждого из диапазонов использовались и разные настройки разрешения и сглаживания, близкие к тем, которые используются игроками в реальности. Если читателей интересуют остальные цифры, то все полноценные сравнения можно найти в i3D-Speed, а по результатам нашего упрощенного сравнения мы лишь будем советовать примеры наиболее выгодных карт в каждой ценовой нише на момент написания конкретной версии путеводителя.

Чтобы быть полезной для читателя, эта часть путеводителя периодически обновляется, так как ситуация на рынке видеокарт меняется порой очень быстро, и выводы, казавшиеся ранее справедливыми, через пару месяцев могут вызывать недоумение. Планируемая периодичность обновления составляет примерно три месяца, более частая редакция будет производиться при крайней надобности, так как материал лишь дополняет i3D-Speed, по которым можно сделать более точный анализ и выводы.

Что нового на рынке?

Для начала, остановимся на произошедших за прошедший с момента последнего обновления путеводителя событиях на рынке видеокарт. С марта этого года появилось несколько новых моделей, а также слегка обновленные решения и от AMD, и от NVIDIA. Среди новых можно отметить RADEON HD 4770, а из обновленных: GeForce GTS 250, GTX 275 и RADEON HD 4890. К сожалению, продукт на основе нового 40 нм чипа RV740, носящий название HD 4770, был выпущен крайне малым тиражом, на данный момент не очень выгоден для приобретения и на рынке распространён слабо, поэтому в данном обновлении путеводителя он не рассматривается.

Мы много писали о том, что компания AMD с самого начала ведёт довольно жёсткую ценовую политику, продавая свои решения значительно дешевле конкурирующих продуктов от NVIDIA. На что тем также приходится отвечать снижением цен. Средняя цена видеокарт значительно снизилась, и видеокарты, совсем недавно входящие в верхние ценовые диапазоны, спустились вниз. Теперь довольно мощные решения можно приобрести менее чем за $200 (GeForce GTX 260 и RADEON HD 4870).

Также можно отметить, что получают всё большее распространение модели видеокарт с увеличенным объёмом видеопамяти. У многих видеокарт базовым объёмом становится уже не 512 мегабайт, а 896-1024 МБ. И теперь уже не встретить плат с 256 мегабайтами локальной памяти, даже на моделях низшего уровня. Это хорошо для индустрии, так как снимает некоторые ограничения и развязывает руки игровым разработчикам.

Low-End (<$100)

За время, прошедшее с предыдущего обновления путеводителя, в этот диапазон вошли некоторые из моделей, бывших ранее в среднем ценовом диапазоне, к примеру, RADEON HD 4830 и GeForce 9800 GT. GeForce 9500 GT, хотя пока ещё продаётся, подешевела ещё сильнее, и её мы рассматривать не будем, т.к. есть варианты интереснее. То же самое относится и к RADEON HD 4650, которая стала стоить ещё дешевле и почти ушла с рынка.

Такие модели пока что можно найти в продаже, но смысла в них никакого не осталось, особенно, если игровой системой предусматривается регулярный запуск современных 3D игр. В иных случаях проще приобрести системную плату с современным интегрированным чипсетом. RADEON HD 4670 и GeForce 9600 GT пока ещё остаются в списке интересных предложений за свою цену.

Как и раньше, приобретение отдельных low-end видеокарт имеет смысл лишь с цены около $70-75, всё остальное переходит в сферу интересов интегрированных чипсетов. Решения с меньшей ценой просто не могут конкурировать с видеоядрами, встроенными в чипсеты. От таких дешевых видеокарт обычно ведь не требуется сколько-нибудь высокая производительность в играх, чаще всего нужно 2D и ускорение видеодекодирования в некоторых случаях, а мощь 3D тут не является слишком важным фактором, так как для современных игр ни те, ни другие не годятся всё равно.

А отдельные решения с ценой менее $100 имеют определенный смысл для бюджетных домашних вариантов, хотя для игр их советовать можно лишь в случае крайней экономии, которая, впрочем, сейчас приветствуется везде. Но всё же, для запуска современных 3D, даже мультиплатформенных, категорически рекомендуется подкопить денег хотя бы на нижний mid-end. Но рассмотрим, что у нас сейчас наиболее выгодно в low-end секторе:

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 4670 512 750 2000 ~70 75
ATI RADEON HD 4830 512 575 1800 ~90 100
NVIDIA GeForce 9600 GT 512 650 1800 ~70 75
NVIDIA GeForce 9800 GT 512 600 1800 ~100 100

Все представленные видеокарты обладают аналогичными характеристиками по объему памяти, на них установлено по 512 МБ памяти, что очень хорошо, как мы говорили выше. Меньший объём остался лишь в самых дешевых вариантах, которые уходят с рынка, и в вариантах вроде GeForce 9600 GSO, на которой урезана шина памяти.

И по рабочей частоте памяти и её пропускной способности, отличий почти нет. Как нет необходимости компенсации 64-битной шины, у всех решений она 128-битная. Из рассматриваемых моделей самой слабой будет, скорее всего, RADEON HD 4670 — это довольно старое решение. Недалека от неё и GeForce 9600 GT, но она должна быть несколько быстрее. А за первенство в данном ценовом диапазоне будут бороться GeForce 9800 GT и RADEON HD 4830, обладающие одинаковой стоимостью и весьма близкими характеристиками.

Для этой ценовой категории было выбрано тестовое разрешение 1280x1024, без использования антиалиасинга и анизотропной фильтрации, так как в более тяжелых режимах этими видеокартами весьма редко обеспечивается комфортная частота кадров в секунду. А меньшие разрешения брать нет смысла из-за того, что родные разрешения LCD мониторов и телевизоров крайне редко бывают ниже выбранного. Хотя даже в таких несложных условиях уровень производительности у слабых карт бывает слишком низок:

Выбранные тесты наглядно показывают отличия в производительности сравниваемых видеокарт, в большинстве случаев результаты выстроились в соответствии с ценами, хотя не обошлось без некоторых исключений. Как и предполагалось выше по тексту, RADEON HD 4670 является самой слабой среди карт диапазона, а вот 9800 GT и HD 4850 сражаются с переменным успехом (впрочем, у решения AMD выигрыши хоть и меньше, но их больше количественно). Карты расположились по лестнице, за исключением игры Devil May Cry 4, в которой решения AMD ранее выглядели лучше, а теперь уступают.

В равном ценовом соперничестве GeForce 9600 GT и RADEON HD 4670 чуть-чуть впереди видеокарта компании NVIDIA, это довольно удачное решение на чипе G94. А вот в паре GeForce 9800 GT и RADEON HD 4830, первая смотрится значительно лучше в одной только DMC4. В других двух играх из выбранных нами, немного впереди плата AMD, с такой же ценой. Поэтому однозначного победителя назвать непросто.

Но наибольшего внимания покупателей должны удостоиться эти две модели по $100, которые оправдывают свою цену. Они являются предпочтительным выбором для экономных покупателей, планирующих потратить до $100. Возможно, стоит обратить внимание на следующий по списку ценовой диапазон, в котором есть решения лишь чуть более дорогие.

Ну а тем, кому нужно решение ещё дешевле, лучше выбрать GeForce 9600 GT, так как она несколько быстрее своего прямого конкурента RADEON HD 4670. Из самых дешёвых вариантов нужно или выбирать из этих двух карт, или добавить денег на приобретение решения более высокого уровня, так как даже в сравнительно низком разрешении 1280x1024 средний FPS оказывается близок к минимально комфортным 30 FPS. В ещё более новых и требовательных играх ситуация ещё хуже, в этом можно убедиться, посмотрев остальные результаты в i3D-Speed.

Lower Mid-End ($100-200)

Так называемый «нижний» mid-end диапазон является наиболее массовым сектором рынка, в него стараются поместить наиболее выгодные видеокарты с точки зрения сочетания производительности и цены. За последнее время диапазон покинули такие немного устаревшие решения, как RADEON HD 4830 и GeForce 9800 GT, они спустились ниже. Некоторые видеокарты находятся на границе с low-end диапазоном, мы их включили в low-end.

Из подешевевших решений, пришедших в нижний mid-end, можно отметить RADEON HD 4850 и GeForce 9800 GTX+. Также сюда спустилась отличная модель HD 4870 в варианте с 512 мегабайтами памяти. Из новинок отметим GeForce GTS 250 — это та же 9800 GTX+, но в нашем исследовании эти модели отличаются объёмом видеопамяти.

Вышедшая весной RADEON HD 4770 — это очень интересный вариант с MSRP ниже $100, но реально её стоимость остаётся выше этого предела, из-за малых объёмов производства, вызванных сыростью 40 нм техпроцесса. Так что она остаётся не очень выгодным решением, по сравнению с HD 4830 из low-end и HD 4850 из нижнего mid-end, и в обзор мы её не включили.

В итоге, ценовой диапазон представлен двумя решениями от AMD и двумя — от NVIDIA, причём эти пары похожи друг на друга, по сути. Они основаны на одном и том же GPU: RV770 и G92, соответственно. Младшая версия HD 4850 отличается от старшей рабочей частотой, а отличия между 9800 GTX+ и GTS 250 заключаются в объёме памяти: 512 и 1024 МБ.

Для решений этого уровня объём видеопамяти 512 МБ уже обязателен, но начинают ставить уже и больше микросхем памяти, как мы видим. Хотя мы ещё проверим сочетание цены и производительности таких решений на основе сравнения двух моделей NVIDIA. Ведь заметного прироста производительности у GTS 250 с большим объёмом памяти вполне может и не быть.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 4850 512 625 2000 ~100 120
ATI RADEON HD 4870 512 750 3600 ~130 175
NVIDIA GeForce 9800 GTX+ 512 736 2200 - 140
NVIDIA GeForce GTS 250 1024 736 2200 ~110 160

Как уже говорилось, три включенные в этот диапазон видеокарты обладают одинаковыми характеристиками по объему памяти, на них установлено по 512 мегабайт. GTS 250 отличается вдвое большим объёмом. По тактовым частотам памяти наблюдалось бы примерное равенство, если бы не GDDR5 память на HD 4870, обладающая вдвое большей эффективной частотой, по сравнению с GDDR3 у других карт. У остальных моделей установлены примерно одинаковые микросхемы GDDR3. Соответственно этому и должны располагаться видеокарты по скорости рендеринга: HD 4870, скорее всего, будет самой производительной, а остальные карты покажут близкие результаты.

Для сравнения видеокарт в этом ценовом диапазоне также использовалось тестовое разрешение 1280x1024, как наиболее распространенное среди владельцев массовых LCD мониторов. Разрешения бытовых устройств низкого разрешения и широкоформатных мониторов небольших размеров также близки к этим цифрам. Но в отличие от предыдущего диапазона, в диаграмме приводятся цифры в режиме с использованием антиалиасинга и анизотропной фильтрации, ведь карты этого ценового диапазона уже могут обеспечить приемлемую частоту кадров и в таких режимах, хотя и не во всех играх.

Расклад по производительности получился примерно такой, как мы предполагали, хотя и не без интересных деталей. Так, в игре Company of Heroes решения NVIDIA смотрятся значительно сильнее обеих карт AMD. Но в целом, если не рассматривать эту игру, HD 4870 явно быстрее остальных решений. HD 4850 является самой слабой картой сегмента, GeForce 9800 GTX+ во всех представленных случаях опережает своего конкурента от компании AMD.

Впрочем, нужно учесть более низкую цену RADEON HD 4850. С учётом этого, вполне можно назвать победителем пары и HD 4850, смотря что важнее: скорость или цена. Соотношение то получается примерно одинаковое. И если перед пользователем стоит задача приобрести видеокарту за $120-140, лучшим выбором, если судить по скорости в выбранных игровых тестах, будет GeForce 9800 GTX+. Но у RADEON HD 4850 есть свои преимущества — поддержка Direct3D 10.1, которая может принести свои дивиденды в ближайшем будущем, а также более низкая цена.

В случае с парой HD 4870 и GeForce GTS 250 примерно так же, но с обратным знаком. Если не смотреть на результаты в Company of Heroes, то решение от AMD быстрее, но и дороже. Вообще, GTS 250 не так уж сильно опережает 9800 GTX+ в данных тестах, разве что в Far Cry 2 есть заметный прирост от гигабайта видеопамяти. И тут уже выбор за пользователем: или потратить больше денег с надеждой, что в будущем игры смогут использовать больше видеопамяти, или сэкономить, приобретя 512-мегабайтный вариант.

Итак, подводим итоги. Если планируется потратить лишь чуть больше $100, то на данный момент нужно выбирать из GeForce 9800 GTХ+ и RADEON HD 4850. Небольшое предпочтение можно отдать второму решению, но лишь потому, что оно дешевле. Зато карта NVIDIA несколько быстрее, хотя и дороже. То же самое и для более дорогих видеоплат нижнего mid-end. Если добавить до $160-180, то нужно выбирать из двух более мощных решений этого же ценового диапазона, отдавая предпочтение в зависимости от целей — или несколько дешевле (GTS 250), или слегка быстрее (HD 4870). Прямых конкурентов с идентичными ценами в этом диапазоне нет.

Upper Mid-End ($200-300)

Как мы уже отмечали в предыдущих разделах путеводителя, приобретение видеокарты из «верхнего» mid-end ценового диапазона является наиболее выгодным решением с точки зрения сбалансированного игрового компьютера, не направленного на получение максимальной производительности, но обеспечивающего достаточный комфорт в играх. Эти решения позволяют качественно играть во все современные игры, обеспечивая некоторый запас прочности на будущее.

Ещё большим запасом производительности и всё ещё оправданной ценой обладают решения следующего ценового уровня, а в «верхнем» mid-end обычно разгораются жаркие битвы между представителями AMD и NVIDIA, диапазон является одним из наиболее лакомых кусочков для производителей, это и достаточно массовые видеокарты, и более дорогие, по сравнению с «нижним» mid-end.

За прошедшие несколько месяцев в нижний диапазон ушли модели RADEON HD 4850 с гигабайтом видеопамяти на борту, а также RADEON HD 4870 с 512 мегабайтами. Зато к RADEON HD 4870 1GB и GeForce GTX 260 добавились новые модели: HD 4890 и GTX 275. Обе они вышли весной и являются прямыми конкурентами друг для друга. Единственное отличие в том, что HD 4890 основана на номинально новом GPU (RV790), а GTX 275 — на всё том же GT200, произведённому по 55 нм техпроцессу.

В рамки $200-300 на данный момент попали новые решения обеих компаний. Изначально некоторые из них были предназначены для уровня на шаг выше, но конкуренция сделала своё дело, и теперь здесь присутствуют решения на основе топовых чипов NVIDIA и AMD, отличающиеся в основном тактовыми частотами и объёмом памяти.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 4870 1GB 1024 775 3600 ~150 210
ATI RADEON HD 4890 1GB 1024 850 3900 ~200 250
NVIDIA GeForce GTX 260 216sp 896 575 2000 ~160 200
NVIDIA GeForce GTX 275 896 633 2268 ~200 260

Разница в объеме и частоте памяти между решениями этого ценового сектора сейчас совсем невелика. У NVIDIA пока что представлены только 896-мегабайтные варианты, ведь на урезанный GT200 сложно поставить другой объём памяти из-за ширины шины. 1792 мегабайт уже ставят на GTX 275, но пока что такие модели редки в продаже и отличаются более высокой ценой, которая не оправдывается соответствующим увеличением производительности. В остальном, разные варианты отличаются, прежде всего, тактовыми частотами и количеством активных функциональных блоков (для NVIDIA).

В этом сравнении мы будем использовать довольно распространённое разрешение экрана у LCD мониторов — 1680x1050, также с включенными антиалиасингом и анизотропной фильтрацией. Видеокарты из этого диапазона вполне способны обеспечить комфортную игру в таких режимах в большинстве современных игр, за исключением самых требовательных:

Можно сказать, что в данном ценовом диапазоне всё несколько проще, чем в предыдущих. Карты расположились почти соответственно разнице в цене, что говорит об относительно справедливых ценах на рынке видеокарт. Но есть явный лидер в виде GeForce GTX 275, она всего на $10 дороже своего прямого соперника RADEON HD 4890, но быстрее того во всех выбранных играх.

Определяем наиболее выгодные варианты в этом ценовом диапазоне. В общем случае, если цена какого-то решения выше, то и производительность выше. Но не всегда. GTX 275 явно выделяется из списка, да и младшее решение GTX 260 явно побыстрее, чем HD 4870 с гигабайтом видеопамяти. И тоже чуть-чуть, но дешевле.

Так что при сравнении пары HD 4870 1GB и GTX 260, мы также отдаём небольшое предпочтение продукту NVIDIA. Дополнительно можно учитывать другие характеристики (DirectX 10.1, CUDA, PhysX и т.п.). С точки зрения игр лучшей будет самая быстрая и дорогая GeForce GTX 275, а с точки зрения оптимальности покупки — GTX 260. Хотя карты AMD отстают совсем немного, и могут быть быстрее в других играх, не представленных в наших ежемесячных материалах i3D-Speed.

Lower High-End ($300-500)

Приступаем к первой из двух высших ценовых категорий, к её «нижней» части, с ценами от $300 до $500. Этот сектор уже нельзя назвать массовым, хотя энтузиасты компьютерных игр часто останавливаются именно на решениях из этого диапазона, если на их желание не влияет экономическая ситуация. Более дорогие видеокарты редко дают большие возможности и значительно более высокую производительность, а продукты из нижних диапазонов просто не могут обеспечить приемлемый уровень играбельности в современных играх на максимальных настройках и в высоких разрешениях.

По сравнению с предыдущей версией путеводителя, которая вышла весной, из нашего набора плат нижнего high-end ушла RADEON HD 4850 X2, так как это довольно редкая в продаже карта с необоснованно завышенной ценой. Из-за смены тестового стенда iXBT, мы получили возможность прямого сравнения CrossFire и SLI систем, чем и воспользовались, включив в обзор систему на паре HD 4890, соединённых при помощи CrossFire. Также за прошедший период снизилась цена на GeForce GTX 295, и она почти вошла в выбранные рамки диапазона. Поэтому мы её включили и в нижний и в верхний high-end.

Итак, в данном диапазоне теперь присутствуют сравнительно новые двухчиповые решения от компании AMD и NVIDIA. Интересны два сравнения: одночиповая GeForce GTX 285 против двухчиповой RADEON HD 4870 X2, а также двухчиповая GeForce GTX 295 против двух карт RADEON HD 4890.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 4870 X2 2x1024 750 3600 ~370 420
ATI RADEON HD 4890 CF 2x1024 850 3900 ~400 500
NVIDIA GeForce GTX 285 1024 650 2500 ~300 340
NVIDIA GeForce GTX 295 2x896 575 2000 ~500 520

В этом диапазоне виден разный подход компаний AMD и NVIDIA к выпуску графических карт. Если NVIDIA до сих пор делает мощные GPU для одночиповых топовых плат (G200), то AMD ограничивается выпуском решений среднего уровня (RV770 и RV790), а для верхних ценовых диапазонов предлагает двухчиповый вариант с индексом X2.

Но самой дорогой видеокартой диапазона является топовая и двухчиповая GeForce GTX 295 от NVIDIA. С ней соперничает CrossFire система на новых HD 4890, которое обойдётся почти в те же деньги. Менее производительное двухчиповое решение HD 4870 X2 стоит дешевле, а за GeForce GTX 285 просят ещё меньше денег. Скорее всего, она и будет отстающей по показателю средней частоты кадров. Ну а лидерство должны разделить HD 4890 CF и GTX 295.

В «нижнем» high-end секторе на видеокарты принято ставить минимум по 1024 мегабайт быстрой GDDR3 или GDDR5 видеопамяти на один чип. Иногда чуть меньше, в зависимости от ширины шины. Ведь у той же GTX 295 каждый чип обеспечивает лишь 448-бит шину, и на неё физически можно поставить только 896 мегабайт. Или вдвое больше, или вдвое меньше. Сравнительно узкая шин памяти карт AMD компенсируется установкой GDDR5 памяти, эффективная пропускная способность которой вдвое выше, чем у GDDR3.

Видеокарты из этого диапазона позволяют использовать для их сравнения широкоформатное разрешение 1920x1200, естественно, также с включенными антиалиасингом и анизотропной фильтрацией. Выбранные видеокарты могут обеспечить комфортную игру и в более тяжелом режиме (кроме наиболее требовательных приложений, одно из которых в диаграмме есть), но мы оставили его для ещё более дорогих видеокарт. В данном случае, будем использовать очень «тяжелые» тесты в Crysis.

Итак, рассмотрим положение в нижнем high-end подробнее. Сразу скажу, что игра Company of Heroes приведена здесь исключительно как пример той игры, под которую не оптимизированы драйверы компании AMD. В ней и одночиповые то карты этой компании не очень хорошо себя показали, а без функционирующего CrossFire получается так, что одночиповая GTX 285 заметно быстрее обеих систем AMD.

Эта ситуация призвана показать те случаи, когда CrossFire (или SLI) в какой-то игре не работает, и двухчиповые карты в таком случае выглядят бледно. В остальном, на примере двухчиповых систем и одночиповой карты NVIDIA, хорошо видно, что достигаемая средняя частота кадров у плат на основе двух GPU в целом на 20-40% выше. И с точки зрения среднего FPS из пары HD 4870 X2 и GTX 285 лучше будет выбрать решение AMD, хотя оно и несколько дороже.

Тем, кого многочиповые системы не прельщают, можно порекомендовать GeForce GTX 285 — это лучшее решение среди одночиповых карт. С ценой ниже, чем у дешёвых двухчиповых (на наш взгляд, HD 4870 X2 имеет немного завышенную цену), она обеспечивает очень высокую производительность во всех играх. При этом, не будет ни проблем с совместимостью (пример см. на диаграмме), ни с неравномерным FPS в некоторых случаях.

А вот во второй паре всё очень просто. Обладая схожими ценами, GeForce GTX 295 и пара RADEON HD 4890, показывают близкую производительность, кроме случая с недоработками в драйверах. И выбор в таком случае нужно делать, руководствуясь не только производительностью решений, но и другими характеристиками.

В целом, наиболее выгодной видеосистемой этого ценового диапазона по соотношению цены и производительности можно считать GeForce GTX 285. Она незначительно отстаёт от более дорогих двухчиповых систем и имеет самую низкую цену. Но тем, кому нужен высокий FPS, лучше присмотреться к паре RADEON HD 4890 в CrossFire, или к GeForce GTX 295. Они являются наиболее быстрыми решениями данного диапазона, и обладают примерно одинаковой ценой.

В итоге, для требовательных игроков, которые хотят потратить около $500 и не имеют ничего против двухчиповых решений, лучшим выбором будут наиболее дорогие решения от AMD и NVIDIA. В случае более экономных потенциальных покупателей, желающих ограничиться суммой чуть больше $300, лучше обратить внимание на одночиповую карту GeForce GTX 285.

Upper High-End (>$500)

Пришло время самого дорогого диапазона — «верхнего» high-end, предназначенного для наиболее обеспеченных и требовательных игроков и энтузиастов, которых в последнее время как-то совсем мало осталось. Не только из-за экономической ситуации, но и из-за того, что на ПК в последнее время всё чаще выпускают мультиплатформенные игры, ограниченные сравнительно слабыми возможностями консолей. И ПК версии таких игр не особенно требовательны к мощности видеосистемы, что вызывает банальное отсутствие необходимости в сверхмощных решениях.

Как мы уже говорили ранее, в этот раз к SLI системам добавились CrossFire конфигурации. И от компании AMD в этом диапазоне представлены две одночиповые карты HD 4790 в CF (они на границе ценовых диапазонов), и две двухчиповые HD 4870 X2. А ведь не так давно в верхнем high-end диапазоне были даже одночиповые карты. Теперь даже мощные HD 4870 X2 и GeForce GTX 295 продаются или дешевле $500, или близко к этой сумме.

Так как наша тестовая система с недавнего времени поддерживает создание и SLI и CrossFire конфигураций, в этом ценовом секторе присутствуют только наиболее мощные многочиповые решения от NVIDIA и AMD. Кроме уже упомянутых, добавилась система на двух GeForce GTX 285.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 4890 CF 2x1024 850 3900 ~400 500
ATI RADEON HD 4870 X2 CF 4x1024 750 3600 ~740 840
NVIDIA GeForce GTX 285 SLI 2x1024 650 2500 ~600 680
NVIDIA GeForce GTX 295 SLI 4x896 575 2000 ~1000 1040

Уже по ценам понятно, что эти решения — для тех редких покупателей, которым нужен максимум производительности, несмотря на то, сколько за это придется заплатить. Если одиночные RADEON HD 4870 X2 и GeForce GTX 295 из нижнего ценового диапазона ещё можно считать покупкой, оправданной при наличии необходимых средств, то приобретение SLI и CrossFire решений на основе двух мощных двухчиповых видеокарт вроде HD 4870 X2 или GTX 295 может понадобиться лишь тогда, когда требуемая сумма (до $1000!!!) совсем не напрягает.

В связи с ранее изложенным о мультиплатформенных играх и проблемах многочипового рендеринга, мы считаем, что системы на основе четырёх GPU имеют крайне мало смысла. Если уж не хватает скорости одночиповых карт, то можно приобрести платы RADEON HD 4870 X2 или GeForce GTX 295, их вполне хватит для большинства пользователей, даже крайне требовательных.

Так как в данном сравнении собраны исключительно наиболее мощные решения, которые просто обязаны сравниваться в самом высоком разрешении, используемом в наших тестах i3D-Speed, его мы и взяли. Естественно, тесты проводятся вместе с включенными сглаживанием и анизотропной фильтрацией, а дополнительную сложность придаёт включение в обзор такой требовательной игры, как Crysis: Warhead.

Для начала, нужно снова остановиться на вопросе многочипового AFR рендеринга, о котором так много сказано. Все представленные в данном диапазоне решения основаны на двух и четырёх GPU, и все они в той или иной мере подвержены основным проблемам всех CrossFire и SLI систем. При росте FPS по сравнению с одночиповой картой важные для человека задержки снижаются значительно меньше, а эффективность двухчиповых систем сильно зависит от оптимизации игр и драйверов. Есть и другие недостатки, такие как неравномерность частоты кадров, когда высокий средний FPS на двухчиповой системе воспринимается человеком даже менее комфортно по сравнению с тем, что даёт мощнейшее одночиповое решение.

Итак, по полученным результатам хорошо видно, что в столь высоком разрешении у видеокарт NVIDIA есть явные проблемы с эффективностью четырёхчипового рендеринга в игре STALKER: Clear Sky. Система с двумя GTX 295 провалилась и отстала от всех остальных. Это к слову о вышеуказанных проблемах с оптимизацией драйверов. Казалось бы, быстрая конфигурация на четырёх GPU производства NVIDIA в разрешении 2560х1600 должна быть первой. А она провалилась в Clear Sky и проиграла в Lost Planet.

Это лишь один из примеров возможных проблем многочипового рендеринга. Второй пример в крайне низкой прибавке скорости, по сравнению с одиночной картой. Эффективность мультичипового рендеринга иногда может достигать 70-80%, но некоторые игры и условия хорошо вскрывают слабости многочиповых систем, и тогда большого прироста производительности от второго чипа просто нет. Посмотрите на результаты в Crysis Warhead — разница между всеми системами менее 40%! А ведь теоретически должна быть более двух раз...

В общем, выбор подходящего для себя варианта в данном случае нужно делать исходя из объёма денежных средств, которые планируется потратить на видеокарту, и оправданности подобных трат отдельно для каждого. Например, вариант из двух HD 4870 X2 явно не настолько быстрее, насколько дороже двух HD 4890.

Наиболее выгодными картами из представленных являются системы на двух RADEON HD 4890 или GeForce GTX 285, и не более. У них меньше проблем с эффективностью мультичипового рендеринга, да и стоят они дешевле. Лишь для достижения высоких результатов при разгоне и для утешения своего самолюбия, можно обратить внимание и на четырёхчиповые решения, но они стоят несоизмеримо дороже, не обеспечивая высокой эффективности финансовых вливаний.

Игра Crysis, в виде дополнения Warhead, в Direct3D 10 режиме с максимальными настройками качества продолжает оставаться наиболее тяжелым тестом даже для настолько мощных видеосистем. Даже на четырёхчиповых конфигурациях обеспечивается лишь 20-28 FPS, что явно ниже порога играбельности! Понятно, что 2560х1600 с анизотропной фильтрацией и антиалиасингом — это слишком тяжёлые условия, но чтобы четыре мощнейших GPU не справлялись с довольно старой игрой... Это явно указывает на некие проблемы игры или графического API, не позволяющие раскрыть все аппаратные возможности представленных систем.

 

Алексей Берилло aka SomeBody Else (sbe@ixbt.com)

Опубликовано — 31 июля 2009 г.


Адрес статьи в интернете: www.ixbt.com/video3/guide.shtml

Скачать архив этой статьи в формате CHM с сайта adsl.kirov.ru

.:: Статистика ::.
Пользователи
HTTP: 2
IRC: 7
Jabber: 1
( состояние на 14:56 )
ADSL-газета: Ежедневно свежие анекдоты, гороскоп, погода, новости, ТВ-программа, курс валют

Интересности из Интернета: Интересные статьи на разнообразные темы, найденные на просторах интернета

Компьютерная консультация

Единый личный кабинет