Оптимальная видеокарта на 2 монитора. Какая?
3769
26
Долгое время пользовался Gygabyte Radeon 9200 (не SE а натюрлих). Пока был только монитор ЭЛТ 17" все устраивало т.к. в игры не играю. Цеплял к TV выходу телек, иногда, чтобы смотреть фильмы не отрываясь от процесса работы. На днях купил ЖК 19" разрешение 1280*1024 подцепил его через DVI основным, а старый соответсвенно вторым оставил на D-SUB. Проблемма в том что одновременно оба монитора карта поддерживает только при выставленной частоте 60Гц на обоих. (причем на ЭЛТ 17" при этом 800*600). если какой нибудь из параметров завысить то изображение на ЖК мигает, или вовсе пропадает на 5-10 сек.
И второе - в портретном режиме ЖК работает только при тех же 60Гц (АТИшная прога сообщает что карта не тянет портретный при 70Гц).
И третье - в спецификации монитора ЖК написано что он поддерживает 75 Гц но видюха на выбор дает только 60-70.
Драйвер стоит "wxp-w2k-catalyst-8-082-041130a-019577c"
Делаю вывод пора менять карточку.
Вопрос: Подскажите пожалуйста ATI-шную карту, что-бы ЖК монитор держал даже в портретном режиме 70-75Гц, и одновременно ЭЛТ хотябы при разрешении 800*600 держал 75-85Гц.
Шибко навороченную покупать нехочу денег жалко, надо чтобы в притык.
PN
я подозреваю,что на его 9200 просто нету второго рамдака...
gringo
Что есть "рамдак" ? и как его разъяснить есть он второй или его нет?
gringo
Ну ты дал... Сколько голов на выход, столько и рамдаков вообще-то... У любого 9200 их два по 400 МГц.
9600 здесь тоже не пойдет... У него при строчности 1200 уже всего 75 Гц.

Так что надо думать о покупке 9800, хотя бы и простого, не про и не ХТ. Там при строчности 1440 заявлено 90 Гц. Или даже Х800 взять :-) чего уж там...

рамдак (RAMDAC - random access mmory digital-to-analog converter) - собссно тот кусок видеокарты, ктороый и показывает картинку на мониторе. От его мощности и зависит, какие частоты и разрешения она сможет предоставить. Ключевой параметр - тактовая частота.
PN
Хотя, предварительно надобы таки побаловаться с мониторами поподробнее... Может, и не в этом дело... Сейчас смотрел спеки на 9200 - там разрешения и частоты один в один, как у 9800... А у 9600 они ниже, причем сильно...

Что-то здесь не так... Либо, взять 9800 с манибэком, если не заработает...
Господин Уэф!
Ну приходи, возьми потестить че-нить из нужного ценового диапазона :миг:
PN
Ну ты дал... Сколько голов на выход, столько и рамдаков вообще-то... У любого 9200 их два по 400 МГц.

ага, щаз! сколько голов на выход, столько и рамдаков - это у НОРМАЛЬНЫХ видях. а вот кетайцкие производители бывает на этом экономят. :ухмылка:
Господин Уэф!
Если не для игры а для работы то лучше Matrox G450....
:ухмылка:
Господин Уэф!
Вот обзор о этой карточке ..
http://www.ixbt.com/video/matrox-g450.html
Если заинтересуешься пиши в приватку ....
PN
Наскока я помню DVI - есть выход цифровой, соответственно рамдак ему на фиг не нужен, потому как рамдак - аналогово-цифровой преобразователь. Так что не в этом дело.
gringo
Не знаю я, как кетайцкие производители умудряются экономить на этом, но уже очень давно рамдаки встраиваются в сам процессор, посему, сэкономить на этом нельзя... В Радеон 9200 они именно туда встроены в количестве двух штук...

2 valico. Нельзя помнить того, что не знаешь. Учи матчасть...
Valico
Вдогонку...
Ты 6800GT видел? Интересно, сколько там рамдаков?
PN
Таак. Разбираемся для начала в терминологии:
DVI - digital video interface
RAMDAC - random access memory Digatal-Analog Convertor
Т.е. рамдак по сути своей ЦАП (цифро-аналоговый преобразователь) назначение которого видно из названия.
Тогда поясните мне ЗАЧЕМ преобразовывать цифровой сигнал в аналоговый, чтобы передать его по цифровому интерфейсу???
PN
Вдогонку...
Ты 6800GT видел? Интересно, сколько там рамдаков?
Только что видел. Рамдаков там два.
PN
> Не знаю я, как кетайцкие производители умудряются экономить на этом, но уже очень давно рамдаки встраиваются в сам процессор, посему, сэкономить на этом нельзя... В Радеон 9200 они именно туда встроены в количестве двух штук...

ааа... ну тады канэшна! :ухмылка:
я 9200 не юзал и спеки на нее не смотрел, а вот с 8500/9100 с одним рамдаком сталкивался.


а дома 8500 стоит фирменная от ATI , купленная, если не изменяет память, в начале 2001г. вполне устраивает и по сей день - в Х'ах изображение отличное! :respect:
Valico
Что на разьеме DVI (у меня так по крайней мере на Gigabyte 9200) несколько контактов передают аналоговый сигнал под переходник к D-Sub
Господин Уэф!
Большая поправка, 1280*1024 и 800*600 два монитора показывают в режиме "Расширение раб стола на второй монитор" Но в этом режиме не поддреживается оверлей на втором монике, так что видео не перекинешь туда.
В режиме "копия раб. стола" не важно что выставленно на втором реально показывает тоже разрешение что и на ведущем мониторе т.е. 1280*1024.
Получается что во втором режиме нельзя настраивать параметры отдельно.
Valico
Только что видел. Рамдаков там два.
А интерфейсы - два DVI. Вопрос: зачем ему рамдаки? Если у него нет "аналогового" интерфейса? А все потому, что интерфейс DVI предусматривает возможность передачи, кроме цифровых данных, и аналоговых сигналов для CRT-мониторов. Реализация только цифровой части стандарта обозначается DVI-D. Интерфейс, по которому передаются и аналоговые сигналы, получил название DVI-I. Разъемы кабелей DVI-D и DVI-I отличаются числом контактов (у DVI-I их на 4 больше), но одинаковы по форме, совместимы между собой и со всеми графическими картами, оснащенными DVI-коннектором. Но у всех видеокарт интерфейс всегда DVI-I. Именно поэтому, к любой из них можно приделать переходник D-SUB и прикрутить монитор с таким интерфейсом. И именно поэтому для каждого из интерфейсов DVI на карте нужен свой рамдак...
PN
Ну вот, все просто и понятно! Прочитал - уберег нервы! :миг:
Green_Hawk
угу... а что ж не 200...:улыб:если уж рекомендовать, то 650 или 750... либо пергилий... там вообще 3 монитора можно прицепить... правда в новосиб разве, что под заказ привезут...
dep
А вот у меня в столе G200 лежит... Там можно только один монитор прикручивать вообще-то... А еще она в современный AGP не лезет...
PN
я о чем говорю... зачем предлагать 450... если уже вышли 550, 650, 750 и пергилий... а то, что на 200 только один монитор это да... забыл я... это 400 выходила в двух вариантах... для одного и для двух мониторов...
dep
Как я понял человек, написавший тему пытается найти оптимальное решение, а не гонится за Hi End классом видюх ... Если учесть что даже G450 стоил в своё время 180-200 зелёных тугриков, то более поздние модели стоят соответсвенно дороже ....Тем более такой девайс у меня имеется ... я же грил если он заинтересуется то напишет в приватку ....
ATI Radeon или его конкурент Nvidia делаю хорошие видюхи, но они мало пригодны для работы ... а вот Matrox как раз позиционируется на рынок работы а не на рынок развлечений ....
К стати у меня был Matrox 200 прикольная видюха сроду не думал что при разрешении в 1600х1200потянет 85hz :улыб:
Green_Hawk
Ну уж... Времена, когад считалось, что Матрас - лучшее в двухмере изображение выдает, давно уже прошли. Все современные карты, выдают изображение ничуть не хуже... Проверено не раз.
А еще, у ATI и nVidia есть "карты для работы" - FireGL и Quadro. Не думаю, что там с изображением хуже, чем у Matrox. Вот только цены там маленько другие :-). Но, опять же переделать GeForce в соответсвущую Quadro не представляет большой проблемы. С ATI тоже есть решение. Следовательно, у их "домашних" аналогов - теоретически все должно быть на том же уровне, а практически оно так и оказывается... По крайней мере, на своем LaCie я не заметил разницы в 2048Х1536@85Hz между x800xt и Parhelia - абсолютно одинаковые картинки.
PN
В принципе это не существенно, но я бы сказал что разница ощущается, во всяком случае у меня между 6800GT и G450 у второго на моём мониторе Compaq P110 картинка всётаки посочнее цвета ...
С одной стороны это в полне объяснимо ведь у ATI всегда картинка была немного лучше чем у Nvidia, хм... за счёт скорости... :миг:
PN
Всем спасибо. Взял у Valico 9600XT и 9800Pro попробовать. Обе держат в портретном режиме 70Гц. (75Гц видимо на этом мониторе нет, производитель соврал наверное).
В режиме клон на любой карте ставится частота и разрешение ведущего монитора.
Так что буду собираться на 9600