Оптимальная видеокарта на 2 монитора. Какая?
3769
26
Долгое время пользовался Gygabyte Radeon 9200 (не SE а натюрлих). Пока был только монитор ЭЛТ 17" все устраивало т.к. в игры не играю. Цеплял к TV выходу телек, иногда, чтобы смотреть фильмы не отрываясь от процесса работы. На днях купил ЖК 19" разрешение 1280*1024 подцепил его через DVI основным, а старый соответсвенно вторым оставил на D-SUB. Проблемма в том что одновременно оба монитора карта поддерживает только при выставленной частоте 60Гц на обоих. (причем на ЭЛТ 17" при этом 800*600). если какой нибудь из параметров завысить то изображение на ЖК мигает, или вовсе пропадает на 5-10 сек.
И второе - в портретном режиме ЖК работает только при тех же 60Гц (АТИшная прога сообщает что карта не тянет портретный при 70Гц).
И третье - в спецификации монитора ЖК написано что он поддерживает 75 Гц но видюха на выбор дает только 60-70.
Драйвер стоит "wxp-w2k-catalyst-8-082-041130a-019577c"
Делаю вывод пора менять карточку.
Вопрос: Подскажите пожалуйста ATI-шную карту, что-бы ЖК монитор держал даже в портретном режиме 70-75Гц, и одновременно ЭЛТ хотябы при разрешении 800*600 держал 75-85Гц.
Шибко навороченную покупать нехочу денег жалко, надо чтобы в притык.
И второе - в портретном режиме ЖК работает только при тех же 60Гц (АТИшная прога сообщает что карта не тянет портретный при 70Гц).
И третье - в спецификации монитора ЖК написано что он поддерживает 75 Гц но видюха на выбор дает только 60-70.
Драйвер стоит "wxp-w2k-catalyst-8-082-041130a-019577c"
Делаю вывод пора менять карточку.
Вопрос: Подскажите пожалуйста ATI-шную карту, что-бы ЖК монитор держал даже в портретном режиме 70-75Гц, и одновременно ЭЛТ хотябы при разрешении 800*600 держал 75-85Гц.
Шибко навороченную покупать нехочу денег жалко, надо чтобы в притык.
я подозреваю,что на его 9200 просто нету второго рамдака...
Что есть "рамдак" ? и как его разъяснить есть он второй или его нет?
Ну ты дал... Сколько голов на выход, столько и рамдаков вообще-то... У любого 9200 их два по 400 МГц.
9600 здесь тоже не пойдет... У него при строчности 1200 уже всего 75 Гц.
Так что надо думать о покупке 9800, хотя бы и простого, не про и не ХТ. Там при строчности 1440 заявлено 90 Гц. Или даже Х800 взять :-) чего уж там...
рамдак (RAMDAC - random access mmory digital-to-analog converter) - собссно тот кусок видеокарты, ктороый и показывает картинку на мониторе. От его мощности и зависит, какие частоты и разрешения она сможет предоставить. Ключевой параметр - тактовая частота.
9600 здесь тоже не пойдет... У него при строчности 1200 уже всего 75 Гц.
Так что надо думать о покупке 9800, хотя бы и простого, не про и не ХТ. Там при строчности 1440 заявлено 90 Гц. Или даже Х800 взять :-) чего уж там...
рамдак (RAMDAC - random access mmory digital-to-analog converter) - собссно тот кусок видеокарты, ктороый и показывает картинку на мониторе. От его мощности и зависит, какие частоты и разрешения она сможет предоставить. Ключевой параметр - тактовая частота.
Хотя, предварительно надобы таки побаловаться с мониторами поподробнее... Может, и не в этом дело... Сейчас смотрел спеки на 9200 - там разрешения и частоты один в один, как у 9800... А у 9600 они ниже, причем сильно...
Что-то здесь не так... Либо, взять 9800 с манибэком, если не заработает...
Что-то здесь не так... Либо, взять 9800 с манибэком, если не заработает...
Valico
veteran
Ну приходи, возьми потестить че-нить из нужного ценового диапазона
Сейчас читают
Дозор человеческий
159595
1000
красота и материнство (часть 58)
190804
1000
Подскажите как отвадить его бывшую?
70706
402
Ну ты дал... Сколько голов на выход, столько и рамдаков вообще-то... У любого 9200 их два по 400 МГц.
ага, щаз! сколько голов на выход, столько и рамдаков - это у НОРМАЛЬНЫХ видях. а вот кетайцкие производители бывает на этом экономят.
ага, щаз! сколько голов на выход, столько и рамдаков - это у НОРМАЛЬНЫХ видях. а вот кетайцкие производители бывает на этом экономят.
Green_Hawk
veteran
Если не для игры а для работы то лучше Matrox G450....
Green_Hawk
veteran
Вот обзор о этой карточке ..
http://www.ixbt.com/video/matrox-g450.html
Если заинтересуешься пиши в приватку ....
http://www.ixbt.com/video/matrox-g450.html
Если заинтересуешься пиши в приватку ....
Наскока я помню DVI - есть выход цифровой, соответственно рамдак ему на фиг не нужен, потому как рамдак - аналогово-цифровой преобразователь. Так что не в этом дело.
Не знаю я, как кетайцкие производители умудряются экономить на этом, но уже очень давно рамдаки встраиваются в сам процессор, посему, сэкономить на этом нельзя... В Радеон 9200 они именно туда встроены в количестве двух штук...
2 valico. Нельзя помнить того, что не знаешь. Учи матчасть...
2 valico. Нельзя помнить того, что не знаешь. Учи матчасть...
Вдогонку...
Ты 6800GT видел? Интересно, сколько там рамдаков?
Ты 6800GT видел? Интересно, сколько там рамдаков?
Таак. Разбираемся для начала в терминологии:
DVI - digital video interface
RAMDAC - random access memory Digatal-Analog Convertor
Т.е. рамдак по сути своей ЦАП (цифро-аналоговый преобразователь) назначение которого видно из названия.
Тогда поясните мне ЗАЧЕМ преобразовывать цифровой сигнал в аналоговый, чтобы передать его по цифровому интерфейсу???
DVI - digital video interface
RAMDAC - random access memory Digatal-Analog Convertor
Т.е. рамдак по сути своей ЦАП (цифро-аналоговый преобразователь) назначение которого видно из названия.
Тогда поясните мне ЗАЧЕМ преобразовывать цифровой сигнал в аналоговый, чтобы передать его по цифровому интерфейсу???
Вдогонку...Только что видел. Рамдаков там два.
Ты 6800GT видел? Интересно, сколько там рамдаков?
> Не знаю я, как кетайцкие производители умудряются экономить на этом, но уже очень давно рамдаки встраиваются в сам процессор, посему, сэкономить на этом нельзя... В Радеон 9200 они именно туда встроены в количестве двух штук...
ааа... ну тады канэшна!
я 9200 не юзал и спеки на нее не смотрел, а вот с 8500/9100 с одним рамдаком сталкивался.
а дома 8500 стоит фирменная от ATI , купленная, если не изменяет память, в начале 2001г. вполне устраивает и по сей день - в Х'ах изображение отличное!
ааа... ну тады канэшна!
я 9200 не юзал и спеки на нее не смотрел, а вот с 8500/9100 с одним рамдаком сталкивался.
а дома 8500 стоит фирменная от ATI , купленная, если не изменяет память, в начале 2001г. вполне устраивает и по сей день - в Х'ах изображение отличное!
Что на разьеме DVI (у меня так по крайней мере на Gigabyte 9200) несколько контактов передают аналоговый сигнал под переходник к D-Sub
Большая поправка, 1280*1024 и 800*600 два монитора показывают в режиме "Расширение раб стола на второй монитор" Но в этом режиме не поддреживается оверлей на втором монике, так что видео не перекинешь туда.
В режиме "копия раб. стола" не важно что выставленно на втором реально показывает тоже разрешение что и на ведущем мониторе т.е. 1280*1024.
Получается что во втором режиме нельзя настраивать параметры отдельно.
В режиме "копия раб. стола" не важно что выставленно на втором реально показывает тоже разрешение что и на ведущем мониторе т.е. 1280*1024.
Получается что во втором режиме нельзя настраивать параметры отдельно.
Только что видел. Рамдаков там два.А интерфейсы - два DVI. Вопрос: зачем ему рамдаки? Если у него нет "аналогового" интерфейса? А все потому, что интерфейс DVI предусматривает возможность передачи, кроме цифровых данных, и аналоговых сигналов для CRT-мониторов. Реализация только цифровой части стандарта обозначается DVI-D. Интерфейс, по которому передаются и аналоговые сигналы, получил название DVI-I. Разъемы кабелей DVI-D и DVI-I отличаются числом контактов (у DVI-I их на 4 больше), но одинаковы по форме, совместимы между собой и со всеми графическими картами, оснащенными DVI-коннектором. Но у всех видеокарт интерфейс всегда DVI-I. Именно поэтому, к любой из них можно приделать переходник D-SUB и прикрутить монитор с таким интерфейсом. И именно поэтому для каждого из интерфейсов DVI на карте нужен свой рамдак...
Ну вот, все просто и понятно! Прочитал - уберег нервы!
угу... а что ж не 200...если уж рекомендовать, то 650 или 750... либо пергилий... там вообще 3 монитора можно прицепить... правда в новосиб разве, что под заказ привезут...
А вот у меня в столе G200 лежит... Там можно только один монитор прикручивать вообще-то... А еще она в современный AGP не лезет...
я о чем говорю... зачем предлагать 450... если уже вышли 550, 650, 750 и пергилий... а то, что на 200 только один монитор это да... забыл я... это 400 выходила в двух вариантах... для одного и для двух мониторов...
Green_Hawk
veteran
Как я понял человек, написавший тему пытается найти оптимальное решение, а не гонится за Hi End классом видюх ... Если учесть что даже G450 стоил в своё время 180-200 зелёных тугриков, то более поздние модели стоят соответсвенно дороже ....Тем более такой девайс у меня имеется ... я же грил если он заинтересуется то напишет в приватку ....
ATI Radeon или его конкурент Nvidia делаю хорошие видюхи, но они мало пригодны для работы ... а вот Matrox как раз позиционируется на рынок работы а не на рынок развлечений ....
К стати у меня был Matrox 200 прикольная видюха сроду не думал что при разрешении в 1600х1200потянет 85hz
ATI Radeon или его конкурент Nvidia делаю хорошие видюхи, но они мало пригодны для работы ... а вот Matrox как раз позиционируется на рынок работы а не на рынок развлечений ....
К стати у меня был Matrox 200 прикольная видюха сроду не думал что при разрешении в 1600х1200потянет 85hz
PN
ЙА ТИГОР
Ну уж... Времена, когад считалось, что Матрас - лучшее в двухмере изображение выдает, давно уже прошли. Все современные карты, выдают изображение ничуть не хуже... Проверено не раз.
А еще, у ATI и nVidia есть "карты для работы" - FireGL и Quadro. Не думаю, что там с изображением хуже, чем у Matrox. Вот только цены там маленько другие :-). Но, опять же переделать GeForce в соответсвущую Quadro не представляет большой проблемы. С ATI тоже есть решение. Следовательно, у их "домашних" аналогов - теоретически все должно быть на том же уровне, а практически оно так и оказывается... По крайней мере, на своем LaCie я не заметил разницы в 2048Х1536@85Hz между x800xt и Parhelia - абсолютно одинаковые картинки.
А еще, у ATI и nVidia есть "карты для работы" - FireGL и Quadro. Не думаю, что там с изображением хуже, чем у Matrox. Вот только цены там маленько другие :-). Но, опять же переделать GeForce в соответсвущую Quadro не представляет большой проблемы. С ATI тоже есть решение. Следовательно, у их "домашних" аналогов - теоретически все должно быть на том же уровне, а практически оно так и оказывается... По крайней мере, на своем LaCie я не заметил разницы в 2048Х1536@85Hz между x800xt и Parhelia - абсолютно одинаковые картинки.
Green_Hawk
veteran
В принципе это не существенно, но я бы сказал что разница ощущается, во всяком случае у меня между 6800GT и G450 у второго на моём мониторе Compaq P110 картинка всётаки посочнее цвета ...
С одной стороны это в полне объяснимо ведь у ATI всегда картинка была немного лучше чем у Nvidia, хм... за счёт скорости...
С одной стороны это в полне объяснимо ведь у ATI всегда картинка была немного лучше чем у Nvidia, хм... за счёт скорости...
Всем спасибо. Взял у Valico 9600XT и 9800Pro попробовать. Обе держат в портретном режиме 70Гц. (75Гц видимо на этом мониторе нет, производитель соврал наверное).
В режиме клон на любой карте ставится частота и разрешение ведущего монитора.
Так что буду собираться на 9600
В режиме клон на любой карте ставится частота и разрешение ведущего монитора.
Так что буду собираться на 9600