Оптимальная видеокарта на 2 монитора. Какая?
3768
26
Долгое время пользовался Gygabyte Radeon 9200 (не SE а натюрлих). Пока был только монитор ЭЛТ 17" все устраивало т.к. в игры не играю. Цеплял к TV выходу телек, иногда, чтобы смотреть фильмы не отрываясь от процесса работы. На днях купил ЖК 19" разрешение 1280*1024 подцепил его через DVI основным, а старый соответсвенно вторым оставил на D-SUB. Проблемма в том что одновременно оба монитора карта поддерживает только при выставленной частоте 60Гц на обоих. (причем на ЭЛТ 17" при этом 800*600). если какой нибудь из параметров завысить то изображение на ЖК мигает, или вовсе пропадает на 5-10 сек.
И второе - в портретном режиме ЖК работает только при тех же 60Гц (АТИшная прога сообщает что карта не тянет портретный при 70Гц).
И третье - в спецификации монитора ЖК написано что он поддерживает 75 Гц но видюха на выбор дает только 60-70.
Драйвер стоит "wxp-w2k-catalyst-8-082-041130a-019577c"
Делаю вывод пора менять карточку.
Вопрос: Подскажите пожалуйста ATI-шную карту, что-бы ЖК монитор держал даже в портретном режиме 70-75Гц, и одновременно ЭЛТ хотябы при разрешении 800*600 держал 75-85Гц.
Шибко навороченную покупать нехочу денег жалко, надо чтобы в притык.
И второе - в портретном режиме ЖК работает только при тех же 60Гц (АТИшная прога сообщает что карта не тянет портретный при 70Гц).
И третье - в спецификации монитора ЖК написано что он поддерживает 75 Гц но видюха на выбор дает только 60-70.
Драйвер стоит "wxp-w2k-catalyst-8-082-041130a-019577c"
Делаю вывод пора менять карточку.
Вопрос: Подскажите пожалуйста ATI-шную карту, что-бы ЖК монитор держал даже в портретном режиме 70-75Гц, и одновременно ЭЛТ хотябы при разрешении 800*600 держал 75-85Гц.
Шибко навороченную покупать нехочу денег жалко, надо чтобы в притык.
я подозреваю,что на его 9200 просто нету второго рамдака...
Что есть "рамдак" ? и как его разъяснить есть он второй или его нет?
Ну ты дал... Сколько голов на выход, столько и рамдаков вообще-то... У любого 9200 их два по 400 МГц.
9600 здесь тоже не пойдет... У него при строчности 1200 уже всего 75 Гц.
Так что надо думать о покупке 9800, хотя бы и простого, не про и не ХТ. Там при строчности 1440 заявлено 90 Гц. Или даже Х800 взять :-) чего уж там...
рамдак (RAMDAC - random access mmory digital-to-analog converter) - собссно тот кусок видеокарты, ктороый и показывает картинку на мониторе. От его мощности и зависит, какие частоты и разрешения она сможет предоставить. Ключевой параметр - тактовая частота.
9600 здесь тоже не пойдет... У него при строчности 1200 уже всего 75 Гц.
Так что надо думать о покупке 9800, хотя бы и простого, не про и не ХТ. Там при строчности 1440 заявлено 90 Гц. Или даже Х800 взять :-) чего уж там...
рамдак (RAMDAC - random access mmory digital-to-analog converter) - собссно тот кусок видеокарты, ктороый и показывает картинку на мониторе. От его мощности и зависит, какие частоты и разрешения она сможет предоставить. Ключевой параметр - тактовая частота.
Хотя, предварительно надобы таки побаловаться с мониторами поподробнее... Может, и не в этом дело... Сейчас смотрел спеки на 9200 - там разрешения и частоты один в один, как у 9800... А у 9600 они ниже, причем сильно...
Что-то здесь не так... Либо, взять 9800 с манибэком, если не заработает...
Что-то здесь не так... Либо, взять 9800 с манибэком, если не заработает...
Valico
veteran
Ну приходи, возьми потестить че-нить из нужного ценового диапазона
Сейчас читают
Лицо или тело
27098
111
Завтрак. Обед. Ужин. Эпилог.
7415
42
Какие условия вы ставите перед мужем, до замужества?
42614
275
Ну ты дал... Сколько голов на выход, столько и рамдаков вообще-то... У любого 9200 их два по 400 МГц.
ага, щаз! сколько голов на выход, столько и рамдаков - это у НОРМАЛЬНЫХ видях. а вот кетайцкие производители бывает на этом экономят.
ага, щаз! сколько голов на выход, столько и рамдаков - это у НОРМАЛЬНЫХ видях. а вот кетайцкие производители бывает на этом экономят.
Green_Hawk
veteran
Если не для игры а для работы то лучше Matrox G450....
Green_Hawk
veteran
Вот обзор о этой карточке ..
http://www.ixbt.com/video/matrox-g450.html
Если заинтересуешься пиши в приватку ....
http://www.ixbt.com/video/matrox-g450.html
Если заинтересуешься пиши в приватку ....
Наскока я помню DVI - есть выход цифровой, соответственно рамдак ему на фиг не нужен, потому как рамдак - аналогово-цифровой преобразователь. Так что не в этом дело.
Не знаю я, как кетайцкие производители умудряются экономить на этом, но уже очень давно рамдаки встраиваются в сам процессор, посему, сэкономить на этом нельзя... В Радеон 9200 они именно туда встроены в количестве двух штук...
2 valico. Нельзя помнить того, что не знаешь. Учи матчасть...
2 valico. Нельзя помнить того, что не знаешь. Учи матчасть...
Вдогонку...
Ты 6800GT видел? Интересно, сколько там рамдаков?
Ты 6800GT видел? Интересно, сколько там рамдаков?
Таак. Разбираемся для начала в терминологии:
DVI - digital video interface
RAMDAC - random access memory Digatal-Analog Convertor
Т.е. рамдак по сути своей ЦАП (цифро-аналоговый преобразователь) назначение которого видно из названия.
Тогда поясните мне ЗАЧЕМ преобразовывать цифровой сигнал в аналоговый, чтобы передать его по цифровому интерфейсу???
DVI - digital video interface
RAMDAC - random access memory Digatal-Analog Convertor
Т.е. рамдак по сути своей ЦАП (цифро-аналоговый преобразователь) назначение которого видно из названия.
Тогда поясните мне ЗАЧЕМ преобразовывать цифровой сигнал в аналоговый, чтобы передать его по цифровому интерфейсу???
Вдогонку...Только что видел. Рамдаков там два.
Ты 6800GT видел? Интересно, сколько там рамдаков?
> Не знаю я, как кетайцкие производители умудряются экономить на этом, но уже очень давно рамдаки встраиваются в сам процессор, посему, сэкономить на этом нельзя... В Радеон 9200 они именно туда встроены в количестве двух штук...
ааа... ну тады канэшна!
я 9200 не юзал и спеки на нее не смотрел, а вот с 8500/9100 с одним рамдаком сталкивался.
а дома 8500 стоит фирменная от ATI , купленная, если не изменяет память, в начале 2001г. вполне устраивает и по сей день - в Х'ах изображение отличное!
ааа... ну тады канэшна!
я 9200 не юзал и спеки на нее не смотрел, а вот с 8500/9100 с одним рамдаком сталкивался.
а дома 8500 стоит фирменная от ATI , купленная, если не изменяет память, в начале 2001г. вполне устраивает и по сей день - в Х'ах изображение отличное!
Что на разьеме DVI (у меня так по крайней мере на Gigabyte 9200) несколько контактов передают аналоговый сигнал под переходник к D-Sub
Большая поправка, 1280*1024 и 800*600 два монитора показывают в режиме "Расширение раб стола на второй монитор" Но в этом режиме не поддреживается оверлей на втором монике, так что видео не перекинешь туда.
В режиме "копия раб. стола" не важно что выставленно на втором реально показывает тоже разрешение что и на ведущем мониторе т.е. 1280*1024.
Получается что во втором режиме нельзя настраивать параметры отдельно.
В режиме "копия раб. стола" не важно что выставленно на втором реально показывает тоже разрешение что и на ведущем мониторе т.е. 1280*1024.
Получается что во втором режиме нельзя настраивать параметры отдельно.
Только что видел. Рамдаков там два.А интерфейсы - два DVI. Вопрос: зачем ему рамдаки? Если у него нет "аналогового" интерфейса? А все потому, что интерфейс DVI предусматривает возможность передачи, кроме цифровых данных, и аналоговых сигналов для CRT-мониторов. Реализация только цифровой части стандарта обозначается DVI-D. Интерфейс, по которому передаются и аналоговые сигналы, получил название DVI-I. Разъемы кабелей DVI-D и DVI-I отличаются числом контактов (у DVI-I их на 4 больше), но одинаковы по форме, совместимы между собой и со всеми графическими картами, оснащенными DVI-коннектором. Но у всех видеокарт интерфейс всегда DVI-I. Именно поэтому, к любой из них можно приделать переходник D-SUB и прикрутить монитор с таким интерфейсом. И именно поэтому для каждого из интерфейсов DVI на карте нужен свой рамдак...
Ну вот, все просто и понятно! Прочитал - уберег нервы!
угу... а что ж не 200...если уж рекомендовать, то 650 или 750... либо пергилий... там вообще 3 монитора можно прицепить... правда в новосиб разве, что под заказ привезут...
А вот у меня в столе G200 лежит... Там можно только один монитор прикручивать вообще-то... А еще она в современный AGP не лезет...
я о чем говорю... зачем предлагать 450... если уже вышли 550, 650, 750 и пергилий... а то, что на 200 только один монитор это да... забыл я... это 400 выходила в двух вариантах... для одного и для двух мониторов...
Green_Hawk
veteran
Как я понял человек, написавший тему пытается найти оптимальное решение, а не гонится за Hi End классом видюх ... Если учесть что даже G450 стоил в своё время 180-200 зелёных тугриков, то более поздние модели стоят соответсвенно дороже ....Тем более такой девайс у меня имеется ... я же грил если он заинтересуется то напишет в приватку ....
ATI Radeon или его конкурент Nvidia делаю хорошие видюхи, но они мало пригодны для работы ... а вот Matrox как раз позиционируется на рынок работы а не на рынок развлечений ....
К стати у меня был Matrox 200 прикольная видюха сроду не думал что при разрешении в 1600х1200потянет 85hz
ATI Radeon или его конкурент Nvidia делаю хорошие видюхи, но они мало пригодны для работы ... а вот Matrox как раз позиционируется на рынок работы а не на рынок развлечений ....
К стати у меня был Matrox 200 прикольная видюха сроду не думал что при разрешении в 1600х1200потянет 85hz
PN
ЙА ТИГОР
Ну уж... Времена, когад считалось, что Матрас - лучшее в двухмере изображение выдает, давно уже прошли. Все современные карты, выдают изображение ничуть не хуже... Проверено не раз.
А еще, у ATI и nVidia есть "карты для работы" - FireGL и Quadro. Не думаю, что там с изображением хуже, чем у Matrox. Вот только цены там маленько другие :-). Но, опять же переделать GeForce в соответсвущую Quadro не представляет большой проблемы. С ATI тоже есть решение. Следовательно, у их "домашних" аналогов - теоретически все должно быть на том же уровне, а практически оно так и оказывается... По крайней мере, на своем LaCie я не заметил разницы в 2048Х1536@85Hz между x800xt и Parhelia - абсолютно одинаковые картинки.
А еще, у ATI и nVidia есть "карты для работы" - FireGL и Quadro. Не думаю, что там с изображением хуже, чем у Matrox. Вот только цены там маленько другие :-). Но, опять же переделать GeForce в соответсвущую Quadro не представляет большой проблемы. С ATI тоже есть решение. Следовательно, у их "домашних" аналогов - теоретически все должно быть на том же уровне, а практически оно так и оказывается... По крайней мере, на своем LaCie я не заметил разницы в 2048Х1536@85Hz между x800xt и Parhelia - абсолютно одинаковые картинки.
Green_Hawk
veteran
В принципе это не существенно, но я бы сказал что разница ощущается, во всяком случае у меня между 6800GT и G450 у второго на моём мониторе Compaq P110 картинка всётаки посочнее цвета ...
С одной стороны это в полне объяснимо ведь у ATI всегда картинка была немного лучше чем у Nvidia, хм... за счёт скорости...
С одной стороны это в полне объяснимо ведь у ATI всегда картинка была немного лучше чем у Nvidia, хм... за счёт скорости...
Всем спасибо. Взял у Valico 9600XT и 9800Pro попробовать. Обе держат в портретном режиме 70Гц. (75Гц видимо на этом мониторе нет, производитель соврал наверное).
В режиме клон на любой карте ставится частота и разрешение ведущего монитора.
Так что буду собираться на 9600
В режиме клон на любой карте ставится частота и разрешение ведущего монитора.
Так что буду собираться на 9600