Выбор видеокарты от $400 и выше (High-End)
Модераторы: GothMan, Lovrik, wlad
-
- Клубмен
- Сообщения: 374
- Зарегистрирован: 05.12.2003 2:13
- Откуда: "nvWorld Club", Корсунь Киммерий
- Контактная информация:
Выбор видеокарты от $400 и выше (High-End)
Вроде, уже актуально...
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Клубмен
- Сообщения: 571
- Зарегистрирован: 28.03.2003 11:28
- Откуда: www.driverpack.ru
- Контактная информация:
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Клубмен
- Сообщения: 571
- Зарегистрирован: 28.03.2003 11:28
- Откуда: www.driverpack.ru
- Контактная информация:
Dark Knight,
хотя, не спорю, плюс-не минус, хорошо, когда это есть.
по мне, так лучше икстишку на 30 дороже взять, чем искать
ну это как 32 битный цвет на первых тнт =)Да еще плюс и шадеры 3.0, как никак технологическое новшество.
хотя, не спорю, плюс-не минус, хорошо, когда это есть.
ну у нас ведь выбор, а не политкорректность.ды и мы вроде на Нвидиевском форуме находимся.
по мне, так лучше икстишку на 30 дороже взять, чем искать
6800ГТ стабильно работающий на частотах Ультры
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
BUHHU_nbIX,
Но ведь еще неизвестно,какая скорость будет у новых решений АТИ в приложениях, использующих эти шейдеры пресловутые.Ведь Нвидиа довольно неплохо себя показала на этом поприще.
И это переросло в массовое пользование. Почему бы этому успеху не повториться с использованием шейдеров 3.0 ??ну это как 32 битный цвет на первых тнт
Но ведь еще неизвестно,какая скорость будет у новых решений АТИ в приложениях, использующих эти шейдеры пресловутые.Ведь Нвидиа довольно неплохо себя показала на этом поприще.
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Клубмен
- Сообщения: 571
- Зарегистрирован: 28.03.2003 11:28
- Откуда: www.driverpack.ru
- Контактная информация:
-
- Старожил
- Сообщения: 1762
- Зарегистрирован: 01.01.1970 3:00
- Откуда: Россия, Курск-Москва
- Контактная информация:
BUHHU_nbIX
Судя по скринам, HDR еще будет в следующем "The Elder Scrolls IV: Oblivion" (ИМХО) так что "охватываются" еще и ролевики. Потом какой-нибудь NFS U4 выпустят с "засветкой" и форум будет отпихиваться от вопросов "как на моей FX5700 включить HDR"
Так что будь у меня лишних 400+ у.ё. на видео, я все-таки выбрал бы NVidia 6800GT. А с R5xx будет соревноваться уже следующее поколение карт NVidia, тогда все и увидим.
А FarCry с HDR? И, кстати, не надо "отпихиваться" тормозами -- на картах за $400+ даже такие "тормоза" будут играбельны.на современных видео наличие пс3 ничего не даёт, кроме того, что оно есть
ИМХО тоже неверно (для этой ценовой категории). Разве что, если кто-то меняет карты каждые полгода.а щас давайте жить этим днём
Судя по скринам, HDR еще будет в следующем "The Elder Scrolls IV: Oblivion" (ИМХО) так что "охватываются" еще и ролевики. Потом какой-нибудь NFS U4 выпустят с "засветкой" и форум будет отпихиваться от вопросов "как на моей FX5700 включить HDR"
Так что будь у меня лишних 400+ у.ё. на видео, я все-таки выбрал бы NVidia 6800GT. А с R5xx будет соревноваться уже следующее поколение карт NVidia, тогда все и увидим.
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
Ian,
Да, это конечно красиво:
http://nvworld.ru/temp/w3.jpg
Но думаю никто не будет играть с таким качеством при 15fps, когда можно играть с таким:
http://nvworld.ru/temp/w1.jpg
при 60fps
"Такие" - может быть и играбельны. Но другие, как скажем риддик и перл харбор будут тормозить и на 6800U.А FarCry с HDR? И, кстати, не надо "отпихиваться" тормозами -- на картах за $400+ даже такие "тормоза" будут играбельны.
Да, это конечно красиво:
http://nvworld.ru/temp/w3.jpg
Но думаю никто не будет играть с таким качеством при 15fps, когда можно играть с таким:
http://nvworld.ru/temp/w1.jpg
при 60fps
-
- Модератор
- Сообщения: 3433
- Зарегистрирован: 03.07.2003 10:02
- Откуда: МИРовой Клуб, Санкт-Петербургский филиал
- Контактная информация:
andser,
Если поставить в ПХ какчество воды в "3" - отключать такую красоту уже не хочется даж барашки на волнах есть. Но неиграбельно абсолютно.
судя по картинке w1, там какчество воды "1"? попробуйте "2" поставить падение производительности несущественно, а реализЬм возрастает.
Кстати.. наЩет шадеров 3.0. Патч 1.6.1 к Painkiller прямо-таки преобразил игру. Сейчас заново прохожу, не спеша, любуясь Если применение sm3 не требует особенных усилий, что доказывается выходом патчей - зачем брать карту с заведомо меньшей функциональностью?
слухи о G70:
http://www.thg.ru/technews/20050418_121449.html
Понятно, конечно, что все зависит от поддержки технологии софтом. Но возможны и аналогии с 64 битами, об отсутствии необходимости в которых так долго верещала интел, а потом вдруг хорошенько подумала - и сотворила кривую копию расширений АМД64.
эт точно.Но другие, как скажем риддик и перл харбор будут тормозить и на 6800U
Если поставить в ПХ какчество воды в "3" - отключать такую красоту уже не хочется даж барашки на волнах есть. Но неиграбельно абсолютно.
судя по картинке w1, там какчество воды "1"? попробуйте "2" поставить падение производительности несущественно, а реализЬм возрастает.
Кстати.. наЩет шадеров 3.0. Патч 1.6.1 к Painkiller прямо-таки преобразил игру. Сейчас заново прохожу, не спеша, любуясь Если применение sm3 не требует особенных усилий, что доказывается выходом патчей - зачем брать карту с заведомо меньшей функциональностью?
слухи о G70:
http://www.thg.ru/technews/20050418_121449.html
уже и sm4 планируют. Ати пока что и sm3 не сотворила.Процессор изготовлен по технологической норме 90 нм на заводе TSMC (либо IBM);
Количество транзисторов - 325 миллионов;
Рабочая частота графического процессора - 600 МГц;
Шина памяти - 256-битная;
Тип памяти - GDDR3;
Рабочая частота памяти - 2 ГГц;
Пропускная способность памяти - 64,4 Гбит/сек;
Количество пиксельных конвейеров - 32;
Количество вершинных блоков - 12;
Два RAMDAC (600 МГц каждый), поддержка разрешения 2048x1536 при частоте развертки 120 Гц;
Поддержка Microsoft DirectX 10а, Shader Model 4.0 и OpenGL 2.0;
Интерфейс PCI Express 16x;
Поддержка технологии SLI.
Понятно, конечно, что все зависит от поддержки технологии софтом. Но возможны и аналогии с 64 битами, об отсутствии необходимости в которых так долго верещала интел, а потом вдруг хорошенько подумала - и сотворила кривую копию расширений АМД64.
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Модератор
- Сообщения: 3433
- Зарегистрирован: 03.07.2003 10:02
- Откуда: МИРовой Клуб, Санкт-Петербургский филиал
- Контактная информация:
Dark Knight,
http://nvworld.ru/news/19_04_2005.html#19_04_2005-02
Но реально, боюсь, карты увидим опять через год, как и нв40.
вродь как ближе к лету должон.если выйдет в этом году Г70
http://nvworld.ru/news/19_04_2005.html#19_04_2005-02
Но реально, боюсь, карты увидим опять через год, как и нв40.
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Модератор
- Сообщения: 3433
- Зарегистрирован: 03.07.2003 10:02
- Откуда: МИРовой Клуб, Санкт-Петербургский филиал
- Контактная информация:
Неплохой обзорец по технологии SLI:
http://www.alexnab.com/01hardware/index0145.htm
Так как стоимость даже двух 6600GT для SLI переваливает за $400 (и это без учета доп. расходов на питание/охлаждение/шумоподавление), думаю, веткой я не ошибся.
Не удержусь и приведу итоговую цитату для нетерпеливых.
http://www.alexnab.com/01hardware/index0145.htm
Так как стоимость даже двух 6600GT для SLI переваливает за $400 (и это без учета доп. расходов на питание/охлаждение/шумоподавление), думаю, веткой я не ошибся.
Не удержусь и приведу итоговую цитату для нетерпеливых.
..Разумеется, приняв замеченные на мониторе артефакты за нормальное явление, можно радостно поаплодировать инженерам nVidia и дружно посадить на диету свои кошельки, чтобы быть на острие прогресса вместе с SLI-системами. Однако с политикой ухудшения видеоряда конкретных игровых приложений во имя достижения невероятной производительности мы столкнулись еще год назад: из тестов исчезали целые сценарные куски, а общее качество игровых картинок повергало в шок специалистов. Мы уже тогда были категорически против подобного подхода, но что изменилось?
Когда производительность графической подсистемы резко возрастает за счет простой оптимизации драйверов, в глазах потребителя этот процесс принимает оттенок нечестной игры. А вот если к огромной работе с драйверами добавить техническую составляющую, то пользователи наконец-то смогут убедиться в появлении чудо-технологии. Тем более что доступность реализации идеи вселяет в потребителей уверенность в возможности будущего обновления уже купленного ПК.
Однако после всего, что мы увидели на экранах наших мониторов, смеем заметить: идея SLI великолепна для сегмента средней ценовой категории, но пока еще сыровата для высшей. Так что сравнивать честных "попугаев" ATI Radeon X850XT с хаотичными стаями "бакланов" GeForce 6800 Ultra в конфигурации SLI по меньшей мере неразумно. И восторг по поводу революционного удвоения баллов в синтетических тестах мы оставим до будущих времен.
На наш взгляд, для реализации высшей SLI-производительности с достойным качеством изображения понадобятся месяцы обкатки. А пока налицо парадокс: разительные отличия от конкурентов наступают в максимальных режимах экрана, анизотропной фильтрации и сглаживания изображения, но большой поток 3D-информации с двух видеоплат приводит к сложностям с его синхронизацией, что проявляется в виде неприемлемых артефактов. Более того, возможно, что дискретные решения SLI - тупиковая ветвь развития двухпроцессорных систем сектора высокопроизводительных видеоплат. А если так - может, есть смысл вовремя остановиться в конкурентном противостоянии?
Невольно напрашивается справедливое сравнение технологий nVidia SLI, Intel HT (Hyper Threading) и AMD 64. С одной стороны, они являются "козырными картами" маркетологов в борьбе за содержимое кошельков потребителей и амбиции конкурентов, а с другой, эти технологические прорывы имеют практическую ценность лишь в научных целях и для узкого спектра адаптированного ПО. И даже чудо-возможность будущего апгрейда ПК с использованием технологии SLI утрачивает всю свою привлекательность из-за стартовых затрат на приобретение необходимых для этого процессора, системной платы, ОЗУ и блока питания.
-
- Модератор
- Сообщения: 3433
- Зарегистрирован: 03.07.2003 10:02
- Откуда: МИРовой Клуб, Санкт-Петербургский филиал
- Контактная информация:
http://www.overclockers.ru/hardnews/18684.shtml
Это, конечно, максимум; но - однако тенденция, как говорил незабвенный чукча.
жуть какая..Наши коллеги с сайта The Inquirer сообщают, что видеокарты на базе чипа G70 могут требовать наличия двух шестиштырьковых разъёмов дополнительного питания, каждый из которых способен поставлять до 75 Вт мощности. То есть, к подаваемой по шине PCI Express x16 мощности следует прибавить ещё 150 Вт мощности, чтобы представить себе теоретическое максимальное энергопотребление видеокарт на базе G70. Получится пугающая цифра порядка 225 Вт.
Это, конечно, максимум; но - однако тенденция, как говорил незабвенный чукча.
-
- Старожил
- Сообщения: 2109
- Зарегистрирован: 17.03.2004 15:55
- Откуда: Ukraine, Kiev
- Контактная информация:
-
- Модератор
- Сообщения: 3433
- Зарегистрирован: 03.07.2003 10:02
- Откуда: МИРовой Клуб, Санкт-Петербургский филиал
- Контактная информация:
кавалькада nv silencer`ов - http://www.3dnews.ru/news/2005-05-16-10/
ага, шесть лет гарантии, как же.. четыре месяца прошло - уже верещит вентиль при старте карты, пока его пальцем несколько раз не остановишь и не перезапустишь. И фиг знает, с какой стороны подлезть-то к нему, чтобы разобрать-смазать... похоже, кожух снять без демонтажа всей СО невозможно - какой-то деятель придумал сотворить крепежные винты с обратной стороны.
ага, шесть лет гарантии, как же.. четыре месяца прошло - уже верещит вентиль при старте карты, пока его пальцем несколько раз не остановишь и не перезапустишь. И фиг знает, с какой стороны подлезть-то к нему, чтобы разобрать-смазать... похоже, кожух снять без демонтажа всей СО невозможно - какой-то деятель придумал сотворить крепежные винты с обратной стороны.