Выбор видеокарты от $200 до $300

Подбор оборудования по нуждам и кошельку. Сравнение производительности видеокарт, процессоров и других комплектующих.

Модераторы: GothMan, Lovrik, wlad

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 12.05.2004 18:05

конечно, можно навтыкать в код много пустых циклов... :)

я думаю, что в ближайшее время компании будут заниматься совершенствованием тех. процесса и выжиманием бабок из карт нового поколения любыми средствами (повышение частот, урезание конвееров для mainstream и т.п.). так что через 9 месяцев врядли появится что-то революционное.

Ian
ИМХО разработчики игр тут же освоят появившиеся мощности и наваяают такого
это возможно в случае создания нового движка (или целой игры) или апгрейда существующего. а это минимум полгода. не думаю, что сейчас все всё бросят и кинутся писать исключительно на 3-их шейдерах :)

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 12.05.2004 18:14

Ian
разработчики игр тут же освоят появившиеся мощности и наваяают такого
... :haha: :beer: -))
bestwarlock
качество картинки у nVidia падает... это плохо
а вот тут полностью согласен..
и ругал их по этому поводу неоднократно.
Ну, вроде, можно пока отключать оптимизации трилинейки из драйвера.. Главное, чтоб позволили пользюку управлять процессом.
А насчет т.н. "заточек" - это больной вопрос.. даже и касаться не будем.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 12.05.2004 18:22

bestwarlock
не думаю, что сейчас все всё бросят и кинутся писать исключительно на 3-их шейдерах
гыы.. шейдеры 3.0 вроде даже проще для разработчиков, чем 2.0. Опять же напомню про уже имеющийся движок Unreal (вроде даже есть люди, видевшие 3.0 в демо-сцене FarCry ;) )
Doom3 выходит летом. Кармак сказал, что его игра - для нвидии :) Про бОльшую гибкость и свободу творчества и не вспоминаем. Вот и думай..
Создание нового движка - да, займет время. А апгрейд - смотря какая команда разработчиков -) но не полгода точно.
И раз в полгода карту менять.. хм... наши люди в булошную на такси не ездят! :lol:

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 13.05.2004 13:24

все будет зависеть от цен на нашем рынке...
судя по тестам на IXBT, X800 XT хорошо делает 6800U в играх, которые мне нравятся :)
ну будет он _немного_ медленнее в новых играх. и что с того? до 20 fps врядли упадет.
вариант второй: не будет видно _некоторых_ эффектов. опять таки потеря невелика.
так что, еще раз повторюсь, все будет зависеть от цен у нас.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 13.05.2004 17:33

bestwarlock
вариант второй: не будет видно _некоторых_ эффектов.
ну.. с таких позиций, у меня на моей GF4Ti и сейчас не видно _некоторых_ эффектов dx9.0 :haha: что ж мне теперь.. сидеть на ней, пока не развалицца? ;)

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 13.05.2004 17:43

wlad, max-sever
В дополнение к предыдущей странице.
http://www.overclockers.ru/news/newsite ... 1084431356
Цитата:
...Улучшить ситуацию попыталась компания VIA, которая для чипсета VIA PT890 предусмотрела одновременную поддержку слота AGP 8x и PCI Express x16. По имеющейся информации, эта светлая идея недалеко продвинулась в реализации, так как подобное соседство вызвало проблемы со стабильностью. В любом случае, одновременно задействовать оба графических порта на подобных платах было нельзя.
:( так шта, друзи мои, берем AGP-карту и юзаем вплоть до переезда системы на PCI-Express. Апосля чего - карту в окно или на стену гвоздем, и бегом в магазин. Имеющиеся PCI-устройства, видимо, постигнет та же участь.
Прогресс, блин. :x
Нет, чтобы выпустить мост-переходник.. втыкаешь его в PCI-E слот и сверху сажаешь AGP/PCI устройство. Чип на мосту осуществляет соответствующую трансляцию.
Если нвидия собирается в карту такие штуки вживлять, что мешает сделать отдельно? :duma:

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 13.05.2004 18:37

KuzMich
у меня на моей GF4Ti и сейчас не видно _некоторых_ эффектов dx9.
я написал "_некоторых_" имея в виду <u>некоторых</u>. т.е. тех, которые можно сделать с использованием шейдеров 3.0, и <u>никак</u> нельзя сделать с 2.0. а если в ущерб производительность - то пусть. в два раза она все равно неупадет.
кстати, я тоже сейчас сижу на GF4Ti :)

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 14.05.2004 1:42

bestwarlock
ну я чуть утрировал, конечно :) но общий смысл от этого не меняется.
т.е. тех, которые можно сделать с использованием шейдеров 3.0, и <u>никак</u> нельзя сделать с 2.0
таковые вряд ли будут.. Конечно, архитектура 6800х приспособлена к исполнению длинных и сложных шейдеров со всякими там ветвлениями и переходами.. но ведь более сложные будут медленней выполняться. Думаю, тут разработчикам придется искать баланс между "красивостью" и скоростью.
если в ущерб производительность - то пусть. в два раза она все равно неупадет.
а вот тут я бы не торопился с выводами.. Взять хотя бы ситуацию с 3дмраком`03 и шейдерами 1.4 (абстрагируемся от прочих вопросов, коих немало) - если карта их не поддерживает, сцена исполняется через 1.1, что требует три прохода вместо одного. Где карте легче в приложении с 1.4 - с их аппаратной поддержкой али без? ;) Кстати, даже если взять ту же версию шейдеров - при работе с 2.0 FX-ы сливали радикам иногда почти в два раза -)
Так что - все возможно... Повторюсь, все зависит от активности разработчиков - на какие технологии они сделают ставку.
я тоже сейчас сижу на GF4Ti
:beer: :) FarCry пройден, опять карта скучает :) так что, глядя правде в глаза, еще неплохо сидим -)

Подводя некий итог.. На данный момент - выбор о-очень непрост. Но все эти теоретические выкладки пока не имеют под собой реальной базы - еще пару-тройку месяцев на раздумья есть ;) Вот когда попрут карты на рынок, наладится производство, выявятся косяки, выйдут новые игры, тогда и поглядим, кому деньги отнести! :gigi:

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 14.05.2004 12:38

KuzMich
Повторюсь, все зависит от активности разработчиков - на какие технологии они сделают ставку.
в идеале разработчикам выгодно, чтобы их игра пользовалась спросом. т.е. желательно, чтобы она не была слишком требовательна к железу. т.е. ориентироваться надо на железо, которое немного (+/-) выше среднего. соответственно если заделать крутейшие эффекты на 3.0, то этого почти никто не увидит. соответственно, я бы на их месте основное (80%-90%) делал на 2.0 и немного - если уж совсем невмоготу - на 3.0.
...тогда и поглядим, кому деньги отнести!
согласен! :beer:

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 14.05.2004 17:42

bestwarlock
грамотно рассуждаешь! -)
Параллельные движки могут себе позволить только крупные команды разработчиков.
Пример - долгострой Сталкер. Сначала начали писать рендер под dx8, ориентируясь на gf3, потом пришлось осваивать dx9, подтачивая под fx.. теперь - как бы не решили шейдеры 3.0 замацать.. все-таки их нвидия поддерживает, может за свои деньги и потребовать поддержечку.
Вдобавок парк dx8-карт огромен, так что и 1.1 еще не скоро сойдут со сцены.
Так что в основной массе - ориентировка идет на мэйнстрим.

aleks_lu
Старожил
Сообщения: 1213
Зарегистрирован: 14.12.2002 7:56
Откуда: из глухой деревни на берегу реки Волга
Контактная информация:

Сообщение aleks_lu » 14.05.2004 19:50

KuzMich
Кармак сказал, что его игра - для нвидии
Ещё он сказал что карты nVidia настолько хороши , что не требуют особых заточек в DOOM3.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 15.05.2004 0:28

aleks_lu
карты nVidia настолько хороши , что не требуют особых заточек в DOOM3.
а вот это - пиар! -)
как бы ни была хороша карта, а если использовать ее "как надо", т.е. отключить оптимизации, включить v-sync, AA6x/8x, AF16x в разрешении этак от 1600х1200 и выше, любая загибаться начнет в мало-мальски серьезной игре...
Особых заточек, может, и не потребуется... только вот что считать "заточками".. Насколько я понимаю, оптимизация кода для наилучшего исполнения, учитывая особенности архитектуры, не есть "заточка".. упрощение картинки, незаметное невзыскательным взглядом, с точки зрения разработчика железа, тоже не заточка.. А капля камень точит! =)

max-sever
Модератор
Сообщения: 4568
Зарегистрирован: 01.01.1970 3:00
Откуда: "МИРовой Клуб" Вице-президент
Контактная информация:

Сообщение max-sever » 15.05.2004 0:47

KuzMich бЕЗГРЕШНЫХ КАРТ НЕ БЫВАЕТ. АТИ не лучше. Не в смысле качества, а в смысле заточек.
В защиту НВидии - сравни "Итоги" полугодовой давности и сегодняшние..

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 15.05.2004 1:59

max-sever
бЕЗГРЕШНЫХ КАРТ НЕ БЫВАЕТ. АТИ не лучше.
я согласен.. полностью. А страдают-то - конечные пользователи. Жертвы борьбы за большой доллар.
Нвидиа поправила практически все свои косяки. И сделала несколько шагов вперед. Это вселяет оптимизм. А АТИ наслаждается успехом предыдущей архитектуры, разогнав частотку и расширив конвейер. Это оптимизма не вселяет.

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 17.05.2004 14:38

KuzMich
Нвидиа поправила практически все свои косяки.
ага, всего за два поколения...
увеличить кол-во конвееров нужно было давно, сразу после GF4.
и за счет ATI подравняла архитектуру :) конечно, не без некоторых ее улучшений.
Это оптимизма не вселяет.
как раз наоборот. следующий шаг ATI может быть гораздо дальше, чем у nVidia.

по поводу заточек.
IMHO, было бы неплохо потребовать от ATI и nVidia некоторого обязательного интерфейса драйвера, который бы предоставлял возможности компиляции шейдеров, написанных на некотором универсальном языке. кажется, был проект типа Shader C. тут сразу бы решился вопрос с оптимизацией под архитектуру.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 17.05.2004 15:41

bestwarlock
всего за два поколения...
:gigi:
хотя, почему ж за два? основные косяки были с FX. Серия GF4 была исключительно удачной, некоторое время ей вообще было не с чем конкурировать (радик 8500 тогда нервно курил в коридоре). Основной рыночный критерий - цена/качество (читай: цена/производительность) - по тем временам был на стороне нвидии. До сих пор карты на базе GF4Ti достаточно успешно продаются.
увеличить кол-во конвееров нужно было давно, сразу после GF4.
ну, FX страдал не только из-за нехватки конвейеров ;) псп видеопамяти лишней не бывает.. вспомним хотя бы FX5800 - немыслимая по тем временам гигагерцовая частота проигрывала более скромным по частотке, но зато 256-битным радеонам.
и за счет ATI подравняла архитектуру
ну, об этом история умалчивает :) как говорится, чем просить и унижаться, лучше ээ-э.. слямзить и молчать :haha: Кому первому в голову идеи пришли, теперь уже неважно, главное, кто успел запатентовать и как смог реализовать :)
следующий шаг ATI может быть гораздо дальше, чем у nVidia.
поживем - увидим :)
Конкуренция стимулирует прогресс. Дай-то бог, чтобы они ноздря в ноздрю шли - по крайней мере, не будут зарываться и выставлять заоблачные цены. (Кстати, тенденция - при анонсах рекомендованные цены берутся с потолка :) разница в цене между решениями - 100 вечнозеленых тугриков! ни в жисть не поверю, что несколько дополнительных конвейеров и более высокая частота стоят на мировом рынке _ровно_ 100 баксов.. Понятно, что таким образом обозначаются ценовые сегменты для производителей.. но все равно смотрится стремно!)
было бы неплохо потребовать от ATI и nVidia некоторого обязательного интерфейса драйвера, который бы предоставлял возможности компиляции шейдеров, написанных на некотором универсальном языке. кажется, был проект типа Shader C.
а кто может потребовать? :) реально - микрософт может слово молвить. Но ему зачем? :) А "универсальным" языком _с натяжкой_ можно считать HLSL.
тут сразу бы решился вопрос с оптимизацией под архитектуру.
а вот и не решился бы. Универсальные компиляторы неэффективны хотя бы в силу своей универсальности. Кому, как не самой нвидии или АТИ, знать, как наилучшим образом загрузить работой собственные карты? Скорость OpenGL на картах nVidia наглядно доказывает, чего можно добиться, имея "прямой" доступ к железу. Еще пример - пресловутый FX со ставкой на cg, и r9x00, нацеленные на HLSL. Конечно, Нвидия проявила излишнюю самоуверенность, но, если бы все резко начали писать игры под cg, Ати получила бы удар под дых. В новых картах nv - ориентация на HLSL, и ситуация с "медленными" шейдерами выправилась.
По поводу заточек - моя позиция такова. Во-первых, не прятать их, а честно рассказывать, где они применены - исключаем "химию" при тестировании. Во-вторых - обязательно наличие возможности отключения и перехода в "чистый" режим.
В играх они, может, и допустимы, если действительно нет видимого ухудшения картинки. Но в любом случае, решать должен пользователь.
Мое видение: в драйвере - те же три режима. Quality - "заточки" отключены напрочь, максимальное качество. Performance - присутствуют "заточки", "оптимизации", как угодно назови - НО! не наносящие видимого ущерба изображению. High performance - тут уж система "все включено" (например, карта не дотягивает до уровня играбельности, а разрешение/установки понижать уже некуда). Выбирай - не хочу.
При таких раскладах я готов примириться с их существованием.

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 17.05.2004 16:33

KuzMich
Кому, как не самой нвидии или АТИ, знать, как наилучшим образом загрузить работой собственные карты?
я как раз и говорю о том, чтобы они поставляли (н-р, в драйвере) и предоставили доступ (н-р, через интерефейс (API)) каждая к своему компилятору шейдеров с одного общего языка.

насчет режимов работы драйвера (заточек) - полностью согласен!

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 17.05.2004 17:04

bestwarlock
чтобы они поставляли (н-р, в драйвере) и предоставили доступ (н-р, через интерефейс (API)) каждая к своему компилятору шейдеров с одного общего языка.

то есть,чтобы разработчики на уровне создания приложения имели доступ к компилятору? это дело..
Но тут возможна масса вариантов. Например, отмаксала АТИ разработчикам, и они написали игру так, чтобы она чувствовала себя на компиляторе АТИ _немного_ комфортнее, при прочих равных условиях. Не оптимизация даже, а так, легкое подгаживание конкуренту. В итоге, карта АТИ будет выглядеть предпочтительней, чем нвидиа... причем совершенно необоснованно..
Так что, вряд ли имеет смысл..
Да и, повторюсь, никто не знает карты лучше их разработчиков - пусть уж они и занимаются "обточкой" своих компиляторов, чтобы приложение на универсальном языке (тот же HLSL, к примеру) исполнялось наиболее эффективно.
Когда та же нвидия, в рамках TWIMTBP, говорит создателям игры: "здесь пишите так-то и так-то" - это обоснованно. Нельзя такие вопросы отдавать на откуп разработчикам, иначе такого наворотят.. (взять тот же 3DM2003 - вот уж понаписали, так понаписали...) А если такого взаимодействия нет, тут только с драйвером работать... Но в условиях конкурентной борьбы - слишком часто идут на ухудшение изображения в угоду скорости (типа, сделаем билинейку вместо трилинейки - пользователь лох, все равно не заметит. Ан нет. Профессор, конечно, лопух, но аппаратура при нем :) ).

aleks_lu
Старожил
Сообщения: 1213
Зарегистрирован: 14.12.2002 7:56
Откуда: из глухой деревни на берегу реки Волга
Контактная информация:

Сообщение aleks_lu » 17.05.2004 19:24

bestwarlock
как раз наоборот. следующий шаг ATI может быть гораздо дальше, чем у nVidia.

Пока по-новой пытаются с PS 3.0 чип вымучить.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 18.05.2004 15:35

Что дают лишние 50 мгц nVidia:
http://ixbt.com/video2/nv40-rx800-2.shtml
Рекомендую всем обратить внимание на раздел, относящийся к FarCry. Оччень любопытно.
Как раз по поводу "заточек" и оптимизаций - вот это:
Теперь что касается 61.11, касательно этой игры. Вот здесь надо отдать должное программистам NVIDIA. Они смогли уже без ущербов качества поднять скорость засчет внутренних оптимизаций (так называемых заточек не обнаружено, это действительно полезные и нужные оптимизации).
О как.

Итого - следует вывод: учитывая "слабость" моей конфигурации, на которой придется поработать новой карте, мой вывод выше верен - оптимальным выбором будет GF6800 GT 350 MGz /16 конвейеров (ибо нефиг гнаться за частотой - слишком дорогие мегагерцы в пересчете на доллары США). Если за эту же стоимость можно будет взять RX800XT (в чем я оччень сомневаюсь), тогда подумаю. Подрезанный X800Pro, даже более быстрый, но менее продвинутый технологически, не катит в принципе.

bestwarlock
Новичок
Сообщения: 46
Зарегистрирован: 09.01.2004 13:38
Откуда: Россия, Саратов
Контактная информация:

Сообщение bestwarlock » 18.05.2004 15:51

KuzMich
Если за эту же стоимость можно будет взять RX800XT (в чем я оччень сомневаюсь), тогда подумаю.
все веселье будет заключаться в том, что по цене, IMHO, он будет между 6800U и 6800GT :)

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 18.05.2004 19:07

bestwarlock
по цене, IMHO, он будет между 6800U и 6800GT
ну, не скажи ) не факт, что чипы для ХТ не будут отбираться "вручную".. Если бы проблем с ХТ не было, АТИ не выпустила бы в продажу _сначала_ Pro-версию, с отключенными (читай: битыми) конвейерами.
Так что тут еще бабушка надвое сказала.
Смотря кто лучше отладит техпроцесс -) сколько будет годных чипов.. чем больше, тем цены ниже... Все просто.
Полноценные чипы идут на ХТ, если выявляются битые конвейеры - они отключаются, и получается либо Pro, либо, в худшем варианте, SE. У GT - ситуация потяжелее.. туда, видимо, пойдут чипы, не дотягивающие по стабильности до 400 мгц, но с полноценными конвейерами (хотя уже где-то слышал про возможные версии GT c 12 конвейерами. Тут уж без Риватюнера не обойтись, а то напарят :) ).

ImP
Старожил
Сообщения: 2083
Зарегистрирован: 01.01.1970 3:00
Откуда: Team Yes!
Контактная информация:

Сообщение ImP » 18.05.2004 21:22

Есть ли уже тесты обычной GF6800?

rosss
Старожил
Сообщения: 1924
Зарегистрирован: 01.01.1970 3:00
Откуда: Новосибирск
Контактная информация:

Сообщение rosss » 18.05.2004 23:32


KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 19.05.2004 2:11

rosss, смотри выше :) 18.05.2004 14.35
только у меня ссылка на одностраничный вариант.
ImP
Есть ли уже тесты обычной GF6800?
пока не густо. Еще с частотами до конца не определились.. заявляют то 350, то теперь уже 325 мгц по чипу..

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 21.05.2004 10:09

ImP
Началось. Некие результаты тестов
обычной GF6800
http://www.overclockers.ru/news/newsite ... 1085111947

APXOHT
Новичок
Сообщения: 2
Зарегистрирован: 12.05.2004 17:38
Контактная информация:

Сообщение APXOHT » 22.05.2004 12:19

Бери 5900XT и не парься. Он намного лучше 5700 ULTRA,хотя стоит столько же.Nvidia менее глючная, чем Radeon.

rosss
Старожил
Сообщения: 1924
Зарегистрирован: 01.01.1970 3:00
Откуда: Новосибирск
Контактная информация:

Сообщение rosss » 22.05.2004 18:09

APXOHT
Nvidia менее глючная, чем Radeon.
Мягко говоря это не совсем так.Косяков хватает у обоих гигантов.К плюсам ATI(на мой вкус) стоит отнести явное приемущество по пережёвыванию ps_2.0 и стабильный выход новых дров(раз в месяц).
KuzMich
смотри выше
:)
По теме
Деньги на новую видеокарту потихоньку начал откладывать :).Но,как бы не пыжилась любимая nVidia,этой картой ,скорее всего,станет RadeonX800 XT.По довольно простой причине - ps_3.0 в играх в обязательном порядке появятся,скорее всего,даже не в следующем году,а по всем остальным параметрам X800 XT выглядит предпочтительней нежели 6800Ultra даже в разогнанном виде.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 23.05.2004 3:13

APXOHT
Бери 5900XT и не парься
:spy: эт вы кому?? -) я вот не хочу. Неперспективно.
rosss
Косяков хватает у обоих гигантов
вот-вот.
Но,как бы не пыжилась любимая nVidia,этой картой ,скорее всего,станет RadeonX800 XT
Я все-таки и по цене буду ориентироваться. Если сравнивать X800Pro и GF6800GT - вторая для меня предпочтительней. Если же альтернативой 6800GT будет лишь X800XT по цене от 500 $ - то нафиг, нафиг.

KuzMich
Модератор
Сообщения: 3433
Зарегистрирован: 03.07.2003 10:02
Откуда: МИРовой Клуб, Санкт-Петербургский филиал
Контактная информация:

Сообщение KuzMich » 23.05.2004 3:49

rosss
этой картой ,скорее всего,станет RadeonX800 XT.
Вполне здравое рассуждение. Но.. Если бы Ati выпустила что-то вроде GT-версии - GDDR3, полноценные 16 конвейеров, сниженные по отношению к X800 XT частоты и цена долларов на 100 ниже XT - я бы взял именно ее. Если стоимость "ультры" составит те же пятьсот долларов, я пас. Средний срок жизни даже топовых карт составляет сейчас примерно два года.
Не вышли еще игры, требующие замены видеокарты. ФарКрай я прошел, остальные с успехом идут и на текущей. В сентябре ожидается Сталкер, летом Doom.. HL2 фиг знает когда... Ближе к осени и буду менять. Как раз и двухлетний "расчетный срок" подойдет ! :) К этому времени, может, и нвидиа замутит что-нибудь вроде low-k диэлектриков, или, по крайней мере, обточит техпроцесс..

Ответить