bestwarlock
всего за два поколения...
хотя, почему ж за два? основные косяки были с FX. Серия GF4 была исключительно удачной, некоторое время ей вообще было не с чем конкурировать (радик 8500 тогда нервно курил в коридоре). Основной рыночный критерий - цена/качество (читай: цена/производительность) - по тем временам был на стороне нвидии. До сих пор карты на базе GF4Ti достаточно успешно продаются.
увеличить кол-во конвееров нужно было давно, сразу после GF4.
ну, FX страдал не только из-за нехватки конвейеров
псп видеопамяти лишней не бывает.. вспомним хотя бы FX5800 - немыслимая по тем временам гигагерцовая частота проигрывала более скромным по частотке, но зато 256-битным радеонам.
и за счет ATI подравняла архитектуру
ну, об этом история умалчивает
как говорится, чем просить и унижаться, лучше ээ-э.. слямзить и молчать
Кому первому в голову идеи пришли, теперь уже неважно, главное, кто успел запатентовать и как смог реализовать
следующий шаг ATI может быть гораздо дальше, чем у nVidia.
поживем - увидим
Конкуренция стимулирует прогресс. Дай-то бог, чтобы они ноздря в ноздрю шли - по крайней мере, не будут зарываться и выставлять заоблачные цены. (Кстати, тенденция - при анонсах рекомендованные цены берутся с потолка
разница в цене между решениями - 100 вечнозеленых тугриков! ни в жисть не поверю, что несколько дополнительных конвейеров и более высокая частота стоят на мировом рынке _ровно_ 100 баксов.. Понятно, что таким образом обозначаются ценовые сегменты для производителей.. но все равно смотрится стремно!)
было бы неплохо потребовать от ATI и nVidia некоторого обязательного интерфейса драйвера, который бы предоставлял возможности компиляции шейдеров, написанных на некотором универсальном языке. кажется, был проект типа Shader C.
а кто может потребовать?
реально - микрософт может слово молвить. Но ему зачем?
А "универсальным" языком _с натяжкой_ можно считать HLSL.
тут сразу бы решился вопрос с оптимизацией под архитектуру.
а вот и не решился бы. Универсальные компиляторы неэффективны хотя бы в силу своей универсальности. Кому, как не самой нвидии или АТИ, знать, как наилучшим образом загрузить работой собственные карты? Скорость OpenGL на картах nVidia наглядно доказывает, чего можно добиться, имея "прямой" доступ к железу. Еще пример - пресловутый FX со ставкой на cg, и r9x00, нацеленные на HLSL. Конечно, Нвидия проявила излишнюю самоуверенность, но, если бы все резко начали писать игры под cg, Ати получила бы удар под дых. В новых картах nv - ориентация на HLSL, и ситуация с "медленными" шейдерами выправилась.
По поводу заточек - моя позиция такова. Во-первых, не прятать их, а честно рассказывать, где они применены - исключаем "химию" при тестировании. Во-вторых - обязательно наличие возможности отключения и перехода в "чистый" режим.
В играх они, может, и допустимы, если действительно нет видимого ухудшения картинки. Но в любом случае, решать должен пользователь.
Мое видение: в драйвере - те же три режима. Quality - "заточки" отключены напрочь, максимальное качество. Performance - присутствуют "заточки", "оптимизации", как угодно назови - НО! не наносящие видимого ущерба изображению. High performance - тут уж система "все включено" (например, карта не дотягивает до уровня играбельности, а разрешение/установки понижать уже некуда). Выбирай - не хочу.
При таких раскладах я готов примириться с их существованием.