Ru-Board.club
← Вернуться в раздел «Видеосистема»

» GeForce FX или все от NVidia

Автор: VdV
Дата сообщения: 11.09.2003 09:14
Феномен дешевых GeForce FX 5900: все ли здесь чисто?
http://overclockers.ru/news/newsitem.shtml?category=1&id=1063199407
Автор: VdV
Дата сообщения: 11.09.2003 19:04
Официальные бенчмарки Half-Life 2: крах Nvidia
http://overclockers.ru/news/newsitem.shtml?category=4&id=1063285166
Автор: VdV
Дата сообщения: 12.09.2003 10:18
ABIT Siluro FX5600 Ultra OTES 128MB (400 MHz) ASUS V9560 Ultra 128MB (400 MHz)
Chaintech A-FX70 128MB (350 MHz) на базе NVIDIA GeForce FX 5600 Ultra

http://ixbt.com/video2/gffx-24.shtml
Автор: VdV
Дата сообщения: 12.09.2003 23:18
MSI-8918 Personal Cinema FX5200 — «All-In-Wonder» по NVIDIA-евски
http://ixbt.com/monitor/msi-8918.shtml
Автор: Widok
Дата сообщения: 13.09.2003 18:22
супер тест!
NVIDIA GeForce FX 5900 vs. ATI RADEON 9800
http://www.xbitlabs.com/articles/video/display/fx5900-r9800.html

-They include a full set of benchmarks, absolutely new gaming tests, impressive overclocking results and more!
Автор: Vasya Pupkin
Дата сообщения: 14.09.2003 12:07
DirextX 9 бенчмарк AquaMark 3, Detonator 51.75 и качество изображения
http://overclockers.ru/news/newsitem.shtml?category=4&id=1063500841
Автор: VdV
Дата сообщения: 14.09.2003 22:16
Интересные размышления мембера daMage с iXBT:

Цитата:
Мне кажется, что проблема вокруг FP16 и FP32 слишком раздута и возможно выгодна самой nVidia. Она отводит в сторону от основной проблемы FX архитектуры – низкой вычислительной производительности GPU на базе FX engine.
Как уже было отмечено независимыми обозреватилями FX имеет 4 ALU против 8 ALU у R300 и никакая FP16 или новый драйвер релиз не сделает из четырех восемь. Вот поэтому если писать программы с расчетом на сложные вычисления скорость 5900Ultra будет приблежаться к скорости R9600Pro, у обоих 4 ALU и примерно равные clocks.
Но это еще не все, по каким-то своим соображениям nVidia реализовала особый способ загрузки данных в ALU, который неоптимален во многих случаях. Это какие-то ограничения на временные регистры, это использовани 2 TMU, и еще всякие причуды понятные только nVidia.
Мое объяснение этому очень простое. Большинство читателей IXBT форума не имеют малейшего представления, что значит работать над огроммными проэктами и какая оветственность лежит над людьми, которые должны принимать окончательные решения. Когда компания из маленькой превращается в большую, наступает момент, когда люди изначально работающие в компании, начинают бояться каких либо кардинальных перемен. Все может обойтись если ты монополист на рынке, но такое поведение черевато плохими последствиями, если ты в жесткой конкуренции. Надеюсь мне не надо объяснять, что процесс создания высоко-технолгического GPU очень сложен и простые фразы типа “А давайте мы все переделаем в новом чипе, потому что так лучше и потому, что мы самые умные” в больших компаниях так просто не проходят. На такое может даться добро только тогда, когда “петух кукарекнет”. В маленьких компаниях такое может пройти, поскольку терять нечего. Со времен GF1, nVidia из маленькой компании превратилась чуть ли не в монополиста. FX ахитектура это надстройка над GF4, в свое время как GF4 вылезаный GF3, а GF3 надстройка на GF2, который есть усовершенствованый GF. Люди создававшие GF не заметила момента, когда от мощи MTU и FF TCL перешли к мощи програмируемого ALU, а может просто у них нет больше идей(иссякли, разжирели) и компании нужна новая струя. Отсюда вытекает вся нелепость, громоскость и тормознутость FX серии. И Valve абсолютно правильно назвал ее DX8 архитектурой. Архитектурой TMU, а не ALU. Если в очень грубой форме подсчитать транзисторы для R300 8x24 = 192, GFFX 4*32 = 128, то станет немножко не понятным на что nVidia тратит большее по сравнению с R300 число транзисторов. Теоретически R300 должен быть на треть больше FX. Это может быть и FF TCL, который съедает до 15% FX, а может просто нелепость и громскость в реализации pipelinе для PS20, а может там внутри остался код который забыли выкинуть со времен GF .
Скорей всего FP16 ускоряет загрузку данных в ALU, но на этом сильно не уедешь. Основной козырь nVidia может быть только замена кода shaders, с использованием аппроксимаций в вычислениях. Спаривание инструкций работающих с загрузкой тестурных данных, ухудшение качества текстур и фильтрации, которые позволят ускорить загрузку данных в ALU. Заметьте если игра сама будет использовать аппроксимации, то это будет быстрей работать и на Ati. Поэтому nVidia и не настаивает на этом, иначе “оптимизировать” нечего будет. Хочу также пояснить всем читателям этого форума, что если все начнут включать такие же “оптимизация” на основе application detection, то прирост будет не меньшей, но это путь в некуда.
Все это усложняет разработку, а не упрощает ее. Когда Valve говорит о 5 кратном увеличение времени разработки для nVidia, это так и есть. Для тех кто это не совсем понял, поясняю, что в создание игры большая часть времени уходит на создание карт, разработки сценария, текстур, персонажей, анимация персонажей, физика игры, звук. Если посмотреть сколько людей работает над графическим еngine, то можно увидеть 2-4 человека. Поэтому 5 раз в терминах человеко-часов, то оно и есть.
Хочу также ответить на безосновательные наезды на DX9 SHL2 shader’s compiler, который якобы “оптимизирован” под Ati. Со слов Кармака, R300 в 2 раза быстрей FX в OGL2 path. Compiler OGL2 shaders для nVidia HW, делает сама nVidia, а не Microsoft или Ati. Так на кого теперь бочки катить будем? Я так понимаю на sombody else. Со слов того же Кармака ему значительно удобней было иметь один путь OGL2, но он должен тратить время на какой-то “специальный” путь для FX, в котром “магический” Кармак делает работу 4 конвееров быстрее 8 конвееров. В конечном итоге Doom3 превращается в долгострой. Конечно, может у ID достаточно средств для этого, но у других их может просто не быть. Об этом и говорит Valve.
Хочу пояснить всем читателям этого форума, что линейка NV3x мертвая и Nvidia это понимает лучше, чем anybody else. Петух для nVidia уже кричит. С выходом NV40, “оптимизации” под NV3x, будут сварачиваться. Если вы действительно покупаете видео за 300-500 своих баксов, а не получаете ее бесплатно от somebody else, мой совет, хорошо все взвесить и решить для себя, что же все же больше 4 или 8.
Автор: GoodCos13
Дата сообщения: 16.09.2003 16:17
ОБЗОР:
Gainward Powepack FX Ultra/1600 GS CoolFX
на базе NVIDIA GeForce FX 5900 Ultra
Автор: Barral
Дата сообщения: 17.09.2003 02:18

Цитата:
NVIDIA тянет одеяло на себя?

Ситуация, сложившаяся вокруг вопроса производительности серии GeForce FX в DirectX 9, обрастает всё новыми слухами и догадками. На наш взгляд, следующая версия, замеченная на разных Интернет-сайтах, не лишена здравого смысла.

Итак, с появлением первых DirectX 9 совместимых программ стало заметно отставание карт серии NV3x от серии R3xx, тогда как в играх предыдущего поколения наблюдается несколько иной расклад сил. Первой ласточкой стал популярный DirectX-бенчмарк 3DMark2003, после выхода которого компания NVIDIA впервые в своей истории была публично уличена в "нечестной" оптимизации драйверов. Досталось и ATI, но к чести канадцев, они быстро извинились, и скандал замяли. NVIDIA же встретила волну критики в лоб, и выдала документ, в котором подробно объяснялось, почему "3DMark2003 не имеет право носить титул Gamer's Benchmark". Хотя позиция NVIDIA не была безосновательна, факт остаётся фактом: драйверы Detonator содержат код, который за счёт упрощения расчётов сцены добивается повышения производительности (если вы ещё не читали посвящённый этому вопросу материал, просим ознакомиться. Итог этого противостояния был подведён лишь недавно: NVIDIA клятвенно обещала использовать в драйверах только "честную" оптимизацию (не снижающую качество и не изменяющую сцену), а компания Futuremark (разработчик 3DMark2003) признала право использования оптимизации видеодрайверов под конкретные приложения, в том числе и под бенчмарки! После такого поворота событий, NVIDIA много потеряла в глазах общественности, а некоторые из ведущих технических сайтов отказались от использования результатов 3DMark2003 в своих материалах. Затем была демо-версия игры Tomb Raider: Angel of Darkness, в которой NVIDIA отстала от конкурента в два раза! После, аналогичная картина повторилась, но уже в куда более значимом продукте: первые тесты Half-Life 2 выявили тот же двукратный отрыв ATI. И теперь Aquamark 3, где NVIDIA хоть и не проигрывает много, но проигрывает... В качестве официального ответа корпорация предложила использовать в тестах на производительность новую бета-версию драйвера Detonator (51.75)... который тут же был уличён в ощутимом снижении качества картинки! Так что же "неправильно" в GPU GeForce FX?

Вариант ответа: GeForce FX не является DirectX 9 совместимой серией, по крайней мере, не является совместимой в полном смысле этого понятия. А именно: аппаратная часть GeForce FX не предназначена для работы в соответствии со спецификациями Microsoft. Давайте вернёмся немного в прошлое и вспомним, как начиналась разработка спецификаций DirectX 9. NVIDIA по неназванным причинам тогда просто отказалась от участия в разработке, и её место заняла ATI. Со стороны это выглядело более чем странно: ведь в ту пору никто не оспаривал лидерство NVIDIA на рынке потребительской графики. Теперь причины отказа начинают постепенно проясняться: сильные трения с Microsoft по вопросам реализации шейдеров. Похоже, NVIDIA просто переоценила свои силы в роли локомотива индустрии, создав GPU с принципиально иной архитектурой. Программисты же придерживаются спецификаций Microsoft, и на заточенных под DirectX 9 картах ATI их продкты просто "летают". Какое будущее ожидает NVIDIA теперь? Возможно, у корпорации больше шансов на ниве OpenGL 1.5/2.0, но до выхода Doom III об этом говорить рано. Возможно, серия NV4x будет полностью совместима с DirectX 9/10, и FX будет вспоминаться как стратегический просчёт. Но это произойдёт, только если калифорнийская корпорация откажется от своего исторического пути. А путь этот начинался с чипа NV1, очень медленного, и в то же время весьма прогрессивного: для построения графических сцен в нём использовались аппаратно ускоряемые Quad Patches - криволинейные поверхности (сейчас подобные методы графики применяются в игровых приставках, вроде Sony Playstation). NVIDIA тогда пыталась в переговорах с Microsoft внести их в спецификацию первой DirectX, но в Microsoft предпочли треугольники, и NV1 канул в небытие. NV3 (RIVA 128) был уже полностью DirectX совместимым. Итак, перед NVIDIA лежат две дороги: самим прокладывать путь или идти по пути, проторенному Microsoft. От этого выбора зависит многое: не только количество покупателей, но и развитие компьютерной графики в целом. Пожелаем NVIDIA не ошибиться!

Автор: VdV
Дата сообщения: 17.09.2003 19:12
Sparkle готова представить NV38 уже на Computex, хотя Nvidia сделает это лишь в середине октября
http://overclockers.ru/news/newsitem.shtml?category=1&id=1063809246
Автор: VdV
Дата сообщения: 19.09.2003 00:06
Технические характеристики современных видеокарт на чипах NVIDIA
http://overclockers.ru/news/newsitem.shtml?category=2&id=1063916536
Автор: Barral
Дата сообщения: 19.09.2003 02:12

Цитата:
Nvidia и Eidos надували игроков

Очередной скандал вокруг EIDOS Interactive и компании NVIDIA. Как сообщают наши западные коллеги из AnandTech, NVIDIA специально заплатила огромную сумму денег ради того, что бы Tomb Raider: Angel of Darkness работал на картах NVIDIA в несколько раз быстрее и качественнее, чем на продукции конкурентов. Но последний игровой патч к TR: AOD от Eidos с использованием возможностей DX9, демонстрировал недееспособность карт от NVIDIA по сравнению с продукцией ATI. Так, что EIDOS, на чьей коробке красовался фирменный слоган NVIDIA "Way it's meant to be played", пришлось удалить злополучный патч. И это не первый случай жульничества. Вода в Tiger Woods 2003 выглядела превосходно на картах от NVIDIA, но при этом отказывалась работать на ускорителях от других компаний. Более того, в игру был встроен код, определявший производителя акселератора. Да, графические войны становятся все более грязными, а страдают, как всегда, самые обычные покупатели.

Автор: GoodCos13
Дата сообщения: 19.09.2003 06:05
СТАТьЯ
Технические характеристики современных видеокарт на чипах NVIDIA
Автор: VdV
Дата сообщения: 21.09.2003 19:28
NVIDIA NV40: февральский подарок...

Цитата:
Очередное уточнение о судьбе новых видеочипов поступило со страниц интернет-ресурса NotForIdiots. В частности, еще раз была подтверждена версия о частотной формуле грядущего NV38 aka GeForceFX 5950. Предполагается, что частота ядра/памяти этих видеокарт будет составлять 500/1000 МГц. При этом, до сих пор не известно, какой памятью будут оснащаться эти карты. Как сообщается, возможны оба варианта - DDR и DDR2, все зависит от того, что будет дешевле (неужели DDR2 может стоить меньше DDR?).
Кроме того, вполне логичным выглядит сейчас (напоминаю, до конца года осталось всего три с небольшим месяца) слух о появлении NV40 лишь в феврале 2004 года. Да и в самом деле, зачем вообще торопиться NVIDIA, если на рынке еще не появились "промежуточные" карты (читай: NV36, NV38). Посему, даже если мы что-то и увидим в первые два месяца следующего года, то это будут никак не готовые платы. Последних в достаточном количестве можно будет ожидать, пожалуй, только где-нибудь в середине весны.

Автор: VdV
Дата сообщения: 22.09.2003 19:24
Разгоняем GeForce FX 5600 Ultra и 5900 Ultra, или что будет, если с чипа снять крышку...
http://ixbt.com/news/hard/index.shtml?hard96105id
Автор: VdV
Дата сообщения: 23.09.2003 19:06
Прототипы NV38 и NV36 и их характеристики
http://overclockers.ru/news/newsitem.shtml?category=1&id=1064317789
Автор: GoodCos13
Дата сообщения: 24.09.2003 18:34
СТАТьЯ
Обзор видеокарт на базе NVIDIA GeForce FX 5600 производства Sparkle и Galaxy, 22.09.2003
Автор: Vasya Pupkin
Дата сообщения: 24.09.2003 19:10
Тест производительности GeForce FX 5600 на основе драйверов detonator 45.23 и 51
http://ru-board.com/new/article.php?sid=151
Автор: VdV
Дата сообщения: 24.09.2003 19:23
GeForce FX производства Gigabyte: уже через две недели
http://overclockers.ru/news/newsitem.shtml?category=1&id=1064407314
Автор: VdV
Дата сообщения: 25.09.2003 10:24
GeForce FX 5900 SE за $300 разогнан до 490/925 МГц
http://overclockers.ru/news/newsitem.shtml?category=1&id=1064473746
Автор: VdV
Дата сообщения: 25.09.2003 21:22
NV40



Автор: VdV
Дата сообщения: 26.09.2003 19:47
Новинки от NVIDIA: ждем в октябре?...

Цитата:
"Реальные" видеокарты на чипах NVIDIA NV38 и NV36 появятся, скорее всего, лишь зимой. Как сообщает интернет-ресурс The Inquirer со ссылкой на производителей графических карт, NVIDIA анонсирует GeForceFX 5950 (NV38) и GeForceFX 5700 (NV36) лишь в конце октября. Таким образом, в достаточном количестве карты этого класса появятся лишь в ноябре-декабре.
Подтверждением того является информация, согласно которой сами чипы производители видеокарт получат от NVIDIA не раньше середины октября, что приведет к явному дефициту этой продукции сразу после ее анонса. Кстати говоря, похожие слухи появлялись в последнее время и в отношении основного конкурента NVIDIA, компании ATI. По всей видимости, 30 сентября мы так и не увидим Radeon 9800XT (см. новости за 16 сентября). Впрочем, как бы там не было, я практически не сомневаюсь, что к Рождеству (католическому) продукция двух основных игроков этого рынка уже будет доступна в достаточном количестве. Другой вопрос, получится ли что-нибудь у XGI и VIA/S3?...

Автор: Barral
Дата сообщения: 28.09.2003 04:33

Цитата:
Выставка Computex приносит нам все новые и новые сюрпризы. Появились сделанные на ней фотографии будущего графического акселератора NV40. Плата, как и положено, комплектуется высокоскоростной GDDR3 памятью от компании Micron Technology. Когда стоит ждать этот графический акселератор? Если все пойдет без осложнений, то самый оптимистический прогноз гласит – к Рождеству. Однако сами знаете, задержки в компьютерной индустрии не редкость.

Автор: VdV
Дата сообщения: 29.09.2003 19:07
NV38 будет анонсирована 10 октября и не будет очень шумной


Цитата:
Поскольку первые фотографии прототипов видеокарты NV38 (GeForce FX 5950 Ultra) повергли всех следящих за "успехами" Nvidia с момента выхода NV30 читателей в легкое недоумение, не желающая мириться с перспективами возвращения FX Flow душа просила опровержений слухов о высоком уровне шума, якобы присущем новой флагманской видеокарте компании.

Собственно, настораживал не только мощный для своих размеров вентилятор Delta с номинальным уровнем шума 38 дБ, но и пластиковый кожух достаточно габаритной системы охлаждения, который мог вызывать вибрацию. Кроме того, высокий радиатор также дополнял вес видеокарты, и многострадальный слот AGP уже не ждал от жизни перемен к лучшему...

Как сообщает английский сайт The Inquirer, источники среди производителей материнских плат утверждают, что система охлаждения NV38 на самом деле не такая громоздкая, как может показаться. Используемые материалы имеют достаточно малый вес, и общая масса видеокарты в сборе не так уж велика.

Шум вентилятора тоже не должен напоминать смутные времена NV30, как заверяют источники. Он якобы даже работает тише кулера Radeon 9800 XT, хотя о характеристиках последнего нам ничего неизвестно. Будем надеяться, что подобные заявления близки к истине, и владельцы Radeon 9800 XT при этом не станут жертвами шумового террора .

Между прочим, официальная частота NV38 должна составлять 475 МГц, а пресловутые 500 МГц будут достигаться разгоном. Такой символичный диапазон гарантированного разгона (5%) дает право указанным источникам утверждать: "GeForce FX 5950 Ultra даже будет разгоняться"! Ну-ну, совершенно потрясающие возможности разгона ...

Ожидается, что официальный анонс NV38 состоится 10 октября. Наши собственные источники ранее указывали дату "примерно в середине октября", так что с некоторой натяжкой подобную информацию можно признать близкой к истине.
Автор: STEEL
Дата сообщения: 29.09.2003 21:09
Толпа. А GF FX все идут с DDR ?
Что скажите о 256MB GeForce FX 5600 , в прайсе именно так написано, не указано, что там ддр, ultra, не ультра...

Добавлено
Или 256MB Geforce FX 5600 - это и есть Ultra?
Автор: VdV
Дата сообщения: 29.09.2003 21:42
STEEL

Цитата:
Толпа. А GF FX все идут с DDR ?

Все с DDR я думаю, топовые были с DDRII.
Автор: VdV
Дата сообщения: 30.09.2003 19:03
Новые сведения о видеоплатах GeForce FX 5700
http://overclockers.ru/news/newsitem.shtml?category=1&id=1064915553



Prolink PixelView GeForce FX 5900 128MB
Тестирование в Tomb Raider: Angel of Darkness

http://www.ixbt.com/video2/gffx-26.shtml


Цитата:
Итак, выводы с одной стороны положительные, ибо сама видеокарта среди своих «товарок» выглядит очень привлекательно, обладая самой низкой ценой, но вместе с тем и рядом достоинств (отменное качество изготовления, привлекательные внешний вид и упаковка).

С другой стороны (а это не относится только к данной карте, а ко всем GeForce FX), в играх с активным использованием шейдерных технологий DirectX 9.0 такие карты сильно проигрывают конкурентам из «стана ATI». Но если затронуть саму игру TR:AoD, то выбор настроек - дело вкуса пользователя. Я лично не увидел кардинальной разницы между установками качества на максимум и настройками по умолчанию. Разумеется, педанты ее увидят. Именно поэтому мы провели тестирование в двух этих режимах. Разницу по скриншотам между максимальным качеством и default я не стал приводить по двум причинам: во-первых, хочу дождаться выхода официального релиза 5х.хх драйверов от NVIDIA, чтобы уже провести окончательные тесты на базе этой игры; во-вторых, впереди будет еще один материал, посвященный тестированию в TR:AoD. Вот там детально и рассмотрим разницу в качестве. Но все же хочется сказать: Если я отдаю 500 долларов за ускоритель, то я могу рассчитывать, что и при максимальном качестве я получу преимущество по скорости над акселераторами более низшего ценового диапазона. А что получаю в случае FX 5900 в играх с активным использованием Pixel Shaders 2.0? Не случайно знаменитая демо NVIDIA Dawn на RADEON 9800 PRO через(!) wrapper работает быстрее, чем на FX5900 Ultra...Обидно, господа из NVIDIA!

Что касается GeForce FX 5900, то тут нет иных выходов, как снижать цены на FX5900 относительно RADEON 9800 PRO, тогда востребованность в этих продуктах (даже с учетом низкой скорости по шейдерам) вырастет.
Автор: VdV
Дата сообщения: 02.10.2003 22:30
Тестирование в пакете Houdini Master
http://www.ixbt.com/3d-profcard/houdini-09-2003.shtml
Автор: VdV
Дата сообщения: 03.10.2003 09:03
R360 и NV38 в бенчмарке Half Life 2
http://overclockers.ru/news/newsitem.shtml?category=1&id=1065153229
Автор: VdV
Дата сообщения: 03.10.2003 19:36
NV40 еще не будет поддерживать Pixel Shader 3.0?
http://overclockers.ru/news/newsitem.shtml?category=1&id=1065191642

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566

Предыдущая тема: Подскажите с выбором видеокарты


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.