Ru-Board.club
← Вернуться в раздел «Видеосистема»

» Выбор видеокарты: ATI vs Nvidia vs S3 vs XGI

Автор: sailor
Дата сообщения: 01.02.2002 16:20
BugZ

Цитата:
Я имею в виду, до той to, прежде чем машинка успевает повиснуть

Догнал до 80 градусов - дальще нагревать не решился. Ничего не повисло правда, но и замедления не видел. Чем ты можешь объяснить уменьшение фпс от нагрева видеокарты? Ну с Р4 всё ясно - там свой термодатчик и система, которая просто "сбрасывает обороты" (понижает частоту) когда проц нагревается слишком. В видюшках, насколько я знаю, такого не нет.
Автор: BugZ
Дата сообщения: 02.02.2002 04:48
sailor

Цитата:
Ну с Р4 всё ясно

Да ну? Не всё так просто, товарищ!
Попробую последовательно, homo знающие (а. к. а. спецы) поправьте меня, если что не так.


Начнём с того, что в основе и CPU, и того же микропроцессора, являющегося сердцем любой современной видюшки (сегодня и}{ модно называть GPU) лежат т.н. компланарные МОП структуры или сокращенно КМОП (про ECL в виду их огромного энергопотребления говорить не будем, ок? ). КМОП-микропроцессоры работают быстрее, если их охлаждать, ибо с уменьшением to проводимость медных и алюминиевых межсоединений возрастает. Спустившись на уровень схемотехнической реализации, мы дополнительно обнаруживаем, что любая камушка состоит также из транзисторов, в которых иногда встречаются p-n переходы, знаешь ли При высокой температуре процессора увеличивается ток утечки,что ведет к дополнительному тепловыделению и разрушению p-n перехода. Дальше сам додумаешь, аль подсказать??
Если тебе интересны цифери, то, пожалуйста:
Производительность процессора увеличивается на 0,15% при понижении температуры на 1 K.
Приятно быть провидцем - откуда информация?
Мои источники
Не помню (старые знания, источники восстановить unreal'ьно)
Контекстный поиск в www.yandex.ru и пр. search engin'ах по ключевой фразе:"производительность микропроцессора от температуры"



А вообще, эта тема крайне заинтересовала меня, и поэтому буду признателен каждому, кто опровергнет и/или подтвердит(дополнит) вышесказанное.... На хоботе народ меня проигнорировал . А так хотелось . Если нужно могу создать новую ветку.

ЗЫ.: ПисАлось поздней ночью и в слегка туманном состоянии, так что за очепятки просьба сильно не пинать.
ЗЗЫ.: За информацию о понижении частоты в зависимости от температуры у 4пень, 10x, запамятовал.
Автор: sailor
Дата сообщения: 02.02.2002 11:05
BugZ

Цитата:
Спустившись на уровень схемотехнической реализации, мы дополнительно обнаруживаем, что любая камушка состоит также из транзисторов, в которых иногда встречаются p-n переходы, знаешь ли При высокой температуре процессора увеличивается ток утечки,что ведет к дополнительному тепловыделению и разрушению p-n перехода. Дальше сам додумаешь, аль подсказать??

Понимаешь ли, основная причина резкого падения производительности на Р4-системах при резком повышении температуры кроется именно в принудительном уменьшении частоты самим процессором. Естественно производительность зависит от температуры, но такого резкого падения оной как у mellvn от перегреа быть не может - вот о чём я хотел сказать...
Автор: BugZ
Дата сообщения: 02.02.2002 12:16
sailor

Цитата:

резкого падения производительности на Р4-системах при резком повышении температуры

Про п4 я уже давно согласился, разговор о микропроцессорах в целом

Цитата:

но такого резкого падения оной как у mellvn от перегреа быть не может - вот о чём я хотел сказать

С этим я не спорю: 0.15% на 1 К - это не 900 от 3000.

ЗЫ. А человеку помочь-таки надо
Автор: Guest
Дата сообщения: 03.02.2002 09:50
Кая видиокарта лучше всего подходит для селерона 1000-1200?
Автор: sailor
Дата сообщения: 03.02.2002 11:11
Guest

Цитата:
Кая видиокарта лучше всего подходит для селерона 1000-1200?

GeForce 2MX, GeForce2GTS, GF2 Pro, GF Ti, ATI Radeon 7500, GF3 Ti200, GF3, GF3 Ti500 - в зависимости от наличности и подребностей. Самым лучшим по отношению цена/качество будет вариант с GF2 Pro...
А для чего нужна видюха?
Автор: Guest
Дата сообщения: 03.02.2002 12:26
Ну в игрушки иногда поиграть с удовольствием
просто мне как то говорили что слишком накрученная карта
под не очень сильный проц - это пустая трата денег
так что нужно то что будит оптимально под Селерон
Автор: sailor
Дата сообщения: 03.02.2002 16:13
Guest

Цитата:
так что нужно то что будит оптимально под Селерон

Тогда GeForce 2 Pro или GeForce2 Ti будет оптимально. Для всех современных игр этих карт хватит с головой. Традиционно мне нравятся Leadtek и ASUS...
Автор: Guest
Дата сообщения: 04.02.2002 13:13
sailor
Для всех современных игр этих карт хватит с головой
эх ! как выйдет скоро Unreal2, Doom3 ... лягут GF3 да Р8500, не говоря о GF2 и первом радеоне и его вариациях
а по большому счёту пока даже на джефорсе 2 и радике первом можно жить
Я бы подождал месяц-два с покупкой видео... просто у Нвидии опять линейка обновляется (анонс завтра-послезавтра) и цены на предыдущие модели должны ощутимо упасть.
Автор: sailor
Дата сообщения: 04.02.2002 14:44
Guest

Цитата:
 Я бы подождал месяц-два с покупкой видео..

Так до бесконечности ждать можно... я бы сейчас купил ГФ2 Про 32 мб за 100$ и не мучался бы.
Автор: drakula
Дата сообщения: 04.02.2002 17:08
sailor
Так до бесконечности ждать можно...
согласен, ну хотяб пару недель, навернека после обьявления новой линейки пару десятков $ можно сэкономить.
ну а если в деньгах проблем нет -то пожалуйста, в любое время, какие проблемы
Автор: diksen
Дата сообщения: 05.02.2002 02:14
Привет, новая линейка, похоже, уже обьявлена

на http://www.warp2search.net/article.php?sid=2698&mode=thread&order=0 пишут об MSI GeForce4 Ti4 600, которая побила в 3DMark2001 все рекорды(больше 11000), цена около 350 у.е
Автор: RAM
Дата сообщения: 05.02.2002 15:38
Как вам такое?
ATI и Radeon 8500 со 128 Мбайт памяти

Как сообщал The Inquirer на прошлой неделе, ATI решила испортить праздник Nvidia старым излюбленным трюком, которым пользовался еще Аладдин, продающий старые лампы.

В качестве старой лампы выступает Radeon 8500, вот только фитилек у нее новый: 128 Мбайт, а не 64. Что это значит? Какая от этого польза? Если честно, то практически никакой. Все ИТ-компании боятся того, что пользователи кидаются на большие цифры: чем больше, те лучше. 128 больше 64 в два раза, значит лучше, правильно?

Ничего подобного! Повышение производительности от увеличения памяти на 64 Мбайт не очень заметно. Компания ATI выпустила еще Radeon 8500 LE с пониженными частотами: 250/250, модель, которая также имеет 128 Мбайт памяти. Цена на эти карты низкая и факт аппаратной поддержки ими DirectX 8.1 – фантастика.

В свете появления на этой неделе GeForce 4 у ATI могут возникнуть проблемы с конкурентоспособностью, поскольку, по мнению специалистов The Inquirer, разница в производительности будет расти: Nvidia заменит Ti500 на GeForce 4.

Упс! Новые лампы! ATI переименовала Radeon 256 в Radeon 7000, хотя от смены имени в решении ничего не изменилось. Почему бы было не назвать карту Radeon Billion?
Автор: sailor
Дата сообщения: 05.02.2002 20:44

Цитата:
ATI и Radeon 8500 со 128 Мбайт памяти


Цитата:
ATI переименовала Radeon 256 в Radeon 7000

Обычные маркетенговые рекламные ходы, которые принесут компании лишние миллионы. Ну а на непродвинутых юзеров (на которых собственно и расчитаны эти шаги) такие компании уже давно плюют (главное для них деньги). А жаль. Я думал такая свистопляска с увеличением памяти (GF2MX400 64Mb вместо 32Mb а прироста от этого ноль) и переименованиями присуща только NVidia - ан нет... и доблестный ATI позарился на "лёгкие" деньги. Обыдно.


Цитата:
MSI GeForce4 Ti4 600, которая побила в 3DMark2001 все рекорды

Странно вообще-то... Первые карты из GF4 будут на NV17, а они однозначно медленнее чем GF3 (даже чем GF3 Ti200) и уж точно не смогли бы побить рекорды в 3ДМарке... Странно. Да и название Ti4 600 настораживает.
Автор: sattan
Дата сообщения: 07.02.2002 12:05
nVidia - лучшее, тем более 4 жирик уже появился цена не играет роли, когда речь заходит о качестве.

Радеон - для энтузиастов имху
Автор: Karden
Дата сообщения: 07.02.2002 12:18
Взято с хобота:
Вероятно, Ti 4400 будет позиционироваться как прямой конкурент RADEON 8500 128 МБ, в том числе и по ценовому диапазону. Этот факт не может не радовать. Ti 4600 займет позицию повыше, и прямых конкурентов иметь не будет - следовательно, и цена на него будет установлена заметно более серьезная.
Автор: drakula
Дата сообщения: 07.02.2002 12:41
а говорят что 14 февраля АТи выкинет бомбу в виде новых дров и испортит праздник ненавидии
кто-нить могет это подтвердить или опровергнуть ?
желательно со ссылочками
tnx
Автор: sailor
Дата сообщения: 07.02.2002 14:18
Radeon уже выпустили новые дрова и он забегал гораздо быстрее. 8500 уже наравне с Ti500... Зачастую круче. И стоит дешевле. Есть правда и несколько минусов - работает не со всеми играми, анизотропная фильтрация не может работать одновременно с трилинейной, существенное замедление при антиалиасинге.
Автор: sattan
Дата сообщения: 07.02.2002 18:30
> есть правда и несколько минусов....
не плохие минусы, нужно сказать
+ как я слышал - с движками Unreal ati плохо работает
Автор: sailor
Дата сообщения: 07.02.2002 19:34
sattan

Цитата:
+ как я слышал - с движками Unreal ati плохо работает

Да?? Первый раз слышу! Ну тогда точно АТИ хуже
Автор: drakula
Дата сообщения: 08.02.2002 01:28
sattan
как я слышал - с движками Unreal ati плохо работает
чушь!
возьми свои слова обратно
Автор: sailor
Дата сообщения: 08.02.2002 16:22
drakula

Цитата:
чушь!
возьми свои слова обратно

Он всего лишь слышал. Он же не утверждает это... Я тоже много чего слышал
Автор: tankistua
Дата сообщения: 08.02.2002 17:29
ну если тут чего-то типа опроса скажу и я :

в 2D лучшими считаю Matrox G200, G400
(G200 устаревшая , но всем известно что Matrox при выпуске G400 2D-составляющую не трогала, а оставила 2D от G200)

в 3D лучшими считаю NVidia (естественно не Vanta),
кстати показатели GeForce в 2D тоже хорошие, даже можно сказать очень хорошие.

Выводы:А какие тут выводы? Выводы диктует время ...
...хочешь карточку для работы - бери Matrox
...хочешь хорошую карточку для игры - бери NVidia


одно обидно: Matrox заявила что уходит с рынка непрофессиональных видеокарт, так что сейчас найти Matrox не так то просто, и все плавно смешаются в пользу NVidia...
Автор: sailor
Дата сообщения: 08.02.2002 18:23
tankistua

Цитата:
в 2D лучшими считаю Matrox G200, G400

ИМХО немного устаревшее мнение. NVidia и ATI давно уже догнали по качеству в 2Д Матроксы... Хотя Матрокс дешевле. Особенно G200.
Автор: diksen
Дата сообщения: 09.02.2002 03:53
Всем привет,
неделю назад чудак один продавал на интернет-аукционе (Ebay) Voodoo5 6000 AGP, начальную цену он выставил на 1000 у.е.
Коротко тех. хар-ки: Четыре чипа VSA-100; RAM 128 Mb;Fillrate 1.32 - 1.47 млн. пикселей в секунду, включая режим мультитекстурирования; T-Buffer, аппаратный FSAA и т.д и т.п. Но карта жрёт електричества немерянно(~100Bт,имеет собственный блок питания с подключением к стандартной розетке)
Говорят, этих карт всего около сотни было выпущено,
Автор: geny
Дата сообщения: 09.02.2002 23:57
Вот только зачем она кому-то нужна неизвестно
Автор: drop
Дата сообщения: 10.02.2002 23:39

Цитата:
в 2D лучшими считаю Matrox G200, G400
(G200 устаревшая , но всем известно что Matrox при выпуске G400 2D-составляющую не трогала, а оставила 2D от G200)

Ты еще вспомни PCI Революшен3Д или любые другие. Это все было давно. Я довольсвуюсь GF3 ASUS8200.
Автор: TechSup
Дата сообщения: 11.02.2002 09:19
sailor

Цитата:
ИМХО немного устаревшее мнение. NVidia и ATI давно уже догнали по качеству в 2Д Матроксы...

Нет. Не догнали. Пока всё ещё нет. Берём 21' монитор наимоднейший Geforce 3, ставим 1900х1200 и быстро бежим в туалет потомучто смотреть невозможно. Меняем на G400 и от увиденной разницы еле сдерживаем себя чтобы не запулить гефорсом в форточку.
Но вот в 3Д матрас конечно слаб... весьма слаб...
Автор: Dimonka
Дата сообщения: 11.02.2002 12:09
Govoryat, chto 2D chast' u GForce'ov polnost'yu kuplena u Matrox'a...
Автор: sailor
Дата сообщения: 11.02.2002 18:26
TechSup

Цитата:
ставим 1900х1200

Ты смотри, как начнёшь выкидывать GeForce3 из фотрточки - посмотри чтоб там в это время под твоим окном я проходил... Даже если по голове попадёшь - не обижусь... Даже спасибо скажу.
Ну а теперь по делу. Ну кто скажи мне будет использовать GF3 для таких разрешений? Там уже и профессиональные карты. А GF3 - игровая карта. И то в разрешениях до 1600Х1200 включительно с Матроксом GF3 сравнялись, а выше не любой монитор потянет...

Dimonka

Цитата:
Govoryat, chto 2D chast' u GForce'ov polnost'yu kuplena u Matrox'a...

Почему бы и нет? Хотя такую инфу я слышал только про ныне покойный 3dfx...

Страницы: 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768

Предыдущая тема: Частота регенерации LCD монитора


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.