Здесь желательно писать о том, что было у вас на руках!
Т. е. о том, что вы знаете как свои пять пальцев.
Просьба - пишите по существу.
![]() |
|
![]() |
||||||||||||||||||||||
![]() |
|
![]() |
Здесь желательно писать о том, что было у вас на руках!
Т. е. о том, что вы знаете как свои пять пальцев.
Просьба - пишите по существу.
9800 Pro (R350) - 7700 рублей (цена января этого года)
9800 Pro стоимостью в районе 4000-5000, не является истинно Pro версией, это SE вариант.
Плюсы:
- Тянет большинство игр на максимальных настройках (при большом объёме оперативной памяти: более 512 Mb)
- Разгон до версии XT [c 380/680 до 412/730] проходит легко, но заставить драйвер включить оптимизации не получиться, т.к. перепрошить не удасться из-за разных чипов R350 и R360.
- От разгона без перепрошивки выгоды особенной не будет. В хороших играх, типа DOOM3, HL2 прирост на максимальных настройках будет ничтожным 2-5 fps,всё упирается в процессор даже на моём 3,0Ghz@3,6Ghz.
- Качество картинки лучше чем GeForce 5 поколения.
- Удобство работы с TV-OUT и работой с драйверами.
Минусы:
- родная система охлаждения не справляется (температурный режим памяти приводит к подёргиванию картинки)
- не подерживает shader 2.0 b (качество водных шейдеров в Hile-Life 2 уступает X800 серии)
- Требует дополнительное питание (потребляет более 80 Вт)
Вывод: К покупке на данный момент не годиться. Единственный вариант взять с рук и поставить нормальную систему охлаждения, только для владельцев 9600 Series и любого GeForce 5 поколения.
X600 XT (R380) - 4300 рублей (цена июля этого года)
Плюсы:
- Тянет большинство игр на средних настройках (при большом объёме оперативной памяти: более 512 Mb). Всего 2000 3DMarks в '05.
- Разгон ограничен памятью и самим чипом. С 500/740 до 525/760. Прирост меньше 1 %.
- Перепрошивка не возможна.
- Качество картинки лучше чем GeForce 5 и 6 поколения, а также серии Radeon 9XXX.
- Удобство работы с TV-OUT и работой с драйверами.
- родная система охлаждения справляется c температурныv режимом
- не требует дополнительного питания. Энергопотребление не замерял, но оно низкое.
Минусы:
- не подерживает shader 2.0 с (Уступает в качестве лишь при отрисовки теней GeForce 6 серии)
Вывод: К покупке на данный момент не годиться. Из этой ценовой группы лучше взять X700 Pro, стоимость которого равна 4900 (цена сентября этого года), и качающего 3200 3DMarks в '05.
NVIDIA GeForce 6600GT 128Mb
память 128Мб DDR3 (2нс, есть экземпляры с 1,6нс памятью)
выпускается в двух вариантах AGP и PCI-E.
цена: 6,0-7,5 т.р.(не включают NoName)
цены будут падать, об этом анонсировала сама NVIDIA;
причиной явилось выход в свет 7ой линейки.
плюсы:
1.Отлично гонится (у меня разогналась с 500/900 до 600/1120)
2.Высокая производительность (около, 7200 в 3DMark'03)
минусы:
1.Высокие температуры ядра и памяти (также PCB моста в AGP вариантах) при разгоне(у меня температура доходила до 70град., в интернете, есть случаи нагрева до 90-110 град!). Это ведет к покупке более производительной, а значит дорогой системы охлаждения.
2.Объем памяти в 128Мб не нацелен на будущее.
p.s. отличная карта, мне очень нравится, хоть и пришлось раскошелиться на Zalman VF700
QUOTE(sExpert @ Nov 12 2005, 17:48)NVIDIA GeForce 6600GT 128Mb
Можешь дать результаты тестов этой карты в разгоне и без для 3Dmark'05.
Если случайно у тебя нет этого тестера могу дать.
Просто я знаю карту, которая при цене до 7000 рублей даст в 7000 3Dmark'05, что даёт SLI из двух 6600 GT. Также 6600 GT по сравнению с линейкой 6600 GE от Galaxy смотриться весьма бледно, она вышла недавно...
QUOTE(Shader @ Nov 12 2005, 16:55)Можешь дать результаты тестов этой карты в разгоне и без для 3Dmark'05.
Если случайно у тебя нет этого тестера могу дать.
Просто я знаю карту, которая при цене до 7000 рублей даст в 7000 3Dmark'05, что даёт SLI из двух 6600 GT. Также 6600 GT по сравнению с линейкой 6600 GE от Galaxy смотриться весьма бледно, она вышла недавно...
В 3DMark05 она дает около 3000.
Я раньше тестил, вроде 2600 давала (в основном из-за того что проц слабый и память DDR266)
Интересно, что это за карта такая, которая 7000 дает?
Такая разница 2600 и 3000 очков, не нормальна для этого тестера. 3DMark'05 процессоро не зависим. Если параметры той машины, на которой ты получил 2600 очков меньше чем требования к тестеру, то понятно, а если нет - то ты что-то напутал.
Параметры:
Процессор: от 2400 Mhz;
Память: от 512 MB;
QUOTE(Shader @ Nov 13 2005, 12:53)Такая разница 2600 и 3000 очков, не нормальна для этого тестера. 3DMark'05 процессоро не зависим. Если параметры той машины, на которой ты получил 2600 очков меньше чем требования к тестеру, то понятно, а если нет - то ты что-то напутал.
Параметры:
Процессор: от 2400 Mhz;
Память: от 512 MB;
Процессоро-зависим! И еще как!
В 3DMark05 она дает около 3000 - это на сайте дается, типа образца
QUOTE(sExpert @ Nov 13 2005, 16:54)Процессоро-зависим! И еще как!
Тогда объясни:
1)
P4 3,0 Ghz@3,0 Ghz
FSB = 200 Mhz
2*256 MB (200 Mhz)
9800 Pro @ разогнанная
результат : 2980
2)
P4 3,0 Ghz@3,6 Ghz
FSB = 237 Mhz
2*256 MB (237 Mhz)
9800 Pro @ разогнанная
результат : 3010
30 очков - погрешность ....
Ха ха. Еще бы большая тут была
Ты проверь на P4 1,2GHz и P4 3,6GHz, тогда и поймешь
QUOTE(sExpert @ Nov 13 2005, 22:17)Ха ха. Еще бы большая тут была
Ты проверь на P4 1,2GHz и P4 3,6GHz, тогда и поймешь
Ты чем меня "слушал"! Процесоро-независимым тест становиться при выполнении условия минальных требований: и там минимум процессор требуется 2,4 Ghz. А этот 1.2 Ghz не успевает за видеокартой.
QUOTE(Shader @ Nov 13 2005, 22:39)Ты чем меня "слушал"! Процесоро-независимым тест становиться при выполнении условия минальных требований: и там минимум процессор требуется 2,4 Ghz. А этот 1.2 Ghz не успевает за видеокартой.
Спорить не буду, ибо не интересовался.
Но на сайте ixbt или overclockers есть статья о процессоро-зависимости,
и там написано, что есть всегда.
Есть ли преимущество карт с подержкой shader3.0 (Nvidia 6 Series, ATi X1*** Series) перед кртами с подержкой shader2.0b (ATI 9*** Series, ATI X8** Series)?
ScreenShot'ы игры Age of Empires III:
1. Качество без использования pixel shader
2. pixel shader2.0b
3. pixel shader3.0
ScreenShot'ы игры Black and White II:
1. pixel shader2.0b
2. pixel shader3.0
Результаты тестов карточек полностью поддерживающих shader3.0 и имеющих должный объём памяти на борту для их росчёта (жаль что отлично сбалансированная 6600GT туда не входит):
1. Age of Empires III (настройки обычные [для CRT])
2. Age of Empires III (настройки предельные [для TFT])
3. Quake4 (настройки обычные [для CRT])
4. Quake4 (передельные настройки [для TFT])
5. Тест 3D Mark 2005 - настройки по максимуму (общий для карт)
Есть ли преимущество карт с подержкой HDR?
ScreenShot'ы игры Serious Sam II:
1. Качество c использования HDR
2. Качество без использования HDR
3. Вывод, который сделан специалистами thg.ru по целесообразности замены видеокарты. Надо учесть, что замена оправдывает себя только при значения более + 50 % производительности.
Ну так давайте обобщим, какую карточку всетаки лучше взять в ценовом диаозоне до 8000р?
QUOTE(Reach2Sky @ Dec 15 2005, 23:44)Ну так давайте обобщим, какую карточку всетаки лучше взять в ценовом диаозоне до 8000р?
Для PCI-EX X800 GTO - однозначно - 6500 рублей....
Для AGP 6600 GT - не помню точно суфиксов, да и цену (~6000 рублей)...
Можно взять 6800 (не LE и попытаться открыть хотя бы 4 конвеера) - получите что-то приличоне в любом случае. цена до 8000 рублей.
Никогда не берите топовые модели - потому что с ними делать: разогнать - а куда, она ведь уже..., перепрошить - а куда, она последняя модель в своём ряде. Лучший выбор - на 1 шаг назад по моделям - хорошо по деньгам и легко достать топовый уровень.
А так лучше бы вы сами решали и писали свои соображения, а то я только один кидаю темы...
При покупке новых карт появляется проблема с блоком питания, они тоже стоят не дёшево.
QUOTE(Dimon @ Dec 16 2005, 00:48)При покупке новых карт появляется проблема с блоком питания, они тоже стоят не дёшево.
Только с теми что требуют дополнительный разъём питания, т.к. в этом случае нагрузка ложиться на основную линий питания, а не на материнскую плату с системой защиты.
Да и начто нужны средства мониторинга: Смотрите если у вас ATX 1.x то внимательно смотрите 5v если нет , ATX 2.x то 12 v. Падения напряжения в режиме насыщения (перегрузка) не должно превышать 0.07 - 0.06 v.
таблица потребностей в питании (старая)
здесь представлены пиковые значения поребляемых мощностей, т.е когда всё одновременно работает и на все 110 %.
Gigabyte GeForce 6600 GT Silentpipe II.
Частоты стандартные 500 на 1000.
Потребляемая мощность - 130 Вт в режиме простоя, 200 Вт - в режиме нагрузки.
Температура 60-65 градусов.
Quake 4
1280X1024X32 4XAA 8XAF = 29 fps.
F.E.A.R. 4
1280X1024X32 4XAA 8XAF = 11 fps.
3Dmark 2005
1280X1024X32 4XAA 8XAF = 2300 Marks.
Ещё данные:
Мой 3,0Ghz Presscot (110Вт), 9800 Pro (80 Вт), 2*hdd 160Gb (150 Вт) + мелочь (40 Вт) - это всё висело на 360 Вт и проблем не замечалось. К примеру В SLI режиме G70 потребляет 340 Вт самостоятельно!
Чтобы узнать сколько ваш компьютер потребляет энергии: запустите приложение, которое мучает ваш процессор и видеокарту - пусть всё тормозит и замерьие с помощью индукционного мультиметра силу тока на "нуле". Для этого надо разделить (если это возможно) провод, который идёт от БП, до разетки или обычным мультиметром - извращаясь как можно запихать его в разетку. получив значение умножить его на 220 и получить потребляемую мощность системного блока, без учёта потерь и реактивных мощностей. Всё равно будет близко к истине.
Небольшая программка для отслеживания температуры процессора и скорости вентилятора. Сам я её не пробовал, работает или нет-не знаю А какие есть проги для контроля температуры видюхи и винта?
Для мониторинга состояний я пользуюсь:
1. ASUS Probe 2.21.03 (может есть версия и по новей, работать умеет и на других материянских платах)
2. Через Riva Tuner можно узнать температуру видеокарты, если она имеет соответствующий датчик. (последняя версия 2.0.158)
Сравнение SM 2.0 и SM 3.0 (продолжение):
Использован Gif-формат:
1. Age of Empires III
[attachmentid=641]
2. F.E.A.R.
[attachmentid=643]
3. Splinter Cell 3
[attachmentid=644]
Сравнение HDR - rendering'а (продоолжение):
Использован Gif-формат:
1. Splinter Cell 3
[attachmentid=645]
Рассмотрено качество картинки на картах как с подержкой DirectX9, DirectX 8 так и с DirectX 7:
1. F.E.A.R.
[attachmentid=649]
- источник материала - THG.RU
Сегодня работал с NVIDIA 6800!
Видеокарта произвдоства Chaintech, выпущена на 47 неделе 2004 года, стоимость 7800 рублей, поддержка Pixel shader 3.0, на борту 128 MB GDDR3, время выборки 2.2, что означает что она расчитана на 910 Mhz, рабочие частоты видеоплаты - 360/770, разгон при родном охлаждении дал 425/900, по умолчанию имеет 12 пиксельных и 5 вершинных конвееров, после модификации биоса - стало 16 PP и 6 Vertex).
Карточка в 3Dmark05 выдаёт 3550 очков, при разблокированных конвеерах и разгоне - 4600 очков, что почти соответствует 6800 GT (стоимость которой не падает с отметки в 14000 рублей).
В среднем карточка по производительности напоминает X800 GTO без модификаций, но последняя обладает большим потенциалом (выше средний fps в большинстве игр, не считая меньшее качество картинки всё-таки нет поддержки shader 3.. Управление скоростью вращения вентилятра весьма примитивное: определённая скорость при 2D и 3D. Имеется синяя подсветка, свет от которой проникает сквозь места припоя (смотриться lовольно приятно). Минусы - всё-таки шумный турбинный кулер, высокая температура платы в 3D (70 градусов при default , 80 - при oc., температура сброса - 135 - так что запас ещё есть), цена могла быть и ниже (6800 GS качает больше, да и стоит примерно также ~ 8200 рублей)
300 W при учёте что в системе 1 HDD и процессор менее 3,2 Ghz.
В противном случае лучше обзавестись 420 W.
Думаю ни для кого не секрет что на настоящий момент лидерство по производству чипов видеоакселераторов принадлежит компании их 7 Series опережает конкурента в лице ATi почти по всех показателям (при одинаковой производительности Nvidia в среднем на 50$ дешевле, в плане энергопотребления и тепловыделения имеет прекрасные показатели, а их top-карты держат первые места в рейтинге многих бенчмарков). Пришло поставить жирную точку в 7 Series и компания выпустила великолепное решение (что то схожее с X800GTO) 7900GTO, так как грядёт новая веха в истории производства видеокарт (унифицированные конвееры G80 и R600).
7900GTO:
ядро G71 на частоте 650 МГц
чип имеет 24 пиксельных и 8 вершинных процессоров
а также 16 блоков ROP
Используется 1,4-нс память GDDR3, работающая на частоте 1,32 ГГц.
Сайт же известного китайского энтузиаста Coolaler проверил разгонную способность серийной видеокарты MSI GeForce 7900 GTO. Поначалу результат не особо впечатлял, составив 700/1400 МГц для ядра/памяти, однако после прошивки BIOS от GeForce 7900 GTX видеокарта начала стабильно проходить тесты на частотах 750/1720 МГц!
Видеокарта работает в ровень с 7950GT и X1900XT 256MB.
Естественно, в таком режиме GeForce 7900 GTO не имеет ни одного конкурента в ценовом диапазоне до 300 долларов.
[attachmentid=4157]
Сравнение 7600GT (самой популярной видеокартой на настоящий момент) и 8600GT (будущей самой популярной видеокартой): [attachmentid=7264]
Помоему в продаже уже есть GTS 8800 примерно за 8100 руб. московских деревянных. Выйдут радеоны х2х00 тогда будет еще интересней
уже падают цены на 8800 к примеру 8800GTS 320 mb 320 bit стоит у нас в Ухте 10300, соответственно с выходом линейки х2х00 цены на 8-ю линейку резко должны упать
Кстати, разницы между ними (GF8800 от якобы разных фирм и по разным ценам) - никакой. то есть - вообще - они все изготовлены самой Нвидиа и вся "фирмовость" заключается в нашлепке на корпус кулера и коробке - сами платы - одни и те же и даже из одной партии
Так что берите ту фирму, что дешевле - смысла брать дорогой, к примеру, АСУС нет, так как он ничем не отличается от дешевого Палита - только коробочкой и вложеной игрой. а так даже наборы шнурков-переходников идентичны - я три разных карты, от разных производителей проверил - одно и то же Близняшки. Пардон - тройняшки
А! В фоксконновскую плату эти деятели наспех запихали в кулер светодиод синенький Типа светится красиво. Но прикреплен паршиво и дребезжит. Явно ручная работа на мозолистой китайской коленке
Я купил у нас в Лагуне за 10200.
А обещаниям ATI я слабо верю, так как они не раз уже жидко обкакивались со своими заявлениями. Да и под Линукс их драйверы просто в могучем сливе по сравнению с нвидиевскими, которые ничем не уступают виндовым.
В общем, посмотрим. У АТИ их карта все равно не скоро появится, а к тому времени адекватный ответ по мощности и цене будет и у нвидии, я так думаю.
ЦитатаРебята в анонсе ожидается выход 2000-ой линейки от Радеона которая обещает уделать 8800 ровно в 2 раза по всем статьям
Полный бред =))) ссылки в студию кто там кого уделывает в 2 раза, зная архитектуру R600 можно констатировать факт, что это просто нереально, не надо таких громких заявлений делать не подкрепляя их фактами.
Цитатая так думаю
Так и будет, 8800 Ultra обзаведется гиговым фрейм буфером частота шейдерного домена возрастет до ~1.8Ghz, остальная информация пока неизвестна.
ЦитатаКстати, разницы между ними (GF8800 от якобы разных фирм и по разным ценам) - никакой.
GX-BadAngeL:
ЦитатаВсе топовые видеокарты nVIDIA производятся на мощностях Flextronics и Foxconn, дистрибьюторы получают готовые видеокарты и пакуют их в свои коробки клея при этом свои наклейки =)
YagMort:
ЦитатаНе только топовые - сами карты на одних мощностях уже начиная с GF7600/7900GS производились точно - разные фирмы тока свои кулера клеили А теперь и кулеры даже не клеят - все отобрали у них. И правильно - нефиг порнуху клепать всякую.
Кстати, о драйверах для GF8800. Говорят, что с ними (под XP) та же петрушка начала твориться, что в свое время с драйверами для ATI - в общем "фальшивят, картавят, в ноту не попадают".
Сам я тестил только под WinVista (ForceWare 101.70 и со вчерашнего дня - 165.01) и Linux (9x.xx серия) под линукс работают идеально, под виндовс - 101.70 отличается частыми падениями и зависонами в FEAR, а также неумением определять второй моник и телевизор.
Вчера закачанный "develop leak" с NGQ - драйверы ForceWare 165.01 показали пока себя только с хорошей стороны - увеличилась скорость во многих играх (а не, как обычно - тестах), ни одна из игр пока ни разу "не зависла" и не "упала".
Легкое "мыло" в 2D (характерное для дров 100 и 101 серии) исчезло - четкость нормальной стала, шрифты теперь не размазаны по двум пикселям (TFT-моник, 19", "gnusmaS 191n") - стало как обычно - один пиксель - на шрифт и еще недо-пиксель - на "subpixel hining" - оно же "ClearType".
Теперь определяется нормально второй моник (в его роли - TFT-телевизор LG'32 1366x1024).
Протестированы игры -
под WinVista 32-bit:
Silent Hill 3
Resident Evil 4
Fahrengheit
Doom 3
Quake 4
Unreal 2
Half-Life 2: Episode One
SiN: Episode One
S.T.A.L.K.E.R.
F.E.A.R + ad-on
Готика 3
SpellForce 2
Need For Speed: Carbon
Seriouse Sam 2
Planscape:Torment
Fallout 2
Fallout Tactics: BOS
Heroes 5
C&C: Generals
GTA 3: Vice City
GTA 3: San Andreas
под SuSE Linux 10.2:
Doom 3
Quake 4
Unreal Tournament 2004
Soldier Of Fortune
American Army
Creatures 3
NeverWinterNight
Под линукс в Cedega успел помучать пока только Half-life 2 и BlairWitch vol.1
Все ок.
Смотрел тесты GeForce 8600GT, которая вот-вот появится на прилавках наших магазинов. впечатление - ужасное. Еще не знаю ее цены, но если она будет выше, чем на 500 рублей за GF7600GT - это будет грабеж.
По тестам эта видеокарта в играх мощнее всего лишь на 5-10 процентов, чем GF7600GT и уступает (или идет на уровне) GF 7900GS. Цена на первую - около 4500, на вторую - 5500-6000 руб.
В общем, непонятно, как Nvidia собирается разруливать эту ситуацию - либо 7ая серия будет в той же цене, но при этом мы получим странный тандем двух карт разных поколений за одну цену при одинаковой производительности (с преимуществом в сторону GF 7900GS) - GF8600GT и GF7900GS. Либо 7ой линейке просто придет "полный аллес" по маркетинговым соображениям. Побачим.
Вот скрин тестов на котором явно видно - в синтетестах (ака 3dMark) разница заметна, в реальных играх - мала. На скрине - сравнение 8600GT и 7600GT, учитывая, что 7900GS мощнее 7600GT на 15-20%, можно делать выводы.
[attachmentid=7381]
GX-BadAngeL:
ЦитатаЭта карта для DX10, а там все будет несколько иначе, в частности нагрузка на GPU, DX10 лишен недостатков DX9 =)
Вывод. Учитывая цену на GF8800, лучше (и намного) взять именно ее - разница (по сравнению и с 7600GT, и с 7900GS, и с 8600GTS) будет просто глобальной. Иногда - в 4-5 раз. (не шучу - те кто видел, как идет, например, "Silent Hill 3" с текстурами 4096х2048 под этими картами, все поймет - там разница - 12-20 fps в случае с GF7600GT и постоянные 60 fps в случае с GF8800GTS). Разница в скорости, как минимум - 4. Разница в цене - 2. В STALKER дело обстоит еще хуже для GF 7600GT.
Как мне кажется, 8600 станет бюджетной картой для стандартной установки в компы пользователей (те, кто пошустрее, отхватят себе и более быструю 7900GS), нижестоящие модели, например 8500, пойдут "в предприятия и офисы", ну или домашникам, беззастенчиво обманутыми продавцами (это будет аналог печально известной GF5200 - уверен). 8800GTX/GTS для любителей игр, за разумную цену. Ну и разогнанные версии 8800 (как уже появившаяся GT8800 Ultra, которая иногда вдвое "уделывает" 8800GTS - вот вам и первый ответ на пока несостоявшийся чип от ATI ) будут для хардкорщиков, чья цель - выжать максимум из тестов и игр и померяться "пипирками" с конкурирущими конторами, например, главным и единственным
- ATI.
Эта карта для DX10, а там все будет несколько иначе, в частности нагрузка на GPU, DX10 лишен недостатков DX9 =)
Ага. GF5200 тоже отличалась от GF 4 MX440 только умением поддерживать DX9. Но только вопрос - и нафик такой дохлой карте поддержка DX9? все равно она и под DX8 была слабее более старой GF4 MX440, а по цене выше. И зачем эта дохлятина нужна была?
Неее - в секторе слабых карт главное - не рекламные понты, а соотношение цена-производительность (с уклоном в цену). Офисная бня - есть офисная бня. Там дешевизна - главное...
GX-BadAngeL:
ЦитатаНе надо сравнивать ежей с мухами, концепции и подходы к рендерингу в DX10 разительно отличаются, как и собственно эти девайсы. Вы взгляните на возможности этого API и модель рендеринга, увидите много интересного
Куплю видюху с поддержкой д10, но зачем она щас то? Тем более что сижу на хр, для которой не будет д10 и не вижу пока применения д10. Когда появиться игры будет другой разговор к этому времени теже видюхи будут дешевле.
дизу так счас тока и будут под 10д выпускать игры и че ты будешь делать ?
они проста те выбора не дадут вот проидет не много времини и сам увидишь !
согласен с deimasом, уже анонсирована и должна выйти игра КРИЗИС, сеня посматрел ролик - впечатление просто СУПЕР, тока опять же щас в продаже появиться х2800 и 8900GTS на DDR4 т их и стоит брать я так думаю они уделывают предыдущие свои аналоги по многим параметрам + падает цена за счет этого соответственно на 8800 серию, но опять же стоит выбор между либо подождать новое либо купить 8800
Нужно отметить несколько моментов относительно 8600:
-достаточная производительность для работы в 1024х768 даже с активизацией АА и АФ;
-драйверы уже достаточно отлажены на сегодня (хотя еще есть ряд нареканий);
-новый продукт способен исполнять HDR совместно с АА;
-новая анизотропия - высокого качества не может не радовать.
-DX10
-Новый вид АА - CSAA, который вполне может стать заменителем MSAA.