хорошая работа, настольгическая) много оговорок допустил по ходу видео, второго жирафа назвал geforce 2 ti 4200 ) мы в своё время называли КУСЛ и ТУСЛ первый для копперов, второй для туалатинов
Спасибо за комментарий. Бывает, когда говоришь академически, приходится слова подбирать, получается медленно и скучно. Поэтому решил оставлять шероховатости, да и не всегда их сам выловить можешь. Просто к неправильному привыкаешь и оно кажется верным.)))
Интересный момент с игрой Unreal Turnament 1999 года. Я тестил на Fx5200 она выдавала залоченные 75 кадров, а на более мощной ATI Radeon 9800 pro выдала как и у вас 60 кадров.
Теперь замечания по видео. 1) Драйвер использован неверно. Общеизвестно, что оптимальная (усреднённо) версия, охватывающая Geforce 2, 3, 4(AGP 8x) - это 45.23. 2) Half-Life 2 не запустился по причине того, что минимальные требования к видеопамяти - 64 Мб. 3) Неверно интерпретирован результат 3D Mark 2001SE: на GF4 (в отличие от GF2) учитываются результаты последнего теста. Для более-менее верного сопоставления следовало не задавать этот шейдерный тест.
ОК, я услышал. Особенно про общеизвестность версии драйвера))). Еще помнится, очень хотел купить себе GeForce 3, чтобы посмотреть на 4-й тест в 3DMark 2001 и, купив, первым делом это и сделал))) В любом случае, спасибо за комментарий!
Q3A, к сожалению, не показатель, игра может выдавать много больше, но 91 fps из-за переменной ограничения кадров com_maxfps 85. для игры с компьютером этого достаточно, для сетевой лучше увеличивать до 120-150 или вообще 0 (выкл ограничение). Сам столкнулся с этим, тестируя 4200 и 9600 на P4.
вместо 4ti 4200 я бы взял радеон 9600 про или похожую. Их найти намного легче, они тащат 9 директ, еще они заметно холодней. Титаниум все таки горячеват. А по скорости примерно одно и то же. А радеон 9550 вообще можно разогнать чуть ли не в 2 раза. Плюс ко всему они легче переваривают анизотропную фильтрацию и сглаживание
В 2004г у мне был селерон 1100 разогнанный по шине до 1466мг и как раз такая как у вас в видео ti4200. Я проходил игру халф лайф2 с комфортным числом кадров, в 1280-720. Настройки почти все в максимум. То что у вас на видео очень странно, похоже на проблему с драйверами.
У меня Pentium III 1 GHz установлен в тестовой системе, да и версия игры заметно свежее той, что была спирачена в 2004 г., ту сейчас и не найти, наверное, хотя где-то у меня 4-е диска лежали, так что - не удивительно, что у меня проблемы с игрой. Сам я ее (игру) проходил на AMD Athlon XP 1600+ и ATI Radeon 9600 Pro - игра если и не "летала", то субъективно шла великолепно в разрешении 1024х768 или 1152х864 (точно не помню, как играл, но скорее - второе). Причем AI глючил не по детски, один уровень помню прошел со стоящими ботами.
Процессора AMD Duron 700 - достаточно для UT, хотя, конечно, игре чем быстрее процессор, тем лучше, а вот видеокарта слабовата, но в разрешении 640х480 должно быть вполне играбельно.
Спасибо за видео, лайк, как всегда, но: Лок фпс в Q3, UT и MaxPayne, это должно было, как минимум, насторожить. Всего лишь надо было отключить в том же РиваТюнере В-Синк. Плюс крякозябры в HL2 помешали настроить правильно GF2GTS, а ведь на нем можно играть в эту игру без всяких зависаний (да и версия дров тут никак не помогла, я думаю) Извини, но методику стоит доработать)
Договорились. По кракозябликам - это проблема Windows 98 с юникодами. Времени разбираться не было. По локу в 90 FPS в Quake - это процессор уже не тянет (в демке он 98 FPS выдает при максимальных настройках), потому что вертикальную синхронизацию в OenGL я отключил. По UT - по ходу это особенности движка, максимальная частота привязывается к максимальной частоте монитора, ставишь ЭЛТ с 85 Гц - максимум 85 FPS становится, но вообще - сам процессор 200 кадров в секунду там не выдает при любом раскладе. Как отключить вертикальную синхронизацию в UT и Unreal я так и не понял, в настройках драйвера такой возможности нет, а программа Riva Tuner Direct3D overrider ничего не меняет, хотя в ней вертикальная синхронизация и отключено - ограничение остается.
@@Freevad "Как отключить вертикальную синхронизацию в UT и Unreal я так и не понял, в настройках драйвера такой возможности нет, а программа Riva Tuner Direct3D overrider ничего не меняет, хотя в ней вертикальная синхронизация и отключено - ограничение остается." Начиная с 70-го (вроде как) ForceWare можно отключать принудительно вертикальную синхронизацию в приложениях. Я так делал, на Geforce 2 работало. Но есть ещё одна возможность - в Unreal.ini (Default.ini, UnrealTournament.ini) найти строчку [D3DDrv.D3DRenderDevice] и дописать в конце "UseVSync=True" и вертикальная синхронизация отключится. Именно "True"! Это глюк движка, который вылезает на картах Nvidia.
Gf 4 Ti 4200 все-таки быстрей чем моя Fx5500 ( хоть она и разогнана производителем ). Заметил разницу, в зависимости от версии драйверов, которые стояли на видеокарту. Правда я и тестировал на вин ХР, а не на 98. На 2001 марке набралось порядка 5500 очков.
@@михаилсиляков-л2р с одной стороны - знать хотелось бы, с другой - все равно все уперлось в процессор, эту видеокарту на 100% раскачает что-то уровня Athlon 3200+\Pentium IV 3400.
Вообще, "С" - это буква "Си", потому и "ЦУСЛА", правильно говорить "Си Ю Эс Эль - 2 Си" (CUSL-2C), но в тех краях где я жил именно так их назвали. На истинность этого названия по всей стране не претендую.)))
если сравнивать GeForce 2-й серии и 4-й, то корректнее было бы сравнивать GeForce 2 Ultra и GeForce 4 Ti4200. Тесты из журналов тех времён показывали, что в данном случае апгрейд был уже не очевиден. Если только вам очень нужны были шейдеры. Но в то время шейдеры поддерживали единичные игры. По этой же причине некорректно сравнивать попугаев в 3D Mark 2001, т.к. Ti4200 поддерживает шейдеры, а GeForce 2 нет. В данном случае нужно было в 3D Mark оставить включёнными только те тесты, которые аппаратно поддерживают обе видюхи.
С одной стороны, все вроде верно, в Quake III или Unreal по-настоящему большой разницы в результатах между названными картами не было, но с другой стороны, у меня нет GeForce 2 Ultra, поэтому протестировать я ее не мог, а синтетические тесты (даже если мы допустим мысль, что между программистами и производителями видеочипов был сговор) все же были предтечей того, что потом появились игры с поддержкой шейдеров. Тот же TES III. Если бы видеоигры ограничились лишь теми, что вышли к моменту появления GeForce, Вы были бы правы, но, поскольку игры выходили и продолжают выходить с поддержкой все новых технологий, то приходится сравнивать то, что есть, с тем что появилось. Как еще недавно сравнивали видеокарты AMD, не поддерживающие технологию трассировки лучей, с видеокартами nVIDIA серии RTX. И даже умудрялись заявлять, что "лучи" не очень то и нужны.))) P.S. Спасибо за комментарий!
@@Freevad данное тестирование для игрока того времени должно было ответить на вопрос: имеет смысл апгрейдить весь ПК или достаточно купить только более современную видеокарточку. Т.е. в 2000-м году человек собрал себе почти топовый комп - Pentium III 1 GHz + GeForce 2 GTS. Прожил на нём 3 года, появились новые игры, и встал вопрос апгрейда. Так вот данное тестирование показывает, что при апгрейде только видеокарты прирост производительности несущественный. Игр, которые поддерживали шейдеры, были единицы и то, чтобы в них поиграть апгрейда только видеокарты было недостаточно. А в 3D Mark 2001 интереснее было бы увидеть сравнение т.н. чистой производительности видеокарт. GeForce 2 аппаратно не поддерживает часть тестов, поэтому ей за эти тесты не начисляются баллы, и результат заведомо будет не в её пользу, т.е. он вполне ожидаем. Поэтому в 3D Mark 2001 нужно было оставить только те тесты, которые поддерживаются обеими видеокартами.
@@bakla_zhan Я понял мысль, но мне в те времена, к примеру, очень хотелось посмотреть на 4-й тест 3DMark 2001, а без апгрейда видеокарты, хотя бы на GeForce 3 это было невозможно. Так что лично для меня апгрейд был оправдан, хотя сам я в те годы купил ATI Radeon 9600 Pro, а не GeForce 4 Ti.
Спасибо за комментарий. Я в те годы про эту игру даже и не слышал. Да и не только в те годы, о ее существовании от вас сегодня и узнал. Игру посмотрю, но не обещаю, что добавлю в следующее видео.
Для этой видеокарты (она не поддерживает DirectX 9), в принципе, достаточно будет Pentium 3 на ядре Tualatin (1266-1400 МГц), либо AMD Athlon XP 1600+ и выше, либо Pentium IV на ядре Northwood от 2-х ГГц. Все зависит от того, насколько универсальную платформу хотите собрать и какую ОС будете использовать. Я бы предпочел Pentium III или Athlon XP, но гораздо проще будет найти Pentium IV.
@@Freevad celeron d320 2.4 ghz(oc 3 ghz) radeon 9250 768 mb ddr1 win xp sp3 (какая то микро сборка весит 400 мб) все это у меня на работе для cs 1.6 и других стареньких игр и фильмов,но мне сказали что процессор у меня кукуруза еще та,вот я думаю,на что его поменять и менять ли в общем.Мать кушает все до 800 шины.
@@Быдляцкий поставьте Pentium IV, лучше на ядре Northwood, старые игры под них оптимизировались, с тактовой частотой 2,8-3,4 ГГц и будет Вам счастье))). Celeron D очень сильно проигрывает Pentium IV. Но если все и так устраивает, оставьте как есть.
@@Freevad Спасибо за рекомендации. Мне как зрителю очень любопытно смотреть противостояния ретро видеокарт,потому что в то время когда они были актуальны,я и мечтать не смел о подобном оборудовании.Это сейчас в системнике многоядерный процессор и видеокарта с 8 gb памяти на борту,только играть я предпочитаю в те игры о которых мечтал 20-15 лет назад,а на современный,конвейерный поток графонистых игр,как то время тратить жалко.
Небольшая оговорочка к моменту 16:45 Как человек, который не раз проходил HL2 на разном железе могу сказать, что в главе "Водная преграда", где надо окончательно добить вертолет (уже в конце главы), вы не сможете этого сделать, ибо fps присядет настолько, что игра либо зависнет и уже не отвиснет (поможет только перезагрузка ПК), либо вылетит. Как раз на таком железе, как в видео, я и столкнулся с такой проблемой. Решается ещё бо́льшим понижением параметров графики (уже через консоль, через настройки будет мало) и запуском игры в оконном режиме.
Вполне вероятно, поскольку я эту игру первый раз проходил на Radeon 9600 Pro Athlon XP 1700+ (1466 MHz), тем не менее, сами написали, что с понижением настроек это получится.
Странно, у меня на GF4Ti4200 и Athlon XP 3200 c DDR2 (мать на nForce2) HalfLife 2 шла на максималках без сглаживания с хорошим FPS. Видимо тут слабое место - SDRAM и проц.
Да, все в производительность процессора упирается. В официальных минимальных требованиях Half-Life 2 указан Pentum III 1,2 ГГц, а тут более слабый процессор. Athlon XP 3200+ - это по тем временам "зверь" был. У меня был разогнанный 2500+ до 3000+ (2167 МГц) + ATI Radeon 9600 Pro - все летало, (без сглаживания, на высоких и максимальных настройках).
С одной стороны все уперлось в процессор, с другой: и картинка лучше, и скорость в старых играх выше, и новые хотя бы запускаются... Сам по себе Pentium III, как платформа, сохранял актуальность аккурат до выхода Half-Life2 и DoomIII, для этих игр уже лучше было использовать Athlon XP\Pentium IV и видеокарты с поддержкой DX-9, причем желательно от ATI.
ни хрена, если только мерить категориями как было раньше - запустилось или нет, а стабильнее на титане, да и то, может мощнее карту стоило еще к пню 3 ставить
Там в минимальных требованиях указано Pentium III 1,2 ГГц, работать оно работало, но тормозило. Я сам проходил эту игру на Athlon XP 1700+ (1466 МГц) и ATI Radeon 9600 Pro. Не скажу, что летало, но работало очень бодро по воспоминаниям того времени.
у вас глючная халва2, или какие-то кривые драйвера, на этой системе она не должна так тормозить, я в халву играл в момент её релиза на 1500 пне 4, и джифорс 2 мх 400, игра на таком конфиге летала! полуторный пень 4 по производительности не сильно отличался от вашего камня, а мх 400 даёт абсолютно играбельный фпс потому-что халва удаляет лишние объекты окружения из кадра что-бы обеспечивать нормальный фпс и разница титаниума 4 и мх 400 только в количестве объектов в кадре, ну и эффектов типа бампмаппинга которых нет у мх, фпс и там и там должен быть нормальный, вот у дума 3 например не было динамического отображения объектов в кадре, поэтому мх 400 его совсем не вывозил, а титаниум 4 не сказать что прямо летал, но бегал достаточно бодро
Спасибо за комментарий! У меня в юности Half-Life 1 тоже нормально работала на Pentium 100, а потом попробовал - оказалось все не так радужно. Тем не менее, у меня стоит однозначно не первый релиз игры и шейдеры она активно использует.
@@Freevad ну на 100 первая ХЛ впринципе не могла ни как работать совместимо со здравым смыслом, если даже на 166 MMX толком не работал, програмный рендер имею ввиду, когда первая вышла, ускорителей у нас ещё не было ) а вот вторая халява очень неплохо шла на мх400, но gts чуть ли не вдое её быстрее, так что тут проблем вообще не должно быть. Откапал селерон коперман 1000, и мать под него, но видео там рива ТНТ2 урезаная, вот на ней запускать дохлое дело, она даже мх400 слабее раза в два, а то и в три, будет карта посерьёзней, повторю тест
@@fineflare Half-Life 1 на Pentium 100 вполне работала, в окне в разрешении 320х240 даже смотрелась неплохо. Первые уровни вполне пройти можно было. Да в ней в принципе тормоза были когда до трехголового горыныча доходишь (Тентакл) и в мире Дзен. Хотя официально минимум с Pentium 133 МГц начинался.
@@Freevad с 3д ускорителем это да, он что называется выводил производительность на новый уровень ) но думаю ради любопытства надо будет протестировать хл1 с первым пнём, есть 120, правда ни какого ускорителя под pci нету чтобы сравнить с ним и без
для 4ти процыка уже не хватает, ей хотяб тулик 1.4 нада, а так без -Боттлнека со стороны проца она где то в раене 8к выбивает в 2001 марке насколько помню))) а так я халфу на разогнаном дюроне 1.4 и радеоне 8500 проходил, на максималках кадров 20-25 было, хотя радик где то ракои же по производительности как ти 4200))
Вот блин, для кого же эти заголовки с "интригующими" названиями?! Неужели для "ретроманьяков" 2000-х годов рождения? Отвечаю, даже НЕ посмотрев видео: конечно, буст был! А почему? Потому что, что весьма очевидно, GF4 довольно хорошо ушёл технологически от GF2 GTS.
Все верно, но процессор таки был уже слабоват. Нужно было хотя бы апгрейдиться на Tualatin 1266-1400. У меня тогда Athlon XP 1700+ был, хватало на все.
Windows 98 довольно глючен, бесспорно, но это ОС с GUI с которой у многих все начиналось. Сначала был DOS, потом Windows 95, который многие пропустили, поскольку у многих на руках были 386-е, обновлять ПК начали в 1998-2003 годах, когда уже вышла Windows 98, которая интересней, чем Windows 95 и только поле 2003 года многие стали активно переходить на Windows XP. Windows 2000 не позиционировалась, как домашняя, хотя, с последними патчами, она как минимум не хуже Windows XP SP1. В общем, на мой взгляд, для ретро ПК Windows 98 - наше все))).
хорошая работа, настольгическая)
много оговорок допустил по ходу видео, второго жирафа назвал geforce 2 ti 4200 )
мы в своё время называли КУСЛ и ТУСЛ первый для копперов, второй для туалатинов
Спасибо за комментарий. Бывает, когда говоришь академически, приходится слова подбирать, получается медленно и скучно. Поэтому решил оставлять шероховатости, да и не всегда их сам выловить можешь. Просто к неправильному привыкаешь и оно кажется верным.)))
для четвертого титана надо хотяб четвертый пень 2.4 взять. И выключить лок фпс везде. А так хорошо, люблю тесты старого железа
От Р4 3гц или атлон 1700+
Ностальгия!!! Для меня Пентиум 3 самый ламповый
Ага. Особенно в слотовой версии.
Интересный момент с игрой Unreal Turnament 1999 года. Я тестил на Fx5200 она выдавала залоченные 75 кадров, а на более мощной ATI Radeon 9800 pro выдала как и у вас 60 кадров.
Это зависит от драйверов, на современных ПК игра больше 60 кадров не выдает.
Теперь замечания по видео.
1) Драйвер использован неверно. Общеизвестно, что оптимальная (усреднённо) версия, охватывающая Geforce 2, 3, 4(AGP 8x) - это 45.23.
2) Half-Life 2 не запустился по причине того, что минимальные требования к видеопамяти - 64 Мб.
3) Неверно интерпретирован результат 3D Mark 2001SE: на GF4 (в отличие от GF2) учитываются результаты последнего теста. Для более-менее верного сопоставления следовало не задавать этот шейдерный тест.
ОК, я услышал. Особенно про общеизвестность версии драйвера))). Еще помнится, очень хотел купить себе GeForce 3, чтобы посмотреть на 4-й тест в 3DMark 2001 и, купив, первым делом это и сделал))) В любом случае, спасибо за комментарий!
@@Freevad а, да. Несмотря на замечания, ролики конечно же плюсанул.
@@mbbm8002 Спасибо!
53.04 - тоже хороший драйвер.
Q3A, к сожалению, не показатель, игра может выдавать много больше, но 91 fps из-за переменной ограничения кадров com_maxfps 85. для игры с компьютером этого достаточно, для сетевой лучше увеличивать до 120-150 или вообще 0 (выкл ограничение). Сам столкнулся с этим, тестируя 4200 и 9600 на P4.
вместо 4ti 4200 я бы взял радеон 9600 про или похожую. Их найти намного легче, они тащат 9 директ, еще они заметно холодней. Титаниум все таки горячеват. А по скорости примерно одно и то же. А радеон 9550 вообще можно разогнать чуть ли не в 2 раза. Плюс ко всему они легче переваривают анизотропную фильтрацию и сглаживание
9600 на уровне фх5900 в dx9
В 2004г у мне был селерон 1100 разогнанный по шине до 1466мг и как раз такая как у вас в видео ti4200. Я проходил игру халф лайф2 с комфортным числом кадров, в 1280-720. Настройки почти все в максимум. То что у вас на видео очень странно, похоже на проблему с драйверами.
У меня Pentium III 1 GHz установлен в тестовой системе, да и версия игры заметно свежее той, что была спирачена в 2004 г., ту сейчас и не найти, наверное, хотя где-то у меня 4-е диска лежали, так что - не удивительно, что у меня проблемы с игрой. Сам я ее (игру) проходил на AMD Athlon XP 1600+ и ATI Radeon 9600 Pro - игра если и не "летала", то субъективно шла великолепно в разрешении 1024х768 или 1152х864 (точно не помню, как играл, но скорее - второе). Причем AI глючил не по детски, один уровень помню прошел со стоящими ботами.
У меня тоже есть GeForce 4200 Ti. Я крутой! На P3 Tualatin 1133 Мгц, в 3d mark2001: показала 7029 попугаев. Под Windows XP.
Это не просто круто, это супер круто!🤝
Интересно!
суровый челябинский геймер, сук)
Спасибо за комментарий!)))
@@Freevad спасибо за оперативность
@@qweqwevka ))) зашел в комментарии, уведомления о которых не всплывали.
Я запускал unreal tournament на AMD Duron 700 mhz с видеокартой S3 Savage4 и 128 мб оперы
Процессора AMD Duron 700 - достаточно для UT, хотя, конечно, игре чем быстрее процессор, тем лучше, а вот видеокарта слабовата, но в разрешении 640х480 должно быть вполне играбельно.
Спасибо за видео, лайк, как всегда, но:
Лок фпс в Q3, UT и MaxPayne, это должно было, как минимум, насторожить. Всего лишь надо было отключить в том же РиваТюнере В-Синк. Плюс крякозябры в HL2 помешали настроить правильно GF2GTS, а ведь на нем можно играть в эту игру без всяких зависаний (да и версия дров тут никак не помогла, я думаю)
Извини, но методику стоит доработать)
Договорились. По кракозябликам - это проблема Windows 98 с юникодами. Времени разбираться не было. По локу в 90 FPS в Quake - это процессор уже не тянет (в демке он 98 FPS выдает при максимальных настройках), потому что вертикальную синхронизацию в OenGL я отключил. По UT - по ходу это особенности движка, максимальная частота привязывается к максимальной частоте монитора, ставишь ЭЛТ с 85 Гц - максимум 85 FPS становится, но вообще - сам процессор 200 кадров в секунду там не выдает при любом раскладе. Как отключить вертикальную синхронизацию в UT и Unreal я так и не понял, в настройках драйвера такой возможности нет, а программа Riva Tuner Direct3D overrider ничего не меняет, хотя в ней вертикальная синхронизация и отключено - ограничение остается.
@@Freevad "Как отключить вертикальную синхронизацию в UT и Unreal я так и не понял, в настройках драйвера такой возможности нет, а программа Riva Tuner Direct3D overrider ничего не меняет, хотя в ней вертикальная синхронизация и отключено - ограничение остается."
Начиная с 70-го (вроде как) ForceWare можно отключать принудительно вертикальную синхронизацию в приложениях. Я так делал, на Geforce 2 работало. Но есть ещё одна возможность - в Unreal.ini (Default.ini, UnrealTournament.ini) найти строчку [D3DDrv.D3DRenderDevice] и дописать в конце "UseVSync=True" и вертикальная синхронизация отключится. Именно "True"! Это глюк движка, который вылезает на картах Nvidia.
@@LightStormSun Спасибо, попробую.
Gf 4 Ti 4200 все-таки быстрей чем моя Fx5500 ( хоть она и разогнана производителем ). Заметил разницу, в зависимости от версии драйверов, которые стояли на видеокарту. Правда я и тестировал на вин ХР, а не на 98. На 2001 марке набралось порядка 5500 очков.
Серия FX вообще не очень получилась у nVIDIA, фактически переходный продукт между DX8 и DX9, поскольку DX9 там довольно ущербный получился.
Конечно был. Это как GeForce 4 MX (считай та же карта) на Ti поменять.
В HL2 на таких картах и проце надо играть на mat_dxlevel 60 или 70
Вы сняли бы lock fps в quake 3 arena, результат может быть выше в отдельных сценах
Возможно, но как по мне, с таким уровнем который есть игра идет максимально комфортно, больше - можно, но не обязательно.
@@Freevad верхний потолок кадров ,как мне кажется, тоже было бы интересно узнать
@@михаилсиляков-л2р с одной стороны - знать хотелось бы, с другой - все равно все уперлось в процессор, эту видеокарту на 100% раскачает что-то уровня Athlon 3200+\Pentium IV 3400.
@@Freevad это уже перебор, думаю P4 2.4 на 533 шине будет оптимально
@@massimodutti9514 Да, скорее всего так!
интересно
Спасибо!
А почему Цусл, а не Кусл? Ты же не говоришь Цоппермайн?
Вообще, "С" - это буква "Си", потому и "ЦУСЛА", правильно говорить "Си Ю Эс Эль - 2 Си" (CUSL-2C), но в тех краях где я жил именно так их назвали. На истинность этого названия по всей стране не претендую.)))
@@Freevad C - coppermine. T - tualatin. Или ты цоппермайн говоришь?
если сравнивать GeForce 2-й серии и 4-й, то корректнее было бы сравнивать GeForce 2 Ultra и GeForce 4 Ti4200. Тесты из журналов тех времён показывали, что в данном случае апгрейд был уже не очевиден. Если только вам очень нужны были шейдеры. Но в то время шейдеры поддерживали единичные игры. По этой же причине некорректно сравнивать попугаев в 3D Mark 2001, т.к. Ti4200 поддерживает шейдеры, а GeForce 2 нет. В данном случае нужно было в 3D Mark оставить включёнными только те тесты, которые аппаратно поддерживают обе видюхи.
С одной стороны, все вроде верно, в Quake III или Unreal по-настоящему большой разницы в результатах между названными картами не было, но с другой стороны, у меня нет GeForce 2 Ultra, поэтому протестировать я ее не мог, а синтетические тесты (даже если мы допустим мысль, что между программистами и производителями видеочипов был сговор) все же были предтечей того, что потом появились игры с поддержкой шейдеров. Тот же TES III. Если бы видеоигры ограничились лишь теми, что вышли к моменту появления GeForce, Вы были бы правы, но, поскольку игры выходили и продолжают выходить с поддержкой все новых технологий, то приходится сравнивать то, что есть, с тем что появилось. Как еще недавно сравнивали видеокарты AMD, не поддерживающие технологию трассировки лучей, с видеокартами nVIDIA серии RTX. И даже умудрялись заявлять, что "лучи" не очень то и нужны.)))
P.S. Спасибо за комментарий!
@@Freevad данное тестирование для игрока того времени должно было ответить на вопрос: имеет смысл апгрейдить весь ПК или достаточно купить только более современную видеокарточку. Т.е. в 2000-м году человек собрал себе почти топовый комп - Pentium III 1 GHz + GeForce 2 GTS. Прожил на нём 3 года, появились новые игры, и встал вопрос апгрейда. Так вот данное тестирование показывает, что при апгрейде только видеокарты прирост производительности несущественный. Игр, которые поддерживали шейдеры, были единицы и то, чтобы в них поиграть апгрейда только видеокарты было недостаточно. А в 3D Mark 2001 интереснее было бы увидеть сравнение т.н. чистой производительности видеокарт. GeForce 2 аппаратно не поддерживает часть тестов, поэтому ей за эти тесты не начисляются баллы, и результат заведомо будет не в её пользу, т.е. он вполне ожидаем. Поэтому в 3D Mark 2001 нужно было оставить только те тесты, которые поддерживаются обеими видеокартами.
@@bakla_zhan Я понял мысль, но мне в те времена, к примеру, очень хотелось посмотреть на 4-й тест 3DMark 2001, а без апгрейда видеокарты, хотя бы на GeForce 3 это было невозможно. Так что лично для меня апгрейд был оправдан, хотя сам я в те годы купил ATI Radeon 9600 Pro, а не GeForce 4 Ti.
У меня ti 4200 выдает около 10500 в 3DMark2001 на стандартных настройках. Процессор P4 3.2 Northwood
Спасибо за комментарий! 3DMark 2001 процессорозависимый тест. Так и должно быть.
Что то ни кто не тестит игру Omikron the nomad soul, а она как раз под такие системы. На тот момент Омикрон был просто шикарен и требовательный к пк.
Спасибо за комментарий. Я в те годы про эту игру даже и не слышал. Да и не только в те годы, о ее существовании от вас сегодня и узнал. Игру посмотрю, но не обещаю, что добавлю в следующее видео.
@@Freevad Посмотрите обязательно, по мне так это одна из лучших игр тех времен.
@@evgeniysimonov4668 договорились
Вопрос к знающему человеку: какой бы вы порекомендовали процессор в связку с radeon 9250 128 bit ? вот так что бы и не больше и не меньше.
Для этой видеокарты (она не поддерживает DirectX 9), в принципе, достаточно будет Pentium 3 на ядре Tualatin (1266-1400 МГц), либо AMD Athlon XP 1600+ и выше, либо Pentium IV на ядре Northwood от 2-х ГГц. Все зависит от того, насколько универсальную платформу хотите собрать и какую ОС будете использовать. Я бы предпочел Pentium III или Athlon XP, но гораздо проще будет найти Pentium IV.
@@Freevad celeron d320 2.4 ghz(oc 3 ghz)
radeon 9250
768 mb ddr1
win xp sp3 (какая то микро сборка весит 400 мб)
все это у меня на работе для cs 1.6 и других стареньких игр и фильмов,но мне сказали что процессор у меня кукуруза еще та,вот я думаю,на что его поменять и менять ли в общем.Мать кушает все до 800 шины.
@@Быдляцкий поставьте Pentium IV, лучше на ядре Northwood, старые игры под них оптимизировались, с тактовой частотой 2,8-3,4 ГГц и будет Вам счастье))). Celeron D очень сильно проигрывает Pentium IV. Но если все и так устраивает, оставьте как есть.
@@Freevad Спасибо за рекомендации.
Мне как зрителю очень любопытно смотреть противостояния ретро видеокарт,потому что в то время когда они были актуальны,я и мечтать не смел о подобном оборудовании.Это сейчас в системнике многоядерный процессор и видеокарта с 8 gb памяти на борту,только играть я предпочитаю в те игры о которых мечтал 20-15 лет назад,а на современный,конвейерный поток графонистых игр,как то время тратить жалко.
Все верно. Спасибо за комментарий.
Небольшая оговорочка к моменту 16:45 Как человек, который не раз проходил HL2 на разном железе могу сказать, что в главе "Водная преграда", где надо окончательно добить вертолет (уже в конце главы), вы не сможете этого сделать, ибо fps присядет настолько, что игра либо зависнет и уже не отвиснет (поможет только перезагрузка ПК), либо вылетит. Как раз на таком железе, как в видео, я и столкнулся с такой проблемой. Решается ещё бо́льшим понижением параметров графики (уже через консоль, через настройки будет мало) и запуском игры в оконном режиме.
Вполне вероятно, поскольку я эту игру первый раз проходил на Radeon 9600 Pro Athlon XP 1700+ (1466 MHz), тем не менее, сами написали, что с понижением настроек это получится.
Чушь собачья. Я эту игру проходил, начиная с Celeron Coppermine 850@1133 МГц с GF2 MX 400, и никогда не было проблем.
Ты скорее всего играл на dx7, а остальные не удосуживаются переключать на него вручную, отчего и получается низкий ФПС.
Странно, у меня на GF4Ti4200 и Athlon XP 3200 c DDR2 (мать на nForce2) HalfLife 2 шла на максималках без сглаживания с хорошим FPS. Видимо тут слабое место - SDRAM и проц.
Да, все в производительность процессора упирается. В официальных минимальных требованиях Half-Life 2 указан Pentum III 1,2 ГГц, а тут более слабый процессор. Athlon XP 3200+ - это по тем временам "зверь" был. У меня был разогнанный 2500+ до 3000+ (2167 МГц) + ATI Radeon 9600 Pro - все летало, (без сглаживания, на высоких и максимальных настройках).
не могла она у тебя идти на максималках, ибо игра уже дх9.0, такое могли фх и радеоны 9000
@@siniyden был патч под неё где шейдеры на дх8 переделаны
Athlon xp работал только с ddr1.
А чем вы делали захват видео?
AverMedia C127 (Game Broadcaster HD)
13:12 В процессор уперлось (как говорят, процессор не раскрывает видеокарту), UT99 и UT2004 очень процессорозависимые игры.
Замена шила - мылом ))
С одной стороны все уперлось в процессор, с другой: и картинка лучше, и скорость в старых играх выше, и новые хотя бы запускаются... Сам по себе Pentium III, как платформа, сохранял актуальность аккурат до выхода Half-Life2 и DoomIII, для этих игр уже лучше было использовать Athlon XP\Pentium IV и видеокарты с поддержкой DX-9, причем желательно от ATI.
ни хрена, если только мерить категориями как было раньше - запустилось или нет, а стабильнее на титане, да и то, может мощнее карту стоило еще к пню 3 ставить
я халфу 2 на туалатине 1100 и жирафе 2 мх 400 на 32 метра запускал и она была как то повеселее , но не сильно
Там в минимальных требованиях указано Pentium III 1,2 ГГц, работать оно работало, но тормозило. Я сам проходил эту игру на Athlon XP 1700+ (1466 МГц) и ATI Radeon 9600 Pro. Не скажу, что летало, но работало очень бодро по воспоминаниям того времени.
у вас глючная халва2, или какие-то кривые драйвера, на этой системе она не должна так тормозить, я в халву играл в момент её релиза на 1500 пне 4, и джифорс 2 мх 400, игра на таком конфиге летала! полуторный пень 4 по производительности не сильно отличался от вашего камня, а мх 400 даёт абсолютно играбельный фпс потому-что халва удаляет лишние объекты окружения из кадра что-бы обеспечивать нормальный фпс и разница титаниума 4 и мх 400 только в количестве объектов в кадре, ну и эффектов типа бампмаппинга которых нет у мх, фпс и там и там должен быть нормальный, вот у дума 3 например не было динамического отображения объектов в кадре, поэтому мх 400 его совсем не вывозил, а титаниум 4 не сказать что прямо летал, но бегал достаточно бодро
Спасибо за комментарий! У меня в юности Half-Life 1 тоже нормально работала на Pentium 100, а потом попробовал - оказалось все не так радужно. Тем не менее, у меня стоит однозначно не первый релиз игры и шейдеры она активно использует.
@@Freevad ну на 100 первая ХЛ впринципе не могла ни как работать совместимо со здравым смыслом, если даже на 166 MMX толком не работал, програмный рендер имею ввиду, когда первая вышла, ускорителей у нас ещё не было ) а вот вторая халява очень неплохо шла на мх400, но gts чуть ли не вдое её быстрее, так что тут проблем вообще не должно быть. Откапал селерон коперман 1000, и мать под него, но видео там рива ТНТ2 урезаная, вот на ней запускать дохлое дело, она даже мх400 слабее раза в два, а то и в три, будет карта посерьёзней, повторю тест
@@fineflare Half-Life 1 на Pentium 100 вполне работала, в окне в разрешении 320х240 даже смотрелась неплохо. Первые уровни вполне пройти можно было. Да в ней в принципе тормоза были когда до трехголового горыныча доходишь (Тентакл) и в мире Дзен. Хотя официально минимум с Pentium 133 МГц начинался.
@@Freevad с 3д ускорителем это да, он что называется выводил производительность на новый уровень ) но думаю ради любопытства надо будет протестировать хл1 с первым пнём, есть 120, правда ни какого ускорителя под pci нету чтобы сравнить с ним и без
@@fineflare Спасибо за комментарий! Будет интересный опыт.
HL2 всего лишь нужно было на английский текст переключить.
для 4ти процыка уже не хватает, ей хотяб тулик 1.4 нада, а так без -Боттлнека со стороны проца она где то в раене 8к выбивает в 2001 марке насколько помню))) а так я халфу на разогнаном дюроне 1.4 и радеоне 8500 проходил, на максималках кадров 20-25 было, хотя радик где то ракои же по производительности как ти 4200))
10500 3Dmark 2001SE
Холла боллла!!
+
Вот блин, для кого же эти заголовки с "интригующими" названиями?! Неужели для "ретроманьяков" 2000-х годов рождения? Отвечаю, даже НЕ посмотрев видео: конечно, буст был! А почему? Потому что, что весьма очевидно, GF4 довольно хорошо ушёл технологически от GF2 GTS.
Все верно, но процессор таки был уже слабоват. Нужно было хотя бы апгрейдиться на Tualatin 1266-1400. У меня тогда Athlon XP 1700+ был, хватало на все.
Хотя бы win 2000 поставили, не этот глючный win 98
Windows 98 довольно глючен, бесспорно, но это ОС с GUI с которой у многих все начиналось. Сначала был DOS, потом Windows 95, который многие пропустили, поскольку у многих на руках были 386-е, обновлять ПК начали в 1998-2003 годах, когда уже вышла Windows 98, которая интересней, чем Windows 95 и только поле 2003 года многие стали активно переходить на Windows XP. Windows 2000 не позиционировалась, как домашняя, хотя, с последними патчами, она как минимум не хуже Windows XP SP1. В общем, на мой взгляд, для ретро ПК Windows 98 - наше все))).
Одна херня. Размер видеопамяти и агп 8х чутка решает.