GF4 MX vs GF3 ti 200 with Pentium II 333 & Pentium III 750

Поділитися
Вставка
  • Опубліковано 28 жов 2024

КОМЕНТАРІ • 132

  • @GoFMidoPlay
    @GoFMidoPlay 2 роки тому +7

    В последнее время я хорошо прошерстил интернеты на предмет олдового технопорно. И контентика стало побольше. Каждый день по часику выходит, спасибо всем!

    • @BANNEDandRRoD
      @BANNEDandRRoD 2 роки тому +2

      кстати тоже заметил как ретро набирает обороты.

    • @TiKth
      @TiKth Рік тому

      @@BANNEDandRRoD Новое железо равно как и винда нисколько не радуют, тенденция к консолям и мобильным устройствам и в железе и в софте (интерфейс винды), в отличие от того периода - это был расцвет персоналок.

  • @voxxxytoyota6848
    @voxxxytoyota6848 2 роки тому +5

    2 и 3 Пень - это моё ностальгическое и голодное до МГц детство ! Эххх классное было время

    • @mango_z
      @mango_z 2 роки тому +3

      Голодное не только до МГц.

    • @voxxxytoyota6848
      @voxxxytoyota6848 2 роки тому +1

      @@mango_z Дааа

  • @андрейгатальский-ъ1ы

    почаще выпускайте видео ! интересно! GeForce 3 Ti 200 был когда то моей "мечтой" )))))
    титаник порвёт обрезок МХ как Тузик грелку!)))))

  • @supermario8416
    @supermario8416 2 роки тому +3

    The GF 4 MX 440 if more than enough for a P3 750 mhz. A faster card will be limited by the P3 750 mhz and show the same FPS as the GF 4 MX 440. Excellent video.

    • @Freevad
      @Freevad  2 роки тому +1

      I agree 100%, for a GeForce 4 MX 440 video card, a Pentium III 750-1000 processor is quite enough for games of that time. The leap in system requirements came in 2004 with the release of Half-Life2 and Doom III.

    • @РоманМедведев-з9д
      @РоманМедведев-з9д 2 роки тому

      @@Freevad Вам про фому, вы- про ерему. Который человек уже повторяет, что данный проц сдерживает видеокарту

  • @supermario8416
    @supermario8416 2 роки тому +4

    Nice to see another excellent video. At 34:47 when you look at the dark walls in Quake 2 you can see the bad 16-bit image of the nvidia cards. With a Voodoo 3/4/5 or Banshee with 22-bit filther enabled the same picture will be perfect with practically zero performance loss.

    • @Freevad
      @Freevad  2 роки тому +2

      Yes, I agree, in Quake 2 on Voodoo 3 the picture is better.

  • @nosignaldnb
    @nosignaldnb Рік тому

    капец кананальчик..автор ты золодце...смотрю вечером тебя вместо киношек..просто красавчик

    • @Freevad
      @Freevad  Рік тому

      Спасибо за комментарий! Приятно!

  • @noname-cp8ki
    @noname-cp8ki 2 роки тому +2

    У вас очень не обычные видео на канале, надеюсь не забросите...

    • @Freevad
      @Freevad  2 роки тому +1

      Спасибо за комментарий!

  • @Cybernet.channel
    @Cybernet.channel 2 роки тому +1

    не затягивай те а то что то давненько уже вас не было жду новый видос спасибо все интересно

  • @AxMav
    @AxMav Рік тому +1

    Была у меня GF3 ti 200 разгонял ее как мог. вполне неплохо справлялась :) До сих пор гдето валяется вместе с GF4 и иже подобными.

    • @Freevad
      @Freevad  Рік тому

      Спасибо за комментарий! GeForce 3ti 200 хорошая была видеокарта в свое время, если с современными видеокартами аналогию проводить, она была что-то типа RTX 2060 Super\2070 (эти поддерживают "лучи", та поддерживала "шейдеры" и в обоих случаях игр, где эти технологии используются "по взрослому" нет, а когда появились, видеокарты морально устарели). Впрочем, если верить новостям "Киберпанк" с лучами, ставит на колени даже RTX 4090, делая его неиграбельно тормозным по современным меркам (средний FPS меньше 60 кадров в секунду) уже в 2к разрешении. Выглядит все это "действо", как в свое время история с Half-Life 2, которая "превратила в тыкву" не только линейку видеокарт GeForce 4 ti, но и всю серию GeForce FX. Правда тогда ATI "была на коне", а сейчас все производители видеокарт в глубоком нокауте.

    • @AxMav
      @AxMav Рік тому +1

      @@Freevad Раньше было лучче. Прогресс был явно заметен. Лучики вместе с рт ядрами как по мне просто маркетинг. Заметного улучшения картинки я не вижу, а снижение производительности на лицо. Надо же как то горячие пирожки в виде 40ых и 50ых карт багрить, а еще и за дорого(очень дорого). У самого rtx3060ti.

    • @Freevad
      @Freevad  Рік тому

      @@AxMav Согласен, "лучи" делают картинку "правильней" с точки зрения освещения, но далеко не всегда красивей и за счет кратного падения производительности.

    • @AxMav
      @AxMav Рік тому +1

      @@Freevad Да лучи в целом не требуют никаких дополнительных ядер. Раньше были игры с лучами или подобной технологией. Например та же игра FEAR. з.ы. Маркетинг всюду. Надо продавать :)

    • @Freevad
      @Freevad  Рік тому +1

      @@AxMav Согласен. Вопрос не в столько в самой технологии, сколько в способе ее реализации на практике.

  • @strekalofficial2519
    @strekalofficial2519 11 місяців тому +1

    Mx 440 это жир для пня 3 😊 помню у меня в готовом системнике стоял mx440 128mb и celeron 2200, эхх нехватило у бати тогда на pentium 4 ht а собирать нерасбирались ,а купили готовый в formoza Москва.Но после 486 с 16 мб ОЗУ )) я на все каникулы зимние засел комп на нг подарили )

    • @Freevad
      @Freevad  11 місяців тому +1

      По тем временам неплохая сборка была, тянула все, кроме того, что уже без шейдеров не работало.

  • @stas_polessky
    @stas_polessky 2 роки тому +2

    Чуток медленноватый процик для этих видяшек, я помню у меня эти mx400 и mx440 были начиная с Celeron 1100Mhz. По сути и Geforce 2 mx и Geforce 4mx это Geforce 2

    • @Freevad
      @Freevad  2 роки тому +3

      Процессор - не самый быстрый, но тенденции на нем уже видны. А по видеокартам - архитектура у GF4-MX по отношению к GF4 ti устаревшая, как сейчас у GF GTX 1660 по отношению к RTX, но по производительности GF4MX440 быстрее практически в 2 раза, нежели GF2MX400.

    • @alexman6280
      @alexman6280 2 роки тому

      Полноценный geforce 2 имеет 4 пиксельных конвейера, в то время как мх400 и мх440 всего по 2шт. Четвёртый жираф может обойти полноценную двойку только за счёт высоких таковых частот gpu и памяти. Так что говорить, что МХы это geforce 2 некорректно. Geforce 4mx440 это скорее эволюция geforce 2mx400, но ни как не geforce 2 gts, pro, ti, ultra.

  • @ВячеславСафенин
    @ВячеславСафенин 2 роки тому +1

    За музыку Итана Микселла респект

  • @supermario8416
    @supermario8416 2 роки тому +3

    A suggestion for a video, if you think it is interesting enough for the viewers of your channel: 16 vs 32-bit performance and quality difference on the TNT1 / 2 or Geforce 256 / 2 cards.

  • @Moi_Gospodin1337
    @Moi_Gospodin1337 2 роки тому +2

    Впервые поиграл в Quake 2 тоже на Pentium II 333мгц, правда видяха была из разряда затычек 1997 года, поэтому игры работали нормально только в софтверном рендерринге, Ку2 ещë и фризила иногда, видимо когда в 64мб ОЗУ прогружались эффекты, звуки или части уровней.

    • @Freevad
      @Freevad  2 роки тому +1

      Скорее всего еще и звуковая была под ISA, у этих звуковых есть такой "прикол" в играх на движках id software, включая Half-Life. Возникает при подгрузке текстур (уровня). По факту не хватает ресурсов CPU, памяти может быть и 128 и 256 и 512 Mb, лечится установкой примерно 500 МГц процессора или заменой на PCI звуковую, причем драйверы нужны VXD.

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 роки тому +1

      @@Freevad вроде так и было, звуковуха была на ISA. Это был комп тëти и я открывал его всего раз, когда хотел поставить ей плату с доп портами USB (на материнке было всего 1 или 2 штуки) но Формоза обломала все мои планы, как я узнал уже намного позже они прошивкой биоса ограничивали самостоятельный апгрейд, ещë был вариант что блока питания хватало впритык чтобы стартануть ПК без плат расширения. Вобщем моë эникейство малолетнего школьника ей тогда не помогло и к юсб портам так и остался подключëн принтер, а от второго я провëл кабель удлинитель на стол для появившихся к середине 2000х флешек, а мышь так и оставались с переходником din-ps/2. Формоза к тому моменту сдулась, да и гарантия на ПК закончилась...

    • @Freevad
      @Freevad  2 роки тому

      @@Moi_Gospodin1337 Зачетные у них корпуса были))).

    • @mango_z
      @mango_z 2 роки тому +2

      Первую игру, которую я запустил на свое первом PC (до это были ZX-Spectrum), был как раз Quake 2, это был 1999 год, комп PIII-500/512kb Katmai и видеокарта S3 Trio 3D/2X 4mb, брал как затычку для дальнейшего апгрейда - друг прожужжал все уши с Voodoo II, поэтому нацелен был на Супер Монстер из двух Voodoo II (очень дорогое удовольствие на то время), но уже в том время эта конструкция себя изжила, были уже Voodoo 3 и TnT2. На S3 Trio 3D/2X тоже играл в софтверном режиме, на другом даже не запускалось:)) Играла вообще круто, да и думал, что по факту такая графика и должна быть:))все в цветных квадратиках, до этого даже и не играл вообще на PC, только на Amiga и ZX-Spectrum (приставки не считаю:)) Но потом решил сделать апгрейд, как раз вышла GF256, нацелен был на неё, но когда пошел в магазы, оказалось, что карта в прайсе есть, но это под заказ, а мне уже ехать надо было. Все магазы в нашем Мухосранске обежал, везде под заказ, но была одна в Ретаил упаковке:)) Это щас почти все Ретаил, школоте это не понять, а тогда это жуткий оверпрайс за коробку и пару игр без перевода:)), короче лишних 20% от цены не хотел тратить (бедный студент), в итоге решил брать Voodoo 3, уже пошел на кассу, но гарантия 2 недели (на ОЕМ почти всегда так давали, только в составе компа 1-2 года), ё-маё, отказался, побежал в другой магаз, Matrox G400 - пошёл на склад и гарантия тоже 2 недели:)) Хахахаха, короче сижу, думаю, поезд через 6 часов:)) ТнТ2 брать ну очень не хотелось почему-то, Ati Xpert 2000 темный лес, почему то мало где продавали у нас и продавцы/консультанты почти ничего толкового сказать про неё не могли, в основном говорили про Вуду и ТНТ2, так же и Savage 4 как неплохой бюджетный вариант. В итоге взял Savage 2000, вот тут я и увидел Quake 2 во всей красе:)) Ещё и Q3A демку с диска вообще улёт, а Сериус Сем вообще красота:)) С другом как-то тестировали и сравнивали с GF256SDR, в Q3 в 16 битном Savage 2000 сильно проигрывал, но плюс был в том, что 16 битный цвет с трудом можно было отличить от 32битного (только на темном фоне), тогда как на GF256 это бросалось в глаза, но вот в 32 битном цвете, уже Savage 2000 ненамного, но все равно опережал GF256, но это все Q3A, все же GF256SDR был лучше, разве что в UT и Q3A в 32битном цвете Savage 2000 лидировал. Если в 32битном цвете Savage2000 не сильно отставал от GF256SDR, то в 16ти отставание доходило до двух раз, но все же 16 битный цвет был в разы лучше, чем у GF256SDR. А потом игроделы забили на все карты, кроме Ati и nVidia, и играть приходилось с помощью твикалок, все ругали драйвера Savage 2000, но они были вполне стабильные, но для игр нужны были уже твикалки, включающие/отключающие те или иные фичи.

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 роки тому

      @@Freevad это да! У меня есть парочка и парочка эмблем отдельно))

  • @maxmadseeyouglad47
    @maxmadseeyouglad47 Рік тому +1

    Была ещё не такая частовстречающаяся как МХ 440 - МХ 460 - она была бы более достойным противником Тройке.

    • @Freevad
      @Freevad  11 місяців тому

      Спасибо за комментарий! Наверное - да, хотя разница между MX440 и MX460 не принципиальная по производительности.

  • @BANNEDandRRoD
    @BANNEDandRRoD 2 роки тому

    классный ролик! спасибо

  • @mango_z
    @mango_z 2 роки тому +4

    Странно про Морровинд, спокойно играл в него на Savage 2000 и Radeon LE, главное проц нормальный, с Pentium III 500/512kb (Katmai) шло как-то не очень, но играть можно, но с Celeron 900@1200MHz (Tualatin) все летало, но вода была обычная без прикрас, а вот с Radeon 8500LE вода уже была красившее и на производительность это не влияло. А если ещё и патчик врубить с Truform, то на Radeon 8500LE было вообще круто, круглое это круглое:))

    • @Freevad
      @Freevad  2 роки тому +1

      По воспоминаниям все так и есть, пока не решишь повторить опыт и не увидишь, что (после того, как привык к современному "хорошему") геймплей, скажем так, не такой плавный))). Но в целом, раньше так и играли и всех все устраивало, так как играли в игры, а не в графику.

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 роки тому +1

      Кстати я бы тоже не сказал что Морровинд у меня тормозил на geForce 3 ti, правда 128мб ОЗУ игре было мало, поставил 512 и реально кайфанул)

    • @mango_z
      @mango_z 2 роки тому +1

      @@Moi_Gospodin1337 да, ОЗУ там как раз не хватало, особенно для бесшовного геймплея:))

    • @mango_z
      @mango_z 2 роки тому +1

      @@Freevad ну как бы я в то время тоже играл в графику и FPS:)) Возможно, если сравнивать нынешнию графику и ту, то возможно и будет глаз резать:)). Но в Морровинд я очень долго играл, до 2008 года, но уже на ноутбуке с Turion 64 MT30 (1.6GHz/1Mb) с Xpress 200M, потребляющую оперативку. Этот ноут уже Oblivion не тянул:)), игра запускалась, но если мучаться, то играть можно:)), хотя Oblivion c тем же Туалатином и 8500LE вполне бодро бегал, главное ini файл подредактировать, там шейдеры уже какие-то не поддерживались и игра по умолчанию шла без текстур:)).

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 роки тому

      @@mango_z на 128 уменя в районе Вивека локации грузились дольше чем я их пробегал)

  • @DLarkov
    @DLarkov Рік тому +1

    Поздние китайские 4mx400 очень хорошо гнались через RivaTuner. Лично помню забивал в настройки частоты 5200 и все работало. Интересно было бы посмотреть, каков фактический ее прирост при разгоне и ЧТО она догоняет... Но похоже, этого рода контент придется "пилить" самому

    • @Freevad
      @Freevad  Рік тому +2

      Спасибо за комментарий! Для такого контента, как минимум, надо найти позднюю китайскую 4mx 400 (модель для меня неизвестна, поскольку были GeForce 4 MX 420, 440, 460 и была ещё MX 4000). А вообще на русских оверах статьи про разгон GeForce 4 MX присутствуют, результаты, если вкратце - круче любой GeForce 2, но отсутствие поддержки шейдерных технологий ставит на них крест, поскольку, к примеру, Silent Hill на них не запускается. В играх без шейдеров - мощь.

  • @РудаевЛеонид
    @РудаевЛеонид Рік тому +1

    Да, мечтал о Ти200.. самый бюджетный был вариант, дешевле обычной и Ти500. И мечтал я для игры - нет, не Морровинт, а какой-то из Сайлент Хиллов, скорее всего 4 (какой-то точно просил ДХ8 на момент релиза).
    МХ440 же невзлюбил на момент выхода тем, что НВидия как бы урезала функциональную возможность устройства: несмотря на то, что МХ440 вышел позже ГФ3 - что, как бы, следует из названия - вероятность получить сообщение о неподдерживаемости железом приложения была довольно-таки высока. Поскольку если в эпоху ГФ3 таких приложений было, может быть, и не очень много, но вот когда вышла 4-я серия - и, соответственно, МХ от 4-й серии - то уже вполне себе достаточно.
    А тестирование отличное - практически линейная масштабируемость получилась 👍

    • @Freevad
      @Freevad  Рік тому +1

      Спасибо за комментарий!

  • @михаилсиляков-л2р

    по частотам geforce 4 mx 440 почти наравне с geforce 3 ti 200, по поддерживаемым технологиями geforce 3 лучше geforce 4 mx 440

    • @Freevad
      @Freevad  Рік тому

      Да, в GeForce 3 полная поддержка DX8, а GeForce 4MX по факту поддерживает только DX7.

  • @BANNEDandRRoD
    @BANNEDandRRoD 2 роки тому

    второй раз пересмотрел и зацепила концовка.
    очень интересно было бы видео именно по чистому досу. осорбенно какие проблемы в каких играх и на каких видеокартах возможны и наглядно бы это все показать.

  • @kirillaristov7235
    @kirillaristov7235 9 місяців тому +1

    МХ440… как же я негодовал когда узнал что это чутка подкачанный GeForce 2 который даже directx 8 не мог…

    • @Freevad
      @Freevad  9 місяців тому

      Тем не менее он был заметно быстрее любой GeForce 2 и какие-никакие, но шейдеры поддерживал. В любом случае, конда шейдеры стали актуальны, ни 3-я, ни 4-я линейка видеокарт их не тянули. По факту выровнялось все только к 6-й линейке. Семейство GeForce FX тоже было ущербным, поскольку очень медленно работало с DX9.

  • @Techno_Dasha
    @Techno_Dasha Рік тому +1

    не хватает именно тех процессоров у которых кеш внешний который работает сильно медленнее частоты процессора(по факту на частоте шины) Р3 ЕБ и амд тхнундерберд уже кэш L2 на проце)

    • @Freevad
      @Freevad  Рік тому

      Спасибо за комментарий! Что есть, то есть.

  • @infinityretro6910
    @infinityretro6910 2 роки тому +1

    почему нельзя разделить экран на три и на каждом выводить изображение с процом и картой а не повторятся?

    • @Freevad
      @Freevad  2 роки тому +1

      Такой вариант сравнения подходит для встроенных тестов, а я использовал, в основном, FRAPS. Кроме того, три одновременно идущие картинки смотреть не удобно, лучше когда их две. Тем не менее, можно было сделать и так, подрезав и синхронизировав видео, но в этот раз я решил повториться три раза. Как один из вариантов подачи материала.

  • @михаилсиляков-л2р

    pentium 2 233 мгц на pentium 3 1000(750) не шило на мыло?

    • @Freevad
      @Freevad  Рік тому

      Смотря как на это смотреть, все относительно, в производительности разница больше чем в два раза, но да, есть и более быстрые ЦП.

  • @РоманЕвгеньевич-э9ю

    Так то обоих процессоров недостаточно для этих карт. К ним подходит что-то вроде Athlon 2000+

    • @Freevad
      @Freevad  2 роки тому

      Да, недостаточно, но с другой стороны и Athlon`у 2000 желательно в комплект не GF3, ATI Radeon 9800XT или GF6800. В общем "нет жизне щастя")))

    • @AnD_RoM
      @AnD_RoM 2 роки тому +1

      @@Freevad думаю атлону за глаза и 9600pro будет.

    • @Freevad
      @Freevad  2 роки тому

      @@AnD_RoM нет, маловато будет, AMD Athlon 2000+ - неплохой процессор, в играх на уровне Pentium IV 2100-2200 MHz. Избыточной для него будет топовая линейка седьмой серии nVIDIA. Но, к примеру, Half-Life 2 и Doom III (исходные версии) он тянет на 5-ку. В свое время, как раз прошел обе игры на AMD Athlon 1700+ (1,46 ГГц) и ATI Radeon 9600 Pro. В Half-Life 2 проблем не было вообще (по воспоминаниям), настройки были средне-высокие, в Doom III пришлось отключить тени, плюс были у меня тогда старые драйверы (не поддерживающие Doom III), игра зависала через каждые 2-3 минуты, поэтому приходилось очень часто сохраняться. Но таки прошел, хотя и с проседаниями FPS иногда до 24+ кадров (субъективно), включая финального босса.

    • @РоманМедведев-з9д
      @РоманМедведев-з9д 2 роки тому

      @@Freevad Жирновато такие ставить, уровень карт 9800 может быть оправдан для очень высоких разрешений 1600х1200 и/или сглаживания. Более мощная 6800 так вообще за гранью...моего понимания)

    • @Freevad
      @Freevad  2 роки тому

      @@РоманМедведев-з9д Семитысячная версия видеокарт nVIDIA аккурат вышла к первым двухъядерникам, а до этого были Pentium IV 3200, Athlon XP 3200+ и первые Athlon 64 (3000-3200+) и на них и тестировали шеститысячную серию. Безусловно, Athlon 64 3200+ в играх быстрее, чем AMD Athlon 2000+, но не в 2 раза. Да, этот процессор не выжмет из 6800 все FPS, но и простаивать она, как с чем-то уровня Pentium III 1000 не будет. И Far Cry будет хорошо идти, и Doom III, и Half-Life 2 и прочие игры того времени (Unreal II, например) с приемлемым (для того времени) FPS в 50-70+ кадров в секунду, с падением до 25-30 в отдельных сценах. А то, что для ATI Radeon 9800 лучше поставить Athlon 3000+ тоже спорить не стану, оно ей, однозначно, не помешает))).

  • @docent27ua
    @docent27ua Рік тому +1

    GeForce 3 ti 200 так и осталась моей несбывшейся мечтой.

    • @Freevad
      @Freevad  Рік тому

      Купите сейчас, хотя на сегодня ti4200 смотрится интересней.

    • @Kozlomordii
      @Kozlomordii Рік тому +1

      В те времена я черпал информацию с журнала "железо" выкатили там красавицу джифорсину 3 ti 500 и я перестал спать ночами. Таки мечта быстро сбылась, на смену риве тнт 2 с селероном 466 это была бомба! Даже очки виртуальные были для стерео картинок. Но вышла джифорсина 4.... хорошие времена были

    • @Freevad
      @Freevad  Рік тому +1

      @@Kozlomordii в те времена прогресс был реально заметен, разница между поколениями видеокарт впечатляла, сейчас, по большому счету (если не говорить о технологии RT, которая давным давно в киноиндустрии используется, а в современных играх пока еще фактически делает первые шаги) растет только максимально поддерживаемое разрешение "картинки", от FullHD к 4k, последние же новости и про разрешение в 8k говорят. Для меня лично, на сегодня, даже 4k избыточным кажется из-за физических размеров мониторов, хотя привыкаешь, конечно, ко всему, но себе ближайшие годы приобретать монитор 4k не планирую, если и решусь сменить уже "немолодой" 24" 1920х1200, то возьму 27" 2560x1440. И то, по большому счету по причине того, что современные OS под такое разрешение по умолчанию настраиваются - калькулятор на половину экрана в 1920х1080 смотрится с одной стороны потешно, с другой - неряшливо.

  • @РоманМедведев-з9д
    @РоманМедведев-з9д 2 роки тому +1

    MX 440 -8x отличается от оригинальной видеокарты также увеличившимися тактовыми частотами.
    Слишком слабый проц, вкупе с устаревшими на тот момент времени(01/02+год)играми, приводит к неверному выводу о равноценности карт.
    Про Serious Sam: The First Encounter не скажу- не прогонял лично, в Second Encounter разница заметная. Кажется, я уже писал ранее, в данных играх есть встроенный тест измерения фпс, записывающий к тому же логи минимального/среднего/макс значения, не отнимающий и без того дефицитные ресурсы системы. Призываю отказываться от фрапса там где это возможно.
    Повторный запуск анрила вернет отражения
    Для информации: Pentium 3 1000 с GeForce3 на intel i815 в 01 марке выбивает 5000 баллов
    PS проц п3 1000 -классный, дорого обошелся?

  • @abelyarlindsey8386
    @abelyarlindsey8386 Рік тому +2

    кроме попугая ничего не слышно. ужасный звук

  • @kombinator87
    @kombinator87 2 роки тому

    тестить старое железо можно очень долго) Вот бы увидеть тест атлона 3200+ на нфорсе2, на виа кт400 и на сис.

    • @Freevad
      @Freevad  2 роки тому +1

      Нет на руках такого железа, кроме того KT-400 нативно процессорную шину 200 МГц не поддерживает (память такую держит в асинхроне), это надо уже KT-600 искать. С точки зрения современной ретросборки - VIA предпочтительнее, она хотя и медленнее двухканальных nForce, но стабильнее и меньше греется, а с SiS (по личному опыту, была K7S5A) меньше всего проблем в плане совместимости с другим железом, хотя SiS обычно еще медленнее VIA.

    • @kombinator87
      @kombinator87 2 роки тому +2

      @@Freevad глючность нфорса зависит от производителя. Например моя эпокс 8rda очень не любит видюхи серии ати 9600. Хотя на другой матери на нфорсе2 они работают без проблем

    • @Freevad
      @Freevad  2 роки тому +1

      @@kombinator87 Возможно, по себе (в свое время)- материнская плата от Asus на nForce для socket A слетел BIOS, от epox под 754 - просто сдохла.

  • @Алексей-э1ч4п
    @Алексей-э1ч4п 2 роки тому +1

    фигасе на слоте радиатор))

    • @Freevad
      @Freevad  2 роки тому

      Это со слотового AMD Athlon к которому нет живой материнской платы.)))

    • @Алексей-э1ч4п
      @Алексей-э1ч4п 2 роки тому

      @@Freevad понятно)никогда такой не видел)

  • @YM2149F
    @YM2149F 2 роки тому

    А что за проблемы GeForce FX в MS-DOS?

    • @Freevad
      @Freevad  2 роки тому +1

      Есть целая табличка с проблемами, ссылка будет ниже. В целом, смотря какая FX, если FX-5200 (еще и производитель важен), то у нее те же проблемы, что и у MX 440, но начиная с 5-й серии nVIDIA, как впрочем и ATI с 9000-й серии, перестала заморачиваться с поддержкой VBE version 3 (in video BIOS). Будут ли "глюки" в интересующих именно Вас играх или нет - вопрос, но предупредить я должен.
      gona.mactar.hu/DOS_TESTS/

    • @YM2149F
      @YM2149F 2 роки тому

      @@Freevad FX5600XT в MS-DOS как апскейлер DVI работает, одна 1280х1024 в захват выдает, а другая 1920х1080.

    • @Freevad
      @Freevad  2 роки тому

      @@YM2149F У меня FX5600 нет и не было, сказать о ней ничего не могу. Но в целом, при наличии DVI, проще с подключением к относительно современным ЖК мониторам. Хотя, для игр того времени лучше всего подходит качественный ЭЛТ монитор, который, увы, занимает много места.

  • @михаилсиляков-л2р

    я ,вообще, не понимаю смысла тестировать видеокарты с упором в процессор

    • @Freevad
      @Freevad  Рік тому +1

      В данном случае тестировались не видеокарты, как таковые, а вариант сборки ретро-ПК. На ретро ПК быстрый процессор не всегда благо.

  • @ЕвгенийДавидович-п5д

    Все таки P3-750 слабоват для Ti200 и mx440. Во времена актуальности этих карточек народ сидел на народных Athlon XP, которые были вдвое-втрое производительнее. Помню на Ti200+AMD 1700+ отлично шел NFS Underground и поддержка шейдеров была очень к месту.

    • @Freevad
      @Freevad  2 роки тому +1

      Так и есть, хотя для Athlon XP все же уже лучше уже установить GeForce 4ti\Radeon 9600-9800 Pro.

    • @maxmadseeyouglad47
      @maxmadseeyouglad47 Рік тому

      У меня Андеграунд вполне тогда бодро шëл на Атлон ХР 2000+ 512 RAM и Radeon 9250 128 mb, НО карта была низкопрофильная, то есть 64 битный обрубок, который был ещё слабее МХ 440.
      Сама игра правда при выставлении выше средних настроек начинала резко терять кадры и становиться малоиграбельной.

  • @Vekkill
    @Vekkill Рік тому +1

    Попугай наверное `попугаев` в играх считал :)
    Тот что на заднем фоне

    • @Freevad
      @Freevad  Рік тому +1

      Спасибо за комментарий! Не исключено)))

  • @FalconakaSkyranger
    @FalconakaSkyranger Рік тому

    Интересно стало насколько тождественна производительность GF3 и графического чипа X-box

    • @Freevad
      @Freevad  Рік тому +1

      Доброго дня! Не было возможности отвечать в yotube. Чип Xbox с одной стороны более продвинутый, насколько помню, с другой он рассчитан на использование с телевизорами того времени (стандартный NTSC телевизионный сигнал содержит 525 строк (видимый растр 486 строк). Стандартный PAL телевизионный сигнал содержит 625 строк (видимый растр 575 строк). В целом, думаю, его производительность что-то между GF3 ti 500 и GF4 ti 4200.

    • @FalconakaSkyranger
      @FalconakaSkyranger Рік тому

      @@Freevad Спасибо за ответ. А за счёт чего он производительнее? Архитектурные изменения или частоты повыше?

    • @Freevad
      @Freevad  Рік тому

      @@FalconakaSkyranger Если он - это Pentium IV - то тактовые частоты и оптимизация (компилятор от Intel в те годы стандартом был (применялся по умолчанию разработчиками) и учитывал особенности NetBurst`а).

    • @FalconakaSkyranger
      @FalconakaSkyranger Рік тому +1

      @@Freevad я немного запутался. Графический чип учитывал особенности NetBurst? Я имел ввиду чип X-box, а там, насколько я помню, был третепень))

    • @Freevad
      @Freevad  Рік тому +1

      @@FalconakaSkyranger это я запутался, так как отвечал подряд на несколько сообщений))) Графический чип nVIDIA разрабатывала с учетом пожеланий Microsoft (и, видимо, вредничала, раз сейчас фактически все консоли на базе AMD), чип работал на тактовой частоте 250 МГц (GF3ti 500 - 240 МГц), архитектура чипа дорабатывалась с учетом имеющихся наработок поколения GF4ti. Что там конкретно - сказать не могу, но Microsoft анонсировала следующие характеристики:
      - Производительность графической системы: 125 миллионов нетекстурированных полигонов в секунду.
      - Sustained Polygon Performance: 100+ M/s (transformed and lit polygons per second).
      - Micropolygons/particles per second: 125 M/s.
      - Particle Performance: 125 M/s.
      - Одновременных текстур: 4.
      - Пиксельный Fill Rate - без текстур: 4 миллиарда/сек (с Anti-aliasing).
      - Пиксельный Fill Rate - с 1 текстурой: 4 миллиарда/сек (с Anti-aliasing).

  • @strekalofficial2519
    @strekalofficial2519 11 місяців тому +1

    Проц невывозит

    • @Freevad
      @Freevad  11 місяців тому +1

      Спасибо за комментарий! Естественно не вывозит, для нее вдвое производительней, чем Pentium III 750 MHz желательно.

  • @Moi_Gospodin1337
    @Moi_Gospodin1337 2 роки тому +5

    Блин, попугая надо перемещать в другое помещение на время съёмок...

    • @Алексей-э1ч4п
      @Алексей-э1ч4п 2 роки тому +3

      попугай как раз в тему,ведь речь идет о производительности видюхи.))

    • @Freevad
      @Freevad  2 роки тому

      Совершенно верно, а кошку в третье, от которой попугая ко мне и переселили)))

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 роки тому +1

      @@Алексей-э1ч4п пхах, +1 попугай к производительности видюхи))

    • @mango_z
      @mango_z 2 роки тому +8

      @@Freevad попугая убрать, а кошку в кадр. Ведь давно известно, что кошка в кадре это +100500 к просмотрам и развитию канала:))

  • @alexman6280
    @alexman6280 2 роки тому +3

    Кеша пернатый на мозги давит, накрывай пледом его, когда видео записываешь)

  • @Arkan1986
    @Arkan1986 2 роки тому +4

    Я очень люблю и ценю твой контент, спасибо тебе за твои труды! НО. Это видео невозможно смотреть из-за запредельно громкого чириканья твоих попугаев.

    • @Freevad
      @Freevad  2 роки тому +1

      Учту, ответил выше. По ходу придется разориться на кардиоидный микрофон, это будет проще.

    • @paulzibert9985
      @paulzibert9985 2 роки тому +1

      @@Freevad а мне наоборот понравились попугаи. Ностальгия. В детстве был у меня, также чирикал.

    • @Freevad
      @Freevad  2 роки тому

      @@paulzibert9985 Спасибо за комментарий! Здесь, думаю, зависит от того, на чем смотришь видео. На смартфоне они мешают, а на ПК в наушниках - просто, как дополнительный фон.

  • @voxxxytoyota6848
    @voxxxytoyota6848 2 роки тому +2

    Попугай задолбал чирикать. Выключай его

  • @exl13
    @exl13 2 роки тому +1

    у меня вопрос к владельцам попугаев. каким образом вы все еще не свернули им шею?

    • @Freevad
      @Freevad  2 роки тому +1

      Даже в каменных джунглях надо быть ближе к природе)))

    • @exl13
      @exl13 2 роки тому

      @@Freevad жуть как они громко и пронзительно чирикают) я чувствую моя кошка мяукающая три раза в 6 утра не самое большое неудобство))

    • @Freevad
      @Freevad  2 роки тому +2

      @@exl13 Лично мне птичий щебет обычно совершенно не мешает спать, как и пролетающие сверху самолеты (жил в детстве несколько лет недалеко от аэропорта, лающие собаки и прочее). Главное - спать хотеть. А кошки - те, если поесть хотят, целенаправленно будят - лапами, когтями, прыжками сверху или иным способом. Так что кошки более неудобны для утреннего сна))).

    • @РоманЕвгеньевич-э9ю
      @РоманЕвгеньевич-э9ю 2 роки тому

      @@exl13 Все летающие птицы очень громкие. Это потому что им необходимо общаться на больших расстояниях в лесу. Прежде чем заводить нужно это учитывать.

    • @exl13
      @exl13 2 роки тому

      @@РоманЕвгеньевич-э9ю согласен, у друзей тоже раньше был попугай, это ппц) пока его не занавесишь мог кричать так что пломбы из зубов выскакивают) все же не лучший выбор для домашних животных, или для людей с очень спокойными нервами. Я кошек и муравьев предпочитаю, и те и те тихие)