ага очередной спасибкин нарисовался. Весь его, так называемый, контент без конкурентов, можно уместить в 30 секунд игровых тестов. Остальное вода и фривольные рассуждения, имеющие мало общего с реальностью.
Уважаемый Сергей, хочу вам рассказать что в программе MSI Afterburner, есть датчик мониторинга под названием "Загрузка контролера шины" этот датчик я назвал PCI-E, то есть если видеопамять перегружена данными то этот датчик показывает выгрузку данных по шине PCI-E в ОЗУ, плохо одно, он показывает в процентах, но понять что данные идут в ОЗУ, можно! Я этот датчик уже года 2-2,5 использую, советую в будущих тестах так же его использовать!
@@makc975да большинство обзорщиков даже не понимают, что они обозревают, и что означают те цифры, которые они зачитывают. Тут хоть нормально объяснено.
@@gijduvon6379 ну я месяц назад пробовал обучать нейросеть на подмену моего лица в прямом эфире через вебку на любое другое лицо (на то, на которое проводил обучение нейросети). Обучение происходило на видеокарте nvidia. Для обучения нужна была именно видюха нвидиа с cuda-ядрами. Когда изучал матчасть, на каждое новое открытие возникало еще три белых пятна. Потом попалось отно видео про видеокарты. Потом еще одно. Ну и потом заинтересовался, как оно работает, почему именно эта видюха, а не другая, подходят для обучения, как устроены видеокарты в принципе. Скорость работы, что влияет и пр.
Какое глубокое видео! Смотрел обзоры иностранных топов, но ни на одном не видел такого последовательного и грамотного разбора этой темы. Спасибо за то, что вы есть =)
Разбор - херня, потому что он тестировал ВСЕ видеокарты на PCI express 4.0, а большинство сидит на материнских платах с PCI express 3.0. Например на соките 1151. У меня например I9-9900к, а это процессор всего четырех летней давности. И в старых системах нет поддержки PCI 4.0, а значит при урезанной в двое шине и 8 линиях PCI и при одинаковой версии PCI, пропускная способность будет разной. Его разбор актуален для новой сборки, а не апгрейда старой! Следовательно для большинства людей он просто вредительский. Человек купит новую видюху от АМД для старой системы и банально потеряет в производительности 30%!
@@mr_darian ничего он не потеряет в производительности. ты тестировал одну и туже видеокарту на gen3 и на gen 4? 1080ti великолепно справляются с ААА играми на своем gen 3. и сокет у твоего проца 1151 v2. топовый интел. вроде 24 линии. вы путаете пропуск и построение кадров с вычислениями. но согласен, тест ААА и киберспорта неверный.
@@mr_darian.... Вам бы, сударь, освоить написание слов *сокИт и в двое* вначале, а уж после в "калашный ряд" подаваться, рассуждая о технических вопросах!
Какие же вы лучшие. Слов не хватает описать всю мою благодарность к вашему великолепнейшему контенту. Музыка, речь, голос, цвета, переходы, графики, подробности - шикарно.
@@TGRTGRу информатика разная, то что сейчас, и то что к примеру было раньше, например в регионах, когда я учился стояли аналоги 1го пенька, а сейчас блин 15летним задают задания связанные с питоном🙃
@@Kurt12345хз,у нас всё время была какая то срань,по типу текстовых задач,задач на движение,всякие с числами.Вообще никак не связанная с программированием.На одном из первых уроков в году максимально кратко объяснили устройство пк и всё.
Спасибо за видео! Очень наглядно и подробно, проделана колоссальная работа. На 08:18, 11:47 на графике отметка показателя пропускной способности "272" у 4060 ниже чем "228". 11:53 У 4060Ti и 4060 в пояснении указан кеш L2 32 и 2 Гб соответственно, хотя в реальности он измеряется в Мб. Зоркий Глаз.
тоже заметил, но в случае с ПСП там просто ошибка на цифру, не 228 а 288, а так порядок верный, а еще в конце сказано 4060 будет производительнее 3060ти, думаю имелась ввиду все же 4060ти, но в целом за такой объемный ролик нестрашно)
@@4ikipok по сути, Ti даёт прирост около 15% к обычной. Но и 4 дала примерно такой же прирост и даже больше. Поэтому вполне логично, чтобы 4060 была на уровне 3070Ti или выше. 4070Ti обходит 3090Ti (не говоря уже о 3080), чего никто не ожидал.
@@warchoon1 нет не логично, по железу никак 4060 не будет эквивалентна 3070Ti, может быть только 4060Ti по ровняется с 3070, в целом стабильность на 3070 всех моделей гораздо выше за счёт более широкого железа. Это всё равно, что объём двигателя, если поставить турбину на 1.5, это не даст тебе мощности, как у автомобиля в 3 литра
Спасибо за видео, очень большая работа проделана. по результатам тестов мне лично за Интел было интересно и кое-где неожиданно. Отдельно интересно было посмотреть на график цен и "цена за кадр" :)
Ух молодцы, расписали всё что могли. Такие тесты реальней показывают производительность видеокарт. Теперь с такой путаницей нужно опираться только на ваши тесты либо играть (работать) на том что есть и с теми скоростями что есть то есть попал в промежуток 35-60 FPS и большего счастья и желать не нужно. Это я к тому что такие крутые разборы как у вас сделать врядли кто сможет и за это вам огромное спасибо. Но и ваши разборы смогут осилить посмотреть либо полные гики либо специалисты, простым же игрокам такие тесты даже в просмотре сложно осилить из-за сложности терминологии да и длинны технической информации. На последок скажу что ваше видео самое лучшее что я смотрел за последнее время в интернете (технические видео всегда лучшие чем котики-синтетические тесты) и оно конечно же найдёт своего зрителя для которого вы и делаете такой контент из-за отсутствия такового на Российском сегменте видеороликов о компьютерной технике. Скажу так что это видео я не раз буду пересматривать при выборе видеокарт себе и кому-то из друзей так как зафиксировать всё информацию в мозге не так просто, а тут пересмотрел - освежил - выбрал. Огромное спасибо за такое ещё раз скажу полезное видео. И соглашусь с мением Дмитрия Бочило что интернет был лучше когда только появился и в нем сидели технические специалисты. Я уверен что интернет нужно разделить на технический и развлекательный (хотя это пока сложный и долгий диалог если его коснуться здесь по этому делать я это не буду). Ещё раз спасибо.
ощущение, будто половину комментариев под этим видео, проплачены и боты просто спамят положительные сообщения. Никого ничего не интересует, нет никакой своей точки зрения у людей или каким то аналитическим разбором этого видео. Типичные " Спасибо, все круто и разборчиво, доходчиво, разжевано, топ круто, классно, ого! "
Ребят, вы как и всегда на высоте!👍 Огромное Вам спасибо за проделанную работу. Все четко и понятно, что покупать и зачем. Огромной Вам удачи и до следующих роликов!😉
Лаконично. Наглядно. Профессионально. Браво! Я считаю это видео хорошим примером профессионального подхода. Очень понравилось как вы подошли к данному вопросу основательно и многосторонне. От меня подписка)
Не скажу что смотрю каждый ролик с канала, но вот располагаете вы к себе зрителя. Умеете так построить изложение, что усваивается хорошоинформация, даже если не глубокий специалист в области. Спасибо, очень интересно
Как всегда очень грамотный подход, без соплей, слюней и матерных возгласов ради хейта, как делают многие блоггеры! Спасибо за огромную работу над таким исследованием 👍
Разбор - херня, потому что он тестировал ВСЕ видеокарты на PCI express 4.0, а большинство сидит на материнских платах с PCI express 3.0. Например на соките 1151. У меня например I9-9900к, а это процессор всего четырех летней давности. И в старых системах нет поддержки 4.0, а значит при урезанной в двое шине пропускная способность при одинаковой линии PCI будет разной. Разбор выше актуален для новой сборки, а не апгрейда старой! Следовательно для большинства людей он просто вредительский. Человек купит новую видюху от АМД для старой системы и банально потеряет в производительности 30%!
@@mr_darianне забываем, что старая сборка это скорее всего FHD монитор, а для такого разрешения любая видеокарта из обзора избыточна. И покупая новую модную карту за 40к стоит выложить ещё столько же за 4к моник
Интересная дилемма. Оптимизация игр под такие конструкторские решения может зарешать. А потом компания сможет вам снова продать широкую шину по новой 🤷♂️
@@Spectre4490WarTales - нормальная оптимизация (ничего не лагает и не тормозит), а вышла она в 2023 году. Так что, если Вы лично не встречали игры с нормальной оптимизацией (про атомное сердце даже вспоминать не буду), то это не значит, что их нет.
6700 xt выглядит очень вкусно, по цене и производительности на фоне данных карточек, странно что ее не было в тесте. Понимаю что видео про шины, спасибо интересное видео
Жаль, что в тестах не было RX 6700 XT - она очень даже конкурент как по производительности, так и по цене всем картам из обзора. И из всего списка сейчас это отличный вариант в качестве апгрейда с какой-нибудь старой видеокарты или для сборки нового ПК. При этом весьма хорошо сбалансирована как производительность чипа (+15-35%) от уровня RX 6600 XT/ RTX 3060, так и подсистема памяти (12 ГБ / 192 бит). Шина PCI x16 порадует владельцев старых платформ без поддержки PCI-E 4. Ждём выхода RX 7700 (XT) если он, конечно, вообще произойдёт.
В апреле обновился до неё с rx560, взял за 38к версию сапфир пульс (ревизия 09-20g с 5 теплотрубками), очень радуют температуры в 60-62 по чипу и 70-72 по хотспоту. Выбор пал на неё из-за того что камень i5-10400f с pcie 3.0, поэтому брать 6650 хт с 8х линиями было не выгодно, а у 6700(без хт) были вопросы по охлаждению
@@Akuma_Z я брал Saphire Nitro+ 6700xt. Она пожирнее обычной пульсы. Интереснее температуры были. 55-62 по чипу, и ... 78-100!!!! по хотспоту. Ладно, по хотспоту немного наплел, амдшный биос держит на всех 6000 рыксах её на уровне 80-85 градусов по умолчанию, чтобы добиться 100 - прямо по жесткому грузил чип, и это близко не игровая нагрузка. А так, если есть желание, нитры гонятся до уровня 6750. Сейчас только что выменял, и перепрыгнул на 6800xt. У меня 1440p монитор, и фпс куда бодрее стал (+30-40% на вскидку при тех же настройках в тех же играх) Ps: брал в августе 22 за 37, отдал с крокодильими слезами за 24 буквально позавчера...
Самая популярная видеокарта на сегодняшний день по данным Steam это GTX 1650... Доступность по цене и возможность играть практически во все игры в FHD все-таки превалирует над эпическими 8к, не нужной трассировкой и прочими свистелками и перделками, которые Nvidia пытается нам всучить. А слово "оптимизация" давно пропало из словаря создателей видеоигр.
@@wayfare86 странно они на сегодня все тянут и по цене я думаю доступнее, ну ясное дело что увы не 20ки так как видимо тут играет фактор давности покупки игроком видео карты ну а Ясное дело что пред поколение будет больше
В прошлый раз высказал и свою притензию к токсичности, а теперь от всей души благодарю за крайне полезную информацию, тк помогаю собирать системник для работы и эта проблема с видеокартами нормально так была занозой
Хотел бы оставить свою дополняющую рецензию к видео. Кстати спасибо автору за познавательное видео и ваш труд. Всё было круто, но в одном моменте я с автором не согласен. А именно про якобы несоответствия мощности чипа объёму памяти в видеокартах. Я буду ратовать за объем видеопамяти! Я считаю что объем видеопамяти тащит, и в перспективе рвет карты с более мощным чипом но меньшей памятью. Если для вас Видеокарта - это расходник, и вы готовы менять видеокарту каждые год-два - вопросов нет, тогда автор прав. Но таким людям до одного места есть ли у видюхи перекос по объему памяти или мощности чипа. Они покупают то, что всё тянет и через год два делает тоже самое не парясь по таким мелочам. А вот для тех, кто обновляется редко ( а по статистике Стима это 70-80 % всех ПК геймеров). Тот кто живет на одной видеокарте минимум по 4 года, а чаще по 6, 8 или даже 10 лет как раз наоборот, скорее нужно искать видеокарту в перекосом в сторону большей видеопамяти т.к. со временем она уделает более мощные по GPU модели. Если к примеру взять знаменитую и народно любимую карту 1060 на 3gb и на 6gb, то в момент выхода эти доп 3gb были излишком, ненужной переплатой и, как выразился автор данного ролика "перекосом" в сторону объема видеопамяти. И где сейчас эта 1060 на 3GB ? Ответ - на помойке и в архивах истории. А 1060 на 6GB до сих пор жива и на 3ем месте по данным STEAM об оборудовании и ПО пользователей на Июль 2023. А почему? Потому что объём и скорость, (а также пропускная способность) видеопамяти отвечает за те настройки графики, которые делают 70% всей графики в игре!!! Текстуры и тени, шейдеры. Процессор в большей степени отвечает за дальность прорисовки, обработку динамических объектов типа NPC и разного рода частиц. В итоге на одной видео карте с хорошим объемом видеопамяти и хорошим процессором (который стоит в разы дешевле видеокарты) при грамотной оптимизации настроек графики в играх можно долгие годы играть в игры на средненькой видеокарте с приемлемым FPS и красивой картинкой. А вот видюхи типа 3070TI (с обратным перекосом в сторону мощного GPU) с крутым чипом и 8gb памяти скоро уйдут на помойку и будут глотать пыль у той же 3060 на 12gb. Я уже читал на реддите отзывы ребят, где 3060 на 12GB давало больше FPS чем 3060ti в таких играх как The last of us и больше фпс чем 3070ti в Witcher 3 next gen с трассировкой. Т.к. в некоторых играх 3070ti уже сейчас тупо уже не хватает объема памяти. А с современной тенденцией оптимизации игр надеется на то, что дальше будет лучше не приходится. Скорее ещё больше забить на оптимизацию сказав, включайте DLSS 3,0 пусть он вам рисует кадры в нашем куске говнокода, который мы называем игрой. (я не шучу, именно так ответили разрабы Remnant 2 на претензии игроков о том, что их игра кусок неоптимизированного говнокода). p.s. Именно поэтому я взял себе 3060 на 12GB, а не 3060TI которая на ультра настройках пока что выдает на 15-20% больше ФПС. Но это пока, вот увидите. А тестить игры на предустановленных песетах графики типа "очень высоко" или "ультра" в 2к23 - это бред. т.к. в современных играх на ПК количество ползунков с настройками графики уже исчисляется десятками и часть из них не даёт практически никаких улучшений, но съедает треть, и то и половину ФПС. А при грамотной настройке этих ползунков получить хорошую картинку и ФПС при недостатке видеопамяти очень сложно. А вот при слабоватом GPU ещё как можно! Проверено лично в десятках игр!
Согласен, компенсируют то однии то другим, а по факту жмут яйца все сильней и сильней. 1060 6г по истине уникальна и хочется аналог, который не придется через год разменивать как очередной айфон
Да, 1060 на 3гб уже отвалилась. Но почему вы её сравниваете с 1060 на 6гб? Сравнивайте с 1050ти на 4гб. Памяти больше, чип слабее. В итоге что? Она улетела в помойку гораздо раньше, чем 1063. Вот и ваша 3060 на 12гб так и будет проигрывать 3060ti, а затем вообще перестанет тянуть игры, и это произойдёт до того, как 3060ti перестанет хватать видеопамяти. 1050ti поначалу тоже отставала на 15-20%, но это поначалу. И лучше уж поставить текстуры и тени пониже, но играть, чем выставить высокие текстуры и смотреть слайд-шоу. P.S. В статистике стима нет разделения между 1060 на 6гб и 1060 на 3гб, там все вместе идут.
В случае с 40-й линейкой,покупка 4060ti на 16 гб не имеет никакого смысла,если учитывать её цену 55 кило рублей и выше. Стоила бы 4060ti на 8 условные 37к,а версия на 16 гигов в районе 42-44,я бы ещё подумал. Но на данный момент лучше уже доплатить и рассматривать 70-ю линейку. Потому что там уже разброс попросту меньше между 60ti и 70-й. И да,в своё время разброс между 3 и 6 гиговой версией 1060 был в районе 5-7 тысяч,но не 25-27,как сейчас между 4060 простой и 4060ti на 16 гигов,при разнице в производительности чипа 15-20 процентов и большим объёмом памяти. Длсс 3-го поколения для справки увеличивает частоту кадров вплоть до двух раз и нагрузка на карту падает примерно на столько же. Условно без длсс нагрузка 70%,при включении нагрузка 35-45% и карта сидит курит бамбук на шизлонге. Именно по этой причине я не стал рассматривать 30-ю линейку,которая морально уже начала устаревать,а по ценам +- равна 40-й.
А вот для VR игр ваша шина+кол-во памяти оказалась решающим, на 2080Ti летают (на себе проверено), а на 3070 лагают 🤷♂️ вот тебе и тэсты из реальной жизни!
VR здесь ни при чём, 2080 Ti немного более производительная чем 3070. Ну и шина также не показатель. Например у RTX 2080 шина 256бит, а у RTX 4070Ti шина 192бит. При этом пропускная способность первой 448ГБ/с а у второй 504ГБ/с. Ну и количество видеопамяти для VR, имею в наличии шлемы с разрешениями на глаз 2160х2160 и практически все AAA VR-игры, и не видел ни одной VR-игры которой не хватило бы 8Гб видеопамяти. Не спорю, что если запустить любую плоскую игру на которую навешан сторонний VR-мод, то может и 24Гб видеопамяти не хватить. НО, все игры которые изначально создавались сугубо для VR не используют много видеопамяти. Это не проблема нехватки видеопамяти, а кривые руки сторонних мододелов, оптимизировать надо свои недоподелки.
Когда уже будет найтивный VR? Или версии игр от самих производителей? И пошлют гах этих криворуких индусов мододелов? А то даже в TES5 они анимэ-кавай завезли.
@@MyDEggs кроме VR-залипалок , сделанных исключительно для виртуалки есть игры, которые предусматривают и плоский и VR-геймплей без всяких левых модов, и вот тут бывает сильно по-разному. Например DCS world - авиасимулятор - в VR сожрёт похоже любой объем видеопамяти, который вы ему предложите. Да, проект нишевый и для людей помешанных, но как пример прожорливости очень показателен.
@@rocknarkom1535 DCS world использует всего одно ядро процессора, а текстуры загружает не только в видеопамять, но и в оперативную память, сжирая обе под завязку (там текстуры весят под 64Гб, нет видеокарт с таким объёмом видеопамяти). Это криво написанная игра.
@@MyDEggs увы, да. Но пока это лучшее из того, что есть (критерии оценки у каждого конечно свои, я имею в виду проработку самой симуляции). С многопоточностью, надеюсь, тоже допилят, процесс начался, будем посмотреть. Но это уже не из мира видеокарт.
Очень классный разбор теоретической части и детальный разбор практической части! Больше спасибо, Сергей, твои тесты лучшие! Жаль нельзя поставить больше одного лайка 👍🔥
Как обычно, уровень степени охвата тестов, качества повествования и общее качество съёмки - 146 из 10!!! Спасибо вам, Сергей и Илья, за качественный контент! Спасибо, что не стали вырезать))) 27:53 🤣🤣👍
Мне очень нравится когда не просто показывают результаты, а ещё и анализируют. Но мне сложно воспринимать ваши комментарии графиков на слух, хочется побольше визуального повествования.
Доходчиво, как всегда! Лет 15-20 назад пытался людям это объяснить, но не было настолько глубоких технических познаний. Ваше видео на тот момент очень бы помогло
Из услышанного я понял что: - это лучшее в русскоязычном сегменте разъяснение принципов работы памяти в видеокартах; - я ничего не понял😊... но очень интересно!
Согласен, лично мне особенно интересны Ansys/Nastran, софт для моделирования процессов, например литья. В общем, софт для конструкторско-технологической работы на заводике.
Сергей, обзор - супер! Спасибо за вашу работу на ю-тюбе! У меня только предложение есть: может в будущем так же будете делать сравнение мобильных чипов параллельно сравнению чипов для десктопов? Понимаю, что возможность может не всегда быть, но очень бы хотелось. А то у N-vidia - 3080 16Gb мобильная - это 3070 для десктопа, 4090 - это 4080 для десктопа, но как-то не всегда верится. Всех благ и спасибо, что вы есть!
@@savocheg Хочется понимать примерную разницу между современным мобильным решением и десктопным. У Ильи не так давно было ноутбук на 4080, можно эти футажи добавлять к тесту видеокарт. Надеюсь, получится как-нибудь в будущем Сергею и Илье сделать тест мобильного железа vs дестопного с одинаковыми названиями. 4080 + i9 13900, например.
Было бы интересно похожее видео с обзором показанных тут новых карт 40 линейки - конкретных моделей. Раз уж вы делали их тесты, наверняка есть что сказать по их шумности, температурам, свисту дросселей и вообще ощущениях от использования - ведь это очень важный момент для покупателя карт. Столько практического опыта не должно пропадать впустую, расскажите о нём.
свисту дросселей" -в башке своей дурацкой свист устрани. и "свиста дросселей" больше никто не услышите😉 и вообще ощущениях от использования" -🤣🤣🤣 итиотина!
это у Викона лучше смотреть. Единственно что отмечу. у Нвидии все карты под охладом, серии 4060/70 от разных вендоров что однояйцевые близнюки. Чуть чуть разные компоненты и только. Околодешман. отсутствие предохранителей. а вот на 7600 сапфир предохранители поставил...
Rtx 4090 не тянет киберпанк с лучами а ты говоришь хватает 1070 тi, так значит и 1050 хватит с монитором hd все зависит от степени реальзма, если иебе хватает 1070 то ты наверное гавнред😊
Несмотря на то что видел уже кучу обзоров и тестов, на карты нового поколения, этот ролик посмотрел с удовольствием и на одном дыхании. Спасибо за проделанную работу!
Добрый, спасибо за контент, хотелось бы в будущем видеть тесты в QHD без DLSS\FSR\XESS для наглядности и более объективной картины сырой производительности с предыдущим поколением.
Спасибо за подробный обзор! В очередной раз убедился что сделал правильный выбор купив 3070ti год назад. Очень интересно было бы видео на тему подбора процессора для видеокарт чтобы полностью раскрыть потенциал видяхи но при этом не переплачивать за процессор.
На игры больше влияет поддержка DLSS, чем вся эта дутая арифметика пропускной способности. DLSS 3.0 поддерживается только в 4 серии. Кроме процессора, влияет также и материнка. Интел стал очень жадным на линии PCIe. Особенно в младших чипсетах. А АМД как не умела хорошо работать с памятью, так и не умеет.
@@warchoon1 из 4 серии, разве что 4090 заслуживает внимания, но там есть свои проблемы с теплопакетом. DLSS 3.0 прикольная штука, но по факту это читинг. Вполне вероятно, что конкуренты догонят и аналоги станут доступны на все видеокарты. Тут нужно уточнить, что я оцениваю 4ую серию как владелец 3080Ti и с позиции апгрейда. Т.е. для владельцев начиная от 3060Ti особого смысла перепрыгивать на 4 серию нет. А вот если бы я на старье сидел, то, конечно, смотрел бы на 4-ю серию. В общем немного неоднозначная серия получилась. Флагман суперпроизводительный, но монструозный, горячий и есть случаи возгорания. 4080 непонятно зачем вообще нужен. Я бы очень плотно подумал на тему покупки гипотетической 4080Ti, если бы она отставала от 4090 на 7-10%, но была не такая горячая и с большим объемом памяти на борту.
@@ibra1lпо большому счету, все придирки к 4090 (кроме размера) выросли на волне первоначального хайпа. Она и холоднее чем многие видеокарты 30серии и ничего там не горит, если руки не из жопы. Так-то и железный шар сломать можно
4060 это плевок в лицо покупателям, плата удешевлена вхлам, хотел купить, но когда увидел обзоры с разборками... Сразу передумал. Уровень китайского подвала.
@@zoneloreнвидиа 4060 потребляет 110ват только в рекламе, по факту она жрет 135ват, есть целая статья об этом разоблачении. При этом имеет 4 урезанные фазы питания и одну на память. Для примера у 7600 потребление на 30ват выше, но фаз аж в 2 раза больше и цена ниже! Таким образом Нвидиа продает не видеокарту, а Frame Generator с фейковыми фпс, который многие не хотят использовать из-за артефактов в кадре. По факту Нвидиа за дорого продает ПО ухудшающее графику. Я считаю их гениями маркетинга!
@@ЕвгенийФедулов-с6р 5600,6600,7600 ... я только продал 5600xt, пересел на нвидию - DLSS2 в сравнении с FSR2 божественный, что бы получить картинку сравнимую с FSR2, DLSS2 можно смело ставить даже не на "balanced", а сразу на "performance", а performance дает значительно больший буст в сравнении с FSR 2 в "quality". DLSS3 ... короче на 4060ti можно если поиграться с настройками вытянуть трассировку пути в 50-60 кадров на CP2077 с приемлемой картинкой в 1080p.... А ты продолжай верить в свои скрепы, про шину, про память, про магический RDNA, про непогрешимость нативной картинки ;)
@@Aleksey-vd9oc Твой DLSS сдуется за несколько лет, потому что выйдет "новый DLSS", а старый DLSS игры поддерживать не будут. И ты останешься в таком случае с голой производительностью. Так что 6600 XT по чистой производительности на единицу вложенных денег выгоднее, чем карты Nvidia.
спасибо за обзоры! в этом году собирался обновиться с 1070 на 4070ti но посмотрев обзоры и сделав выводы решил не обновляться, потом когда-нибудь обновлюсь а то не охота платить за лучики и прочее, когда карта урезана по шине
Как-то пришел в магазин покупать монитор. Продаван оказался начитанным и начал мне затирать про время отклика в секунду, равномерность подсветки, а время было такое, что IPS еще не был сильно распространен, я за него схватился, тем более, что понимал о чем речь. Под недовольную мину продавца купил то что мне было нужно и ушел. Иии недавно история повторилась с 3060 12гб. Я занимаюсь 3д рендером. Если сцена не поместится целиком в память видеокарты, то она просто не отрендерится, поэтому выбрал бюджетку с 12 гб видеопамяти. А советовали 4070 ти, мол, цена кадра ниже, скорость выше и всё такое. Короче, к чему я, нужно понимать свои потребности и рассчитывать на них, а то получится что как некоторые профики дизайнеры сидят на экспихе до сих пор и в ус не дуют, а просто им это всё не нужно, фотошоп 6.0, корел 9.0 и пошло всё в пень)))))) Спасибо за обзор, но если можно добавьте пожалуйста тесты в рендере на том же блендере. Спасибо!
Я взял 3060 потому что дёшево, и у меня PCI 3. До четвёртого не обновлюсь) довольно среднее железо. Но мне хватает. Да и 1660ti перестала вывозить по памяти. Хотя ещё живая. 3060ti чёт на 10к дороже была, я решил что оно того не стоит.
Добрый день! Для работы с графонием и видосами вы рекомендуете 3060, а не 4070? Пытаюсь понять, что лучше в итоге будет. Но судя по обзорам, 4070 - не такая шоколадная. Уже нескольких сборщиков спрашивал, все говорят, что 4070 - норм. Но кажется они только по играм судят
@@Orsikmorsik Решает память. На 3060 12 гб, 4070, 8 гб. Сейчас уже можно найти 4070 с большим объёмом памяти. Если вы не рендерите видеокартой, то берите что угодно. Ориентируясь на бюджет знакомый купил 4060 16 гб. Занимается нейросетевой графикой, где некоторым моделям уже мало 12 гб, а 16 в самый раз.
В 40-й версии есть DLSS 3 и генератор кадров. В 30-й версии этого нет. Поэтому при включении этих технологий отрыв 40-й версии от 30-й составляет около 30%, что существенно. Также, 40-я более холодная и ниже энергопотребление на 40 Ватт, что позволяет сидеть на БП 650 и не тратить деньги еще и на него. Хейта много из-за цены и что DLSS 3 с генерацией кадров не завезли в 30-ю серию. А так 40-я очень неплохая карта.
так его просто отрубили на программном уровне, сами 20 и 30 ки могут спокойно тянуть dlss3 frame generation просто Хуан отрубил нам это что бы покупали 40 ки ... dll файл.. ну и потом фпс это хорошо ну а толку инпутлаг остается тот же ( сидишь ты играешь у тебя 40 фпс хуякс подрубил dlss 3 стало 80 а инпутлаг остался тот же ты же глаза просто обманываешь ну я к слову что да прикольно но не ахти что сверх )
DLSS 3 это по сути просто набор DLSS 2, генератор кадров и самое главное, как по мне, Reflex. DLSS апскейлинга делает игру немного заторможенной, особенно в шустрых сценах и вождения авто, рефлекс делает управление намного отзывчивее, и с DLSS становится играть проще. Хз, что сказать про генерацию кадров, но рефлекс - это самая лучшая и полезная функция, которую сюда добавили. Ещё я бы взял 40 поколение, это новая архитектура, как и сказал автор того коммента, видюхи на Ada Lovelace менее требовательны к энергии, что плюс к БП и охлаждению, и эту энергию они используют куда эффективнее, и ФПС даже сможет подняться.
@@anonymus6312 уже 14 лет назад железо требовательное к питанию было и брать блоки по 400-500 ватт при апгрейде просто дурость. У вас запаса никакого нет. Носитесь все с этими блоками, как будто это роскошь какая-то. Купил 12 лет назад 750-ваттник и проблем не знаю.
@@anonymus6312 уже 14 лет назад железо требовательное к питанию было и брать блоки по 400-500 ватт при апгрейде просто дурость. У вас запаса никакого нет. Носитесь все с этими блоками, как будто это роскошь какая-то. Купил 12 лет назад 750-ваттник и проблем не знаю.
Спасибо! Крайне полезно было узнать про шину, принцип подсчета ширины линий. И в целом ее влияние. Единственно, что мало устраивает в продаже dlss 3. И маркетинга везде, о том что она дает прирост. Дело даже не в том, что я хейчу технологию, мол, вот она только рисует кадры, мылит картинку, увеличивает задержки. А основное что не устраивает... Этой технологии нет на самом деле, нигде. Ну кроме киберпанка, и может еще 1-2 нормальных игр)))
@@jiu4964 Вообще для многих индекс цена на кадр хрень. Если в игре нет 55-60 фпс (и это при фрисинке, без него должно быть 60+ чтоб лок стабилен был), то хоть бесплатно не надо.
Категорически не согласен. Недавно в одной группе некого Виктора человек спросил , что взять 3060ти, 3060ти на Х памяти или 4060ти. Я спокойно посоветовал 4060ти, но тут же налетели люди, которые начали рассказывать про шину, обрезки, пропускную способность. В итоге человек сразу понял что шина рулит и пошел брать 3060ти по цене 4060ти. Хотя преимуществ у 3060ти никаких по факту, разве что пара тысяч рублей
Спасибо за видос, работа проделана максимально качественная и долгая) По поводу карт от зеленых, осталось только надеяться что Нвидиа не будет программно резать карты прошлой линейки, дабы показать какая 40хх серия классная
Когда то были карты nvidea ge force 200mx на 32 мегабайта. Прошло 20 лет были случаи когда завод умышленно блокировал микросхемы на своих продуктах как на ge force. 5600xt.
Очень хороший обзор для всех, кто до конца не понимал про кэш и работу памяти. И судя по тестам в видеокарте главное шириша шины и достаточный для производительности карты объем, а не кэш. И пока что все еще лучше 3070ti по более низкой цене, чем 40я линейка, так как длсс 3 пока раскачается для всех игр уже и видюху пора будет менять.
Хороший ролик. Я вчера как раз купил 3060Ti. А юмор в том, что они практически одинаково стоят В МАГАЗИНАХ с 4060Ti, но зато на вторичном рынке можно взять за 20к (новые около 40к). Так что я просто купил с рук за двадцатку. Считаю отличным приобретением!
Пока что это лучшее видео по сравнению! Которое хоть как то поможет при выборе видеокарты для покупки ! Честно говоря я в конце еще ждал сравнение в QHD лучи + длсс,фср 😅 может как-нибудь потом. Спасибо за проделанную работу!
Интересно было бы еще и 4к посмотреть. У меня 4к монитор, в том числе для работы, видеокарта 3060Ti на 6x памяти. Мне для игр хватает, я за ультрами не гонюсь. Тот же киберпанк идет на 45-50 кадрах в 4к. Я думаю в 4к разница по шине была бы еще более видна.
@@Vadim_Andr. Нормально хватает, я же играю и привел в пример тот же киберпанк - далеко не самую легкую игру, кстати он ест 6,7-7 видеопамяти, упора точно нет. Если взять тот же borderlands 3 - идет на все 60 кадрах, тест выставил автоматом разрешение 4к и настройки безбашенные, игра напомню на UE4 и в ней нет DLSS, все кадры нативные, честные, кушает 6,5 видеопамяти, примерно. Хогвардс автоматом выставил 4к и высокие настройки (местами ультра), с dlss баоанс и там достаточно большой апскейлинг выставляется, но картинка отличная - 50-60 кадров выдает, статоров нет, игра идет плавно, кушает памяти 7,4-7,5. Вот чего точно больше кушает при 4к, так это оперативы, 16 гиг точно не хватит, если в фул хд было 10-12, то в 4к 20-25, так что 32 оперативы обязательно. Я не спорю, что в ультрах мне не хватит памяти, но 3060Ti не карта для ульра настроек. Хочу также сказать, что четкость картинки в 4к значительно покрывает более низкую по качеству графику, плотность пикселей и картинка в которой не видишь пикселей тоже решает. Понятно что 2к тоже отлично, но как я говорил, мне 4к нужен в том числе и для работы, и брать второй в 2к для игр лично для меня нет смысла. Все что я написал не надуманное или с каких-то тестов, это то, что у меня есть, все данные взяты с оверлея MSI Afterburner. Процессор у меня не плохой, но по современным меркам древний - 8700к, возможно на современном проце показатели будут еще более интересные, по крайней мере показатель редких кадров.
RTX 3060 12 Гб берут ещё для работы со Stable Diffusion и таких людей много, сравнительно недорогой и мощный вариант. Было бы неплохо 3070 с 16 Гб памяти, но такого нет. Будет 4060 с 16 Гб памяти, но цена там обещает быть уже намного выше. Было бы интересно сравнить видеокарты в генерации изображений с помощью нейросетей.
Не стоит за эту фигню переплачивать, 4060 и 4060ti мусор за текущие цены, если и нужна средняя видеокарта, то лучше взять 7600, А770 (если не брезгливы с немного кривыми драйверами) или 6700 10ГБ. Длсс 3 по мне это фикция, пустышка, генератор кадров конкретно.
@@stokl3877 я кстати тоже думал брать 4070ти-4080 из-за длсс3 но потом прикинув ,взял за 78к 7900хт,и просто кайф,мощность запредельная,и запас огромный
@@MaksimMaksimov74 Да, 7900хт это лучший вариант на сегодня, буквально лучшая инвестиция денег. Учитывая как АМД оптимизирует свои драйвера, то через годик 7900хт скорее всего будет обгонять 4080.
Охватили одним видео, весь "бюджетный" сегмент этого поколения - к сожалению вышло оно, максимально убогим, но что имеем. Вся надежда на следующие линейки производителей. Думаю, 12gb станут новым стандартом, для бюджетного сегмента.
@@degitА с чего они должны стоить в 2 раза меньше, м?😂 Может ты у нас инженер-проектировщик, который заменит все станки из Нидерландов и удешевит производство?
отличный разбор и "+" за раскрытие темы "для простых смертных", но есть и ложка -дёгтя- критики - обращу внимание, что использовалась *кастрированная* версия А770. да, интел изначально тоже планировали делать А770 в двух версиях, но в итоге в серию 8ГБ карты не пошли (их делали только сторонние вендоры, да и то не много), и референсной явлется 16ГБ версия. (а 8ГБ оставили более скромному А750)
Понимаю, что будь такая возможность - наверняка сделали бы, но в рамках речи про память и ширину шин хорошо бы вошли прямые сравнения карт a770 на 8 и 16 Гб, ну и 4060ti так же на 8 и 16 гб
Спасибо за тесты) Лично я продолжаю сидеть на 1070 и наблюдать за этим "железным" шоу xD Итересно посмотреть на новую встройку от амд в 7000, ну ещё на всякую экзотику, например как на канале м-техникс лайв, был видос, как специальную видюху под майнинг с шиной 1х переделали(ну или восстановили) на 16х))))
@@user-nx6ep7jz4w ути-ути-ути, какие мы дерзкие, по себе-то зачем судишь, жертва маркетинга? У нас нормально всё работает с приемлемым фпсом и без ваших мегановинок. Если мозгов не хватает сопоставить свои нужды с возможностями железа, то кто тебе доктор? Продолжай копить гигафлопсы дальше, может быть когда-нибудь они тебе пригодятся...
Отличный обзор! Стало интересно, почему в сравнениях не участвует 6650хт и 6700, было бы интересно посмотореть, и есть ли существенная разница к версий 00 и 50, все же в цене часто ращница есть
Купил не давно rx 6700 не XT, хорошая цена была, и пересмотрев множество роликов доволен, 160бит шина и pci-e x16, раньше всегда нвидии брал, но попробовав понравился родной софт АМД, и андервольтинг, и мониторинг в играх уже доступен.
@@lizardx6504у меня 6600хт дуал асус, изначально была очень шумной, сделай андервольт и отрегулировал вентиляторы, теперь красота, а насколько она слабее 6700хт и 7600? Есть смысл на них переходить с нее ?
мне просто интересно, в каких таких магазинах авторы видео увидели цены на 3070 ti 44к и на 6600 xt 26к, да и так, чтобы видеокарты были еще в наличии, даже без просмотра самих цен(а я смотрел цены на эти видюхи на самых популярных платформах и в магазинах) они кажутся ну просто абсурдными, да блин, если так задуматься, получается цена на нетопувую 3070 будет выше, чем здесь на 3070 ti
Все просто нужно экомически продвигать новую память,которая имеют большую частоту.Самое главное НО новая память на широкой шине,будет давать поток который не обработает видеопроцессор,так зачем тратить лишние бабки.Поэтому когда не хватает производительности памяти для чипа GPU,расширяют шины,и добовляют микросхемы памяти.Этот цикл наблюдается очень много лет.
@@_s.i.m_ Да,это элементарно,как и оперативная память, есть определённый объём который может обработать компьютер(gpu,cpu), и превышение её не несёт никакого положительного потенцила. Точно так могу вам сказать по поводу(ssd,m2) современные процессора такие как i7 i9 и аналоги AMD не могут обработать информацию с памяти быстрее чем 1 гигабай, поэтому загрузка windows и игр будет с одинаковой скоростью что на топовом Самсунге (1000$)m2 что на с среднего m2 у которого скорость чтения 2 Гб, построенные большие фабрики много людей работают, нужно это всё обкспечивать, поэтому маркетинг держит все на плаву. А выбор уже уже за потребителям, хочет он поддержать своего любимого производителя, или может не имеет такой возможности и хочет сыканомить.
Какая же проделана огромная работа!Тесты,исследование,подача материала.
Не то слово, просто курсовая по вмдеокартам😂
Без 6700хт ничего он не сделал
Да смысл видео - не сравнение моделей видеокарт, а сравнение покрышек.@@nikulyan
да, а вы даже пробелы поставить поленились)
Какой же ты душный@@thomaswolfe3092
Спасибо огромное за труд! У такого контента нет конкурентов! Ценим вас!
ага очередной спасибкин нарисовался. Весь его, так называемый, контент без конкурентов, можно уместить в 30 секунд игровых тестов. Остальное вода и фривольные рассуждения, имеющие мало общего с реальностью.
@@papazlou скинь ссылку на ролик, который по твоему мнению более актуален. Было бы интересно его посмотреть
@@papazlou ага, еще и от человека не грамотного в IT
Магрэгор делает обзоры видеокарт? 😅
Уважаемый Сергей, хочу вам рассказать что в программе MSI Afterburner, есть датчик мониторинга под названием "Загрузка контролера шины" этот датчик я назвал PCI-E, то есть если видеопамять перегружена данными то этот датчик показывает выгрузку данных по шине PCI-E в ОЗУ, плохо одно, он показывает в процентах, но понять что данные идут в ОЗУ, можно!
Я этот датчик уже года 2-2,5 использую, советую в будущих тестах так же его использовать!
Не оторваться!!! Новый уровень тестирования, в последнее время, "сухие тесты" карт превратились в залипательные обзоры. Восхитительно!
перелогинься, самосознайка
Люблю расширенные обзоры, когда не только озвучиваются характеристики а присутствует аналитика
крайне редкое явление среди обзорщиков. крайне мало тех кто рассказывает про кучу минусов ... увы увы
@@makc975да большинство обзорщиков даже не понимают, что они обозревают, и что означают те цифры, которые они зачитывают.
Тут хоть нормально объяснено.
Вот объясните мне чем вам интересны видосы про видеокарты?
@@gijduvon6379 вопрос из разряда "а зачем люди смотрят футбол". это просто развлечение/отдых. а кому-то инфа из видео поможет собрать нормальный пк :|
@@gijduvon6379 ну я месяц назад пробовал обучать нейросеть на подмену моего лица в прямом эфире через вебку на любое другое лицо (на то, на которое проводил обучение нейросети).
Обучение происходило на видеокарте nvidia. Для обучения нужна была именно видюха нвидиа с cuda-ядрами. Когда изучал матчасть, на каждое новое открытие возникало еще три белых пятна.
Потом попалось отно видео про видеокарты. Потом еще одно. Ну и потом заинтересовался, как оно работает, почему именно эта видюха, а не другая, подходят для обучения, как устроены видеокарты в принципе. Скорость работы, что влияет и пр.
Какое глубокое видео! Смотрел обзоры иностранных топов, но ни на одном не видел такого последовательного и грамотного разбора этой темы. Спасибо за то, что вы есть =)
ТОЛЬКО про КЭШ - ...издешь
а что тебе там не понятно? на пальцах что ли постоянно обьяснять надо?
Разбор - херня, потому что он тестировал ВСЕ видеокарты на PCI express 4.0, а большинство сидит на материнских платах с PCI express 3.0. Например на соките 1151. У меня например I9-9900к, а это процессор всего четырех летней давности. И в старых системах нет поддержки PCI 4.0, а значит при урезанной в двое шине и 8 линиях PCI и при одинаковой версии PCI, пропускная способность будет разной. Его разбор актуален для новой сборки, а не апгрейда старой! Следовательно для большинства людей он просто вредительский. Человек купит новую видюху от АМД для старой системы и банально потеряет в производительности 30%!
@@mr_darian ничего он не потеряет в производительности. ты тестировал одну и туже видеокарту на gen3 и на gen 4? 1080ti великолепно справляются с ААА играми на своем gen 3. и сокет у твоего проца 1151 v2. топовый интел. вроде 24 линии. вы путаете пропуск и построение кадров с вычислениями. но согласен, тест ААА и киберспорта неверный.
@@mr_darian....
Вам бы, сударь, освоить написание слов *сокИт и в двое* вначале,
а уж после в "калашный ряд" подаваться, рассуждая о технических
вопросах!
Отдельный респект вашему художнику анимаций!
Это Сергей делает.
Какие же вы лучшие. Слов не хватает описать всю мою благодарность к вашему великолепнейшему контенту. Музыка, речь, голос, цвета, переходы, графики, подробности - шикарно.
Замечательный обзор, да еще с описанием маркетинговых уловок простым языком. Огромная благодарность за проделанную работу!
те, кто в школе учился и учил информатику, и так это всё должны знать, тут нет ничего нового
@@TGRTGRу информатика разная, то что сейчас, и то что к примеру было раньше, например в регионах, когда я учился стояли аналоги 1го пенька, а сейчас блин 15летним задают задания связанные с питоном🙃
это все ууйня! У меня на инфе писали бэйсиком. Перфокарт конечно не было, просто они закончились)))) P.S. 84г.р.
в голове у тебя уловка , и этим можно возпользоваться.
@@Kurt12345хз,у нас всё время была какая то срань,по типу текстовых задач,задач на движение,всякие с числами.Вообще никак не связанная с программированием.На одном из первых уроков в году максимально кратко объяснили устройство пк и всё.
Очень доходчиво и разжовано даже для самых мало образованных в этой сфере. Топ ! благодарю за труды ! 💯❤️🔥
Пишется: разжЕванно. Проверка: жевать.
@@blindmonkey870 гуляй вася - жуй опилки 🤣
да ты серавно нихрена не понял.
Спасибо за видео! Очень наглядно и подробно, проделана колоссальная работа.
На 08:18, 11:47 на графике отметка показателя пропускной способности "272" у 4060 ниже чем "228". 11:53 У 4060Ti и 4060 в пояснении указан кеш L2 32 и 2 Гб соответственно, хотя в реальности он измеряется в Мб.
Зоркий Глаз.
тоже заметил, но в случае с ПСП там просто ошибка на цифру, не 228 а 288, а так порядок верный, а еще в конце сказано 4060 будет производительнее 3060ти, думаю имелась ввиду все же 4060ти, но в целом за такой объемный ролик нестрашно)
@@4ikipok
по сути, Ti даёт прирост около 15% к обычной. Но и 4 дала примерно такой же прирост и даже больше. Поэтому вполне логично, чтобы 4060 была на уровне 3070Ti или выше.
4070Ti обходит 3090Ti (не говоря уже о 3080), чего никто не ожидал.
@@warchoon1 нет не логично, по железу никак 4060 не будет эквивалентна 3070Ti, может быть только 4060Ti по ровняется с 3070, в целом стабильность на 3070 всех моделей гораздо выше за счёт более широкого железа. Это всё равно, что объём двигателя, если поставить турбину на 1.5, это не даст тебе мощности, как у автомобиля в 3 литра
Спасибо за видео, очень большая работа проделана. по результатам тестов мне лично за Интел было интересно и кое-где неожиданно. Отдельно интересно было посмотреть на график цен и "цена за кадр" :)
Борода, красава, очень люблю именно твои обзоры, разбавляешь сухие цифры кучей пояснений и интересной теории! Спасибо!
а что тебе там не ясно?
Вот это я понимаю тест, вот это исследование! Давно потому такого не было! Как всегда большое спасибо!!!
медленная память не вывозит . по моему каждый школдьник уже должен знать. но в реале никто ничего не понимает ( как ты ) и покупают гигабайты памяти.
Ух молодцы, расписали всё что могли. Такие тесты реальней показывают производительность видеокарт. Теперь с такой путаницей нужно опираться только на ваши тесты либо играть (работать) на том что есть и с теми скоростями что есть то есть попал в промежуток 35-60 FPS и большего счастья и желать не нужно. Это я к тому что такие крутые разборы как у вас сделать врядли кто сможет и за это вам огромное спасибо. Но и ваши разборы смогут осилить посмотреть либо полные гики либо специалисты, простым же игрокам такие тесты даже в просмотре сложно осилить из-за сложности терминологии да и длинны технической информации.
На последок скажу что ваше видео самое лучшее что я смотрел за последнее время в интернете (технические видео всегда лучшие чем котики-синтетические тесты) и оно конечно же найдёт своего зрителя для которого вы и делаете такой контент из-за отсутствия такового на Российском сегменте видеороликов о компьютерной технике. Скажу так что это видео я не раз буду пересматривать при выборе видеокарт себе и кому-то из друзей так как зафиксировать всё информацию в мозге не так просто, а тут пересмотрел - освежил - выбрал.
Огромное спасибо за такое ещё раз скажу полезное видео. И соглашусь с мением Дмитрия Бочило что интернет был лучше когда только появился и в нем сидели технические специалисты. Я уверен что интернет нужно разделить на технический и развлекательный (хотя это пока сложный и долгий диалог если его коснуться здесь по этому делать я это не буду).
Ещё раз спасибо.
не забивай дурней голову. тебе все равно ничего не понятно.
@@Vadim_Andr. А если понятно?
@@linuxforbeginners5121 все равно это тебе ничего не даст.
ощущение, будто половину комментариев под этим видео, проплачены и боты просто спамят положительные сообщения. Никого ничего не интересует, нет никакой своей точки зрения у людей или каким то аналитическим разбором этого видео. Типичные " Спасибо, все круто и разборчиво, доходчиво, разжевано, топ круто, классно, ого! "
@@lil_hucks абсолютно согласен.
Ребят, вы как и всегда на высоте!👍 Огромное Вам спасибо за проделанную работу. Все четко и понятно, что покупать и зачем. Огромной Вам удачи и до следующих роликов!😉
Спасибо за проделанную работу! Давно ждал видео на 4060ti и 4060.
Лаконично. Наглядно. Профессионально.
Браво! Я считаю это видео хорошим примером профессионального подхода.
Очень понравилось как вы подошли к данному вопросу основательно и многосторонне.
От меня подписка)
Спасибо! Титаническая работа была проделана! Респект! 😊
Не скажу что смотрю каждый ролик с канала, но вот располагаете вы к себе зрителя. Умеете так построить изложение, что усваивается хорошоинформация, даже если не глубокий специалист в области. Спасибо, очень интересно
нет.
@@Vadim_Andr. да.
да
да
Как всегда очень грамотный подход, без соплей, слюней и матерных возгласов ради хейта, как делают многие блоггеры! Спасибо за огромную работу над таким исследованием 👍
Тесты действительно образцовые. Потрясающая работа, спасибо!
Очень очень интересный тест и удобная подача материала на мультиграфиках в конце. Портясающе!
Благодарю за проделаную работу. Всё досконально и доходчиво рассказано. Браво.
Очень полезное видео)) благодарочка автору за проделанную работу) 6700хт самая выгодная покупка из всех представленных карт, но ее нет в видео
На самом деле и 5700xt не отстает
Ее и в магазах у нас нет уже
Разбор - херня, потому что он тестировал ВСЕ видеокарты на PCI express 4.0, а большинство сидит на материнских платах с PCI express 3.0. Например на соките 1151. У меня например I9-9900к, а это процессор всего четырех летней давности. И в старых системах нет поддержки 4.0, а значит при урезанной в двое шине пропускная способность при одинаковой линии PCI будет разной. Разбор выше актуален для новой сборки, а не апгрейда старой! Следовательно для большинства людей он просто вредительский. Человек купит новую видюху от АМД для старой системы и банально потеряет в производительности 30%!
@@mr_darian там разница всего 5-13%
@@mr_darianне забываем, что старая сборка это скорее всего FHD монитор, а для такого разрешения любая видеокарта из обзора избыточна. И покупая новую модную карту за 40к стоит выложить ещё столько же за 4к моник
Интересная дилемма. Оптимизация игр под такие конструкторские решения может зарешать. А потом компания сможет вам снова продать широкую шину по новой 🤷♂️
Естественно.
Оптимизация в играх? Ты хотя бы видел её последние 3 года? Я - нет
Разрабы современные не лучше Нвидии, ху*к ху*к и в продакшн
@@Spectre4490Чем лучше графика, чем больше разного железа - тем сложнее оптимизировать. Кто будет оплачивать всё это?
Atomic heart - отличная оптимизация
@@Spectre4490WarTales - нормальная оптимизация (ничего не лагает и не тормозит), а вышла она в 2023 году. Так что, если Вы лично не встречали игры с нормальной оптимизацией (про атомное сердце даже вспоминать не буду), то это не значит, что их нет.
Спасибо за ооочень информативный ролик. Голова кругом какая колоссальная работа вами была проделана. Спасибо
Посмотрел на бусти, теперь посмотрю и тут)
СПАСИБО за труды, Сергей! Очень полезный и познавательный ролик!
6700 xt выглядит очень вкусно, по цене и производительности на фоне данных карточек, странно что ее не было в тесте. Понимаю что видео про шины, спасибо интересное видео
Жаль, что в тестах не было RX 6700 XT - она очень даже конкурент как по производительности, так и по цене всем картам из обзора.
И из всего списка сейчас это отличный вариант в качестве апгрейда с какой-нибудь старой видеокарты или для сборки нового ПК.
При этом весьма хорошо сбалансирована как производительность чипа (+15-35%) от уровня RX 6600 XT/ RTX 3060, так и подсистема памяти (12 ГБ / 192 бит).
Шина PCI x16 порадует владельцев старых платформ без поддержки PCI-E 4. Ждём выхода RX 7700 (XT) если он, конечно, вообще произойдёт.
В апреле обновился до неё с rx560, взял за 38к версию сапфир пульс (ревизия 09-20g с 5 теплотрубками), очень радуют температуры в 60-62 по чипу и 70-72 по хотспоту. Выбор пал на неё из-за того что камень i5-10400f с pcie 3.0, поэтому брать 6650 хт с 8х линиями было не выгодно, а у 6700(без хт) были вопросы по охлаждению
@@Akuma_Z я брал Saphire Nitro+ 6700xt. Она пожирнее обычной пульсы. Интереснее температуры были. 55-62 по чипу, и ... 78-100!!!! по хотспоту. Ладно, по хотспоту немного наплел, амдшный биос держит на всех 6000 рыксах её на уровне 80-85 градусов по умолчанию, чтобы добиться 100 - прямо по жесткому грузил чип, и это близко не игровая нагрузка. А так, если есть желание, нитры гонятся до уровня 6750.
Сейчас только что выменял, и перепрыгнул на 6800xt. У меня 1440p монитор, и фпс куда бодрее стал (+30-40% на вскидку при тех же настройках в тех же играх)
Ps: брал в августе 22 за 37, отдал с крокодильими слезами за 24 буквально позавчера...
@@stal1n63 по идее за хот спот мог возврат оформить
@@Akuma_Z у меня она в играх от 70 до 80 греется..
@@Akuma_Z я с рук брал. Да и этот хотспот, говорю же, жарил сверхсинтетикой. В базе 80-85 было
Спасибо вам! Так приятно смотреть ваши обзоры! Стараетесь сэкономить нашу копеечку, чтобы мы не купили переоценённый мусор 😅👍
Обожаю ваши обзоры. Сначала досконально разложить по полочкам матчасть, потом скрупулёзно все потестить. Кайф)
Самая популярная видеокарта на сегодняшний день по данным Steam это GTX 1650... Доступность по цене и возможность играть практически во все игры в FHD все-таки превалирует над эпическими 8к, не нужной трассировкой и прочими свистелками и перделками, которые Nvidia пытается нам всучить. А слово "оптимизация" давно пропало из словаря создателей видеоигр.
3060 самая популярная, переставайте сидеть на дерьме
вообще-то, уже 3060
нет я считаю 20ки ну хотя на деле я не смотрел ну 20ки логичнее
@@darbukadrummer это официальная статистика на сайте
@@wayfare86 странно они на сегодня все тянут и по цене я думаю доступнее, ну ясное дело что увы не 20ки так как видимо тут играет фактор давности покупки игроком видео карты ну а Ясное дело что пред поколение будет больше
В прошлый раз высказал и свою притензию к токсичности, а теперь от всей души благодарю за крайне полезную информацию, тк помогаю собирать системник для работы и эта проблема с видеокартами нормально так была занозой
Хотел бы оставить свою дополняющую рецензию к видео.
Кстати спасибо автору за познавательное видео и ваш труд. Всё было круто, но в одном моменте я с автором не согласен.
А именно про якобы несоответствия мощности чипа объёму памяти в видеокартах. Я буду ратовать за объем видеопамяти! Я считаю что объем видеопамяти тащит, и в перспективе рвет карты с более мощным чипом но меньшей памятью. Если для вас Видеокарта - это расходник, и вы готовы менять видеокарту каждые год-два - вопросов нет, тогда автор прав. Но таким людям до одного места есть ли у видюхи перекос по объему памяти или мощности чипа. Они покупают то, что всё тянет и через год два делает тоже самое не парясь по таким мелочам.
А вот для тех, кто обновляется редко ( а по статистике Стима это 70-80 % всех ПК геймеров). Тот кто живет на одной видеокарте минимум по 4 года, а чаще по 6, 8 или даже 10 лет как раз наоборот, скорее нужно искать видеокарту в перекосом в сторону большей видеопамяти т.к. со временем она уделает более мощные по GPU модели. Если к примеру взять знаменитую и народно любимую карту 1060 на 3gb и на 6gb, то в момент выхода эти доп 3gb были излишком, ненужной переплатой и, как выразился автор данного ролика "перекосом" в сторону объема видеопамяти. И где сейчас эта 1060 на 3GB ? Ответ - на помойке и в архивах истории. А 1060 на 6GB до сих пор жива и на 3ем месте по данным STEAM об оборудовании и ПО пользователей на Июль 2023. А почему? Потому что объём и скорость, (а также пропускная способность) видеопамяти отвечает за те настройки графики, которые делают 70% всей графики в игре!!! Текстуры и тени, шейдеры. Процессор в большей степени отвечает за дальность прорисовки, обработку динамических объектов типа NPC и разного рода частиц. В итоге на одной видео карте с хорошим объемом видеопамяти и хорошим процессором (который стоит в разы дешевле видеокарты) при грамотной оптимизации настроек графики в играх можно долгие годы играть в игры на средненькой видеокарте с приемлемым FPS и красивой картинкой. А вот видюхи типа 3070TI (с обратным перекосом в сторону мощного GPU) с крутым чипом и 8gb памяти скоро уйдут на помойку и будут глотать пыль у той же 3060 на 12gb. Я уже читал на реддите отзывы ребят, где 3060 на 12GB давало больше FPS чем 3060ti в таких играх как The last of us и больше фпс чем 3070ti в Witcher 3 next gen с трассировкой. Т.к. в некоторых играх 3070ti уже сейчас тупо уже не хватает объема памяти. А с современной тенденцией оптимизации игр надеется на то, что дальше будет лучше не приходится. Скорее ещё больше забить на оптимизацию сказав, включайте DLSS 3,0 пусть он вам рисует кадры в нашем куске говнокода, который мы называем игрой. (я не шучу, именно так ответили разрабы Remnant 2 на претензии игроков о том, что их игра кусок неоптимизированного говнокода).
p.s. Именно поэтому я взял себе 3060 на 12GB, а не 3060TI которая на ультра настройках пока что выдает на 15-20% больше ФПС. Но это пока, вот увидите. А тестить игры на предустановленных песетах графики типа "очень высоко" или "ультра" в 2к23 - это бред. т.к. в современных играх на ПК количество ползунков с настройками графики уже исчисляется десятками и часть из них не даёт практически никаких улучшений, но съедает треть, и то и половину ФПС. А при грамотной настройке этих ползунков получить хорошую картинку и ФПС при недостатке видеопамяти очень сложно. А вот при слабоватом GPU ещё как можно! Проверено лично в десятках игр!
Производители постараются чтобы больше покупатели по 10 лет на одной карте не сидели...
Согласен, компенсируют то однии то другим, а по факту жмут яйца все сильней и сильней. 1060 6г по истине уникальна и хочется аналог, который не придется через год разменивать как очередной айфон
Да, 1060 на 3гб уже отвалилась. Но почему вы её сравниваете с 1060 на 6гб? Сравнивайте с 1050ти на 4гб. Памяти больше, чип слабее. В итоге что? Она улетела в помойку гораздо раньше, чем 1063. Вот и ваша 3060 на 12гб так и будет проигрывать 3060ti, а затем вообще перестанет тянуть игры, и это произойдёт до того, как 3060ti перестанет хватать видеопамяти. 1050ti поначалу тоже отставала на 15-20%, но это поначалу. И лучше уж поставить текстуры и тени пониже, но играть, чем выставить высокие текстуры и смотреть слайд-шоу.
P.S. В статистике стима нет разделения между 1060 на 6гб и 1060 на 3гб, там все вместе идут.
В случае с 40-й линейкой,покупка 4060ti на 16 гб не имеет никакого смысла,если учитывать её цену 55 кило рублей и выше.
Стоила бы 4060ti на 8 условные 37к,а версия на 16 гигов в районе 42-44,я бы ещё подумал.
Но на данный момент лучше уже доплатить и рассматривать 70-ю линейку.
Потому что там уже разброс попросту меньше между 60ti и 70-й.
И да,в своё время разброс между 3 и 6 гиговой версией 1060 был в районе 5-7 тысяч,но не 25-27,как сейчас между 4060 простой и 4060ti на 16 гигов,при разнице в производительности чипа 15-20 процентов и большим объёмом памяти.
Длсс 3-го поколения для справки увеличивает частоту кадров вплоть до двух раз и нагрузка на карту падает примерно на столько же.
Условно без длсс нагрузка 70%,при включении нагрузка 35-45% и карта сидит курит бамбук на шизлонге.
Именно по этой причине я не стал рассматривать 30-ю линейку,которая морально уже начала устаревать,а по ценам +- равна 40-й.
вы на свет когда появились? Про gf 5200 с избыточной памятью не слыхали?)
Контент уникальный, спасибо за ваш труд!
А вот для VR игр ваша шина+кол-во памяти оказалась решающим, на 2080Ti летают (на себе проверено), а на 3070 лагают 🤷♂️ вот тебе и тэсты из реальной жизни!
VR здесь ни при чём, 2080 Ti немного более производительная чем 3070.
Ну и шина также не показатель. Например у RTX 2080 шина 256бит, а у RTX 4070Ti шина 192бит. При этом пропускная способность первой 448ГБ/с а у второй 504ГБ/с.
Ну и количество видеопамяти для VR, имею в наличии шлемы с разрешениями на глаз 2160х2160 и практически все AAA VR-игры, и не видел ни одной VR-игры которой не хватило бы 8Гб видеопамяти.
Не спорю, что если запустить любую плоскую игру на которую навешан сторонний VR-мод, то может и 24Гб видеопамяти не хватить. НО, все игры которые изначально создавались сугубо для VR не используют много видеопамяти. Это не проблема нехватки видеопамяти, а кривые руки сторонних мододелов, оптимизировать надо свои недоподелки.
Когда уже будет найтивный VR? Или версии игр от самих производителей? И пошлют гах этих криворуких индусов мододелов? А то даже в TES5 они анимэ-кавай завезли.
@@MyDEggs кроме VR-залипалок , сделанных исключительно для виртуалки есть игры, которые предусматривают и плоский и VR-геймплей без всяких левых модов, и вот тут бывает сильно по-разному. Например DCS world - авиасимулятор - в VR сожрёт похоже любой объем видеопамяти, который вы ему предложите. Да, проект нишевый и для людей помешанных, но как пример прожорливости очень показателен.
@@rocknarkom1535 DCS world использует всего одно ядро процессора, а текстуры загружает не только в видеопамять, но и в оперативную память, сжирая обе под завязку (там текстуры весят под 64Гб, нет видеокарт с таким объёмом видеопамяти). Это криво написанная игра.
@@MyDEggs увы, да. Но пока это лучшее из того, что есть (критерии оценки у каждого конечно свои, я имею в виду проработку самой симуляции). С многопоточностью, надеюсь, тоже допилят, процесс начался, будем посмотреть. Но это уже не из мира видеокарт.
Мужики, спасибо за обзоры, возвращаюсь в Вам на канал раз в пару лет с очередным апгрейдом компа)
Спасибо вам за проделанную работу. Великолепный обзор, очень доходчиво и внятно объяснено. Отдельная благодарность за теоретическую часть
Очень классный разбор теоретической части и детальный разбор практической части! Больше спасибо, Сергей, твои тесты лучшие! Жаль нельзя поставить больше одного лайка 👍🔥
да когла вы уже поумнеете?
@@Vadim_Andr. сразу после тебя
Как обычно, уровень степени охвата тестов, качества повествования и общее качество съёмки - 146 из 10!!!
Спасибо вам, Сергей и Илья, за качественный контент!
Спасибо, что не стали вырезать))) 27:53 🤣🤣👍
Сергей. Огромнейшее вам спасибо за столь внятный анализ видеокарт.
а че ты там не догоняешь?
@@user-angel91 передаю тебе привет
Взял себе 4060 в прошлом месяце... Отличная видео карта, за свою цену (32К), наконец смог в хорошие игры поиграть в стабильные 60 fps.
бу брал?
@@pushthetempo6067 нет, днс
Мне очень нравится когда не просто показывают результаты, а ещё и анализируют. Но мне сложно воспринимать ваши комментарии графиков на слух, хочется побольше визуального повествования.
Доходчиво, как всегда!
Лет 15-20 назад пытался людям это объяснить, но не было настолько глубоких технических познаний. Ваше видео на тот момент очень бы помогло
20 лет назад? да что ты звездишь. ты еще динозаврам может обьяснял?
@@Vadim_Andr. ага он видимо объяснял на примере geforce mx440 ))) - наверное самой массовой картой времён 2002-2005 годов
Из услышанного я понял что:
- это лучшее в русскоязычном сегменте разъяснение принципов работы памяти в видеокартах;
- я ничего не понял😊... но очень интересно!
Ну и зачем так открыто признавать свою тупость, тут разжевано для детей. Или ты дошкольник
Ничего сложного тут нету. Прям максимально просто и понятно. Не поймет только умственно отсталый..
@@Orbuzzonну значит я умственно отсталый. Что поделать
@@АрсенийФедоров-э5ж да не переживай ты, тут просто одни доктора наук кругом
Отличный обзор и тест. Особенно за часть с профсофтом, хотелось бы больше тестов в Adobe, CAD и, например, Stable Diffusion.
Согласен, лично мне особенно интересны Ansys/Nastran, софт для моделирования процессов, например литья. В общем, софт для конструкторско-технологической работы на заводике.
Сергей, обзор - супер! Спасибо за вашу работу на ю-тюбе! У меня только предложение есть: может в будущем так же будете делать сравнение мобильных чипов параллельно сравнению чипов для десктопов? Понимаю, что возможность может не всегда быть, но очень бы хотелось. А то у N-vidia - 3080 16Gb мобильная - это 3070 для десктопа, 4090 - это 4080 для десктопа, но как-то не всегда верится. Всех благ и спасибо, что вы есть!
Ну и зачем это? Сравнивать связку моб ЦПУ+ГПУ с десктопными ЦПУ+ГПУ нет смыла, так как условия тестирования разные.
@@savocheg Хочется понимать примерную разницу между современным мобильным решением и десктопным. У Ильи не так давно было ноутбук на 4080, можно эти футажи добавлять к тесту видеокарт. Надеюсь, получится как-нибудь в будущем Сергею и Илье сделать тест мобильного железа vs дестопного с одинаковыми названиями. 4080 + i9 13900, например.
@@DenisT87 что бы понимать разницу надо понимать железо.
Было бы интересно похожее видео с обзором показанных тут новых карт 40 линейки - конкретных моделей. Раз уж вы делали их тесты, наверняка есть что сказать по их шумности, температурам, свисту дросселей и вообще ощущениях от использования - ведь это очень важный момент для покупателя карт. Столько практического опыта не должно пропадать впустую, расскажите о нём.
свисту дросселей"
-в башке своей дурацкой свист устрани. и "свиста дросселей" больше никто не услышите😉
и вообще ощущениях от использования"
-🤣🤣🤣 итиотина!
вжжж вжжж пииипипипипип вжжжжжж
это у Викона лучше смотреть.
Единственно что отмечу. у Нвидии все карты под охладом, серии 4060/70 от разных вендоров что однояйцевые близнюки. Чуть чуть разные компоненты и только. Околодешман. отсутствие предохранителей.
а вот на 7600 сапфир предохранители поставил...
Я хорошо зарабатываю и практически ни в чем себе не отказываю. Но мне до сих пор хватает 1070 ti. Не вижу ни малейшего смысла покупать новые
Rtx 4090 не тянет киберпанк с лучами а ты говоришь хватает 1070 тi, так значит и 1050 хватит с монитором hd все зависит от степени реальзма, если иебе хватает 1070 то ты наверное гавнред😊
@@aleksandr9486 Вышел alan wake 2, который нагибает 4090 с выкл. dlss и дегенаратором кадров.
Несмотря на то что видел уже кучу обзоров и тестов, на карты нового поколения, этот ролик посмотрел с удовольствием и на одном дыхании. Спасибо за проделанную работу!
Добрый, спасибо за контент, хотелось бы в будущем видеть тесты в QHD без DLSS\FSR\XESS для наглядности и более объективной картины сырой производительности с предыдущим поколением.
Зачем тебе объективная картина если ты уже в комментарии показал свою не обьективность?)))
@@Alexander-qg5cqчтобы похвалить себя и свою старую видеокарту)
Спасибо большое за проделанную работу! Отдельная благодарность за объяснение шины памяти!
Спасибо за подробный обзор! В очередной раз убедился что сделал правильный выбор купив 3070ti год назад. Очень интересно было бы видео на тему подбора процессора для видеокарт чтобы полностью раскрыть потенциал видяхи но при этом не переплачивать за процессор.
На игры больше влияет поддержка DLSS, чем вся эта дутая арифметика пропускной способности.
DLSS 3.0 поддерживается только в 4 серии.
Кроме процессора, влияет также и материнка. Интел стал очень жадным на линии PCIe. Особенно в младших чипсетах.
А АМД как не умела хорошо работать с памятью, так и не умеет.
А мог бы взять амд и горя не знать
@@warchoon1 Мыло 3 .0. Просто вопрос а зачем
@@warchoon1 из 4 серии, разве что 4090 заслуживает внимания, но там есть свои проблемы с теплопакетом. DLSS 3.0 прикольная штука, но по факту это читинг. Вполне вероятно, что конкуренты догонят и аналоги станут доступны на все видеокарты. Тут нужно уточнить, что я оцениваю 4ую серию как владелец 3080Ti и с позиции апгрейда. Т.е. для владельцев начиная от 3060Ti особого смысла перепрыгивать на 4 серию нет. А вот если бы я на старье сидел, то, конечно, смотрел бы на 4-ю серию. В общем немного неоднозначная серия получилась. Флагман суперпроизводительный, но монструозный, горячий и есть случаи возгорания. 4080 непонятно зачем вообще нужен. Я бы очень плотно подумал на тему покупки гипотетической 4080Ti, если бы она отставала от 4090 на 7-10%, но была не такая горячая и с большим объемом памяти на борту.
@@ibra1lпо большому счету, все придирки к 4090 (кроме размера) выросли на волне первоначального хайпа. Она и холоднее чем многие видеокарты 30серии и ничего там не горит, если руки не из жопы. Так-то и железный шар сломать можно
ох, какая работа проделана, спасибо за теорию и тесты!
Царский лайк и уважение за такой материал, ребята вы делаете шикарные обзоры!
4060 это плевок в лицо покупателям, плата удешевлена вхлам, хотел купить, но когда увидел обзоры с разборками... Сразу передумал. Уровень китайского подвала.
Да норм варик вместо RX 7600, тем более RTX 4060 потребляет всего 110 Вт!
@@zoneloreа 300+ бьёт по карману? Посчитай годовое потребление
@@zoneloreнвидиа 4060 потребляет 110ват только в рекламе, по факту она жрет 135ват, есть целая статья об этом разоблачении. При этом имеет 4 урезанные фазы питания и одну на память. Для примера у 7600 потребление на 30ват выше, но фаз аж в 2 раза больше и цена ниже! Таким образом Нвидиа продает не видеокарту, а Frame Generator с фейковыми фпс, который многие не хотят использовать из-за артефактов в кадре. По факту Нвидиа за дорого продает ПО ухудшающее графику. Я считаю их гениями маркетинга!
@@a.v.9561 как там у АМУДЕ дела? Рейтрейсинг сделали?
@@RedDredDragonбоже🤦♂️
Наконец бородач показал обзор карт, близкой к реальной ситуации! 6600 XT рулит! ❤
нет..
@@Aleksey-vd9oc такой печальный ответ... Наверное, ты действительно расстроен этой новостью...
@@ЕвгенийФедулов-с6р 5600,6600,7600 ... я только продал 5600xt, пересел на нвидию - DLSS2 в сравнении с FSR2 божественный, что бы получить картинку сравнимую с FSR2, DLSS2 можно смело ставить даже не на "balanced", а сразу на "performance", а performance дает значительно больший буст в сравнении с FSR 2 в "quality".
DLSS3 ... короче на 4060ti можно если поиграться с настройками вытянуть трассировку пути в 50-60 кадров на CP2077 с приемлемой картинкой в 1080p....
А ты продолжай верить в свои скрепы, про шину, про память, про магический RDNA, про непогрешимость нативной картинки ;)
@@Aleksey-vd9oc Твой DLSS сдуется за несколько лет, потому что выйдет "новый DLSS", а старый DLSS игры поддерживать не будут. И ты останешься в таком случае с голой производительностью. Так что 6600 XT по чистой производительности на единицу вложенных денег выгоднее, чем карты Nvidia.
@@Aleksey-vd9ocтрассировку пути?...
Понятно, наркоман
И ясно тебе сказали, что дллсы и фсары это промежуточные кадры!
спасибо за обзоры! в этом году собирался обновиться с 1070 на 4070ti но посмотрев обзоры и сделав выводы решил не обновляться, потом когда-нибудь обновлюсь а то не охота платить за лучики и прочее, когда карта урезана по шине
не парься - через 10 лет обновишся . на 1070ти.
Курс растет думай
не парься - через 10 лет обновишся. на 1070ти.
Так возьми а770, у неё шина не урезана.
Я всегда за полезные видео с объяснениями. 128 бит это даже звучит грустно
128 бит = 1050ти
Как-то пришел в магазин покупать монитор. Продаван оказался начитанным и начал мне затирать про время отклика в секунду, равномерность подсветки, а время было такое, что IPS еще не был сильно распространен, я за него схватился, тем более, что понимал о чем речь. Под недовольную мину продавца купил то что мне было нужно и ушел. Иии недавно история повторилась с 3060 12гб. Я занимаюсь 3д рендером. Если сцена не поместится целиком в память видеокарты, то она просто не отрендерится, поэтому выбрал бюджетку с 12 гб видеопамяти. А советовали 4070 ти, мол, цена кадра ниже, скорость выше и всё такое. Короче, к чему я, нужно понимать свои потребности и рассчитывать на них, а то получится что как некоторые профики дизайнеры сидят на экспихе до сих пор и в ус не дуют, а просто им это всё не нужно, фотошоп 6.0, корел 9.0 и пошло всё в пень))))))
Спасибо за обзор, но если можно добавьте пожалуйста тесты в рендере на том же блендере. Спасибо!
Я взял 3060 потому что дёшево, и у меня PCI 3. До четвёртого не обновлюсь) довольно среднее железо. Но мне хватает. Да и 1660ti перестала вывозить по памяти. Хотя ещё живая. 3060ti чёт на 10к дороже была, я решил что оно того не стоит.
И к чему все эти понты были? Почему бы просто не сказать продавану что тебе нужно именно 12гб а не быстрый видеочип?
@@ShaMan1910 Ну конечно это было ради понта, а не чтобы быстрее получить то что заказал, а ты думал люди в магазин приходят покупать?
Добрый день! Для работы с графонием и видосами вы рекомендуете 3060, а не 4070?
Пытаюсь понять, что лучше в итоге будет. Но судя по обзорам, 4070 - не такая шоколадная. Уже нескольких сборщиков спрашивал, все говорят, что 4070 - норм. Но кажется они только по играм судят
@@Orsikmorsik Решает память. На 3060 12 гб, 4070, 8 гб. Сейчас уже можно найти 4070 с большим объёмом памяти. Если вы не рендерите видеокартой, то берите что угодно. Ориентируясь на бюджет знакомый купил 4060 16 гб. Занимается нейросетевой графикой, где некоторым моделям уже мало 12 гб, а 16 в самый раз.
В 40-й версии есть DLSS 3 и генератор кадров.
В 30-й версии этого нет.
Поэтому при включении этих технологий отрыв 40-й версии от 30-й составляет около 30%, что существенно.
Также, 40-я более холодная и ниже энергопотребление на 40 Ватт, что позволяет сидеть на БП 650 и не тратить деньги еще и на него.
Хейта много из-за цены и что DLSS 3 с генерацией кадров не завезли в 30-ю серию. А так 40-я очень неплохая карта.
так его просто отрубили на программном уровне, сами 20 и 30 ки могут спокойно тянуть dlss3 frame generation просто Хуан отрубил нам это что бы покупали 40 ки ... dll файл.. ну и потом фпс это хорошо ну а толку инпутлаг остается тот же ( сидишь ты играешь у тебя 40 фпс хуякс подрубил dlss 3 стало 80 а инпутлаг остался тот же ты же глаза просто обманываешь ну я к слову что да прикольно но не ахти что сверх )
DLSS 3 это по сути просто набор DLSS 2, генератор кадров и самое главное, как по мне, Reflex. DLSS апскейлинга делает игру немного заторможенной, особенно в шустрых сценах и вождения авто, рефлекс делает управление намного отзывчивее, и с DLSS становится играть проще. Хз, что сказать про генерацию кадров, но рефлекс - это самая лучшая и полезная функция, которую сюда добавили.
Ещё я бы взял 40 поколение, это новая архитектура, как и сказал автор того коммента, видюхи на Ada Lovelace менее требовательны к энергии, что плюс к БП и охлаждению, и эту энергию они используют куда эффективнее, и ФПС даже сможет подняться.
Про БП в точку, наверное это перевесило моё решение купить 40-ое семейство, чтобы не менять своего старичка бронзового 500 ваттника.
@@anonymus6312 уже 14 лет назад железо требовательное к питанию было и брать блоки по 400-500 ватт при апгрейде просто дурость. У вас запаса никакого нет. Носитесь все с этими блоками, как будто это роскошь какая-то. Купил 12 лет назад 750-ваттник и проблем не знаю.
@@anonymus6312 уже 14 лет назад железо требовательное к питанию было и брать блоки по 400-500 ватт при апгрейде просто дурость. У вас запаса никакого нет. Носитесь все с этими блоками, как будто это роскошь какая-то. Купил 12 лет назад 750-ваттник и проблем не знаю.
Давно я не видел настолько толкового и полезного обзора видеокарт :) Спасибо!
всегда такие были . ты просто не туда смотрел.
Дожили.
Сравниваем, что лучше 3060/3060 ti или 4060/4060 ti
Скажи кому, что раньше сравнивали 980 с 1060, кондражка хватит.
Нвидиа по сути продает DLLS 3, по железу карточки лучше не стали
Сергей, как всегда все на высшем уровне, все интересно и по фактам, большое спасибо!
Спасибо! Крайне полезно было узнать про шину, принцип подсчета ширины линий. И в целом ее влияние.
Единственно, что мало устраивает в продаже dlss 3. И маркетинга везде, о том что она дает прирост. Дело даже не в том, что я хейчу технологию, мол, вот она только рисует кадры, мылит картинку, увеличивает задержки.
А основное что не устраивает... Этой технологии нет на самом деле, нигде. Ну кроме киберпанка, и может еще 1-2 нормальных игр)))
99% потребителям вообще нет дела до всех этих шин, кэшей и мегагерц. Нас интересует конечный результат - отношение чистой производительности к цене.
Совершенно верно!
Ну за 99% не скажите
по чистой "производительности к цене" в данной подборке лидер 6600xt, но по статистике стим не скажешь, что она популярна
@@jiu4964 Вообще для многих индекс цена на кадр хрень. Если в игре нет 55-60 фпс (и это при фрисинке, без него должно быть 60+ чтоб лок стабилен был), то хоть бесплатно не надо.
Категорически не согласен. Недавно в одной группе некого Виктора человек спросил , что взять 3060ти, 3060ти на Х памяти или 4060ти. Я спокойно посоветовал 4060ти, но тут же налетели люди, которые начали рассказывать про шину, обрезки, пропускную способность. В итоге человек сразу понял что шина рулит и пошел брать 3060ти по цене 4060ти. Хотя преимуществ у 3060ти никаких по факту, разве что пара тысяч рублей
Ого, спасибо за обилие технических (с оговорками) деталей. Мне как прошраммисту графики было интересно слушать.😊
Спасибо за видос, работа проделана максимально качественная и долгая)
По поводу карт от зеленых, осталось только надеяться что Нвидиа не будет программно резать карты прошлой линейки, дабы показать какая 40хх серия классная
ага, как же. Это они вдруг возьмут и не станут делать то чем занимались 3 поколения карт)))
Не будет, просто не будет так стараться чтобы новые игры на них работали хорошо. И разница в кадрах будет постепенно расти.
Когда то были карты nvidea ge force 200mx на 32 мегабайта. Прошло 20 лет были случаи когда завод умышленно блокировал микросхемы на своих продуктах как на ge force. 5600xt.
Очень хороший обзор для всех, кто до конца не понимал про кэш и работу памяти. И судя по тестам в видеокарте главное шириша шины и достаточный для производительности карты объем, а не кэш. И пока что все еще лучше 3070ti по более низкой цене, чем 40я линейка, так как длсс 3 пока раскачается для всех игр уже и видюху пора будет менять.
Щас новая 4060 стоит так же как и бу 3060! На данный момент 4060 вполне адекватная карта за свою цену
Хороший ролик. Я вчера как раз купил 3060Ti. А юмор в том, что они практически одинаково стоят В МАГАЗИНАХ с 4060Ti, но зато на вторичном рынке можно взять за 20к (новые около 40к). Так что я просто купил с рук за двадцатку. Считаю отличным приобретением!
твоя логика с магазином равна арангутан развивающийся.
Не забудь об отвале памяти на 3060ти)
Нету взял. Надо было 5070TI брать, деревня.
Небось ещё радуешься Емеля)
Хотелось бы тесты скорости генерации в stable diffusion. Мне кажется этот инструмент уже вошёл в обиход для редактирования фото довольно плотно.
Тут пока все просто 3060(12), 3080 4070, 3090(Ти), 4090.
На 4060ти 16гб ещё пока инфы нет, смотрел по западным тестам.
Ни одна из представленных со своими 8 гигами даже рассматриваться не должна
@@Andrech1337то есть либо 3060(12) либо от 3080?
Как-то большой разлет выходит
@@Альпаковод что поделать, нейросети это тяжелая нагрузка, по-хорошему надо брать А4000 или лучше, там и памяти больше и сама по себе она лучше
@@Andrech1337 Вот и были б все нищтяки под нейронки в прокартах
А игровым эти фичи не нужны
19:38
"Все идет ровненько...и поездка в автомобиле..."
Тем временем поездка в автомобиле: ⬅➡⬆⬇🔄
8:44
У rx 7600 и 4060 ti пропускная способность равно 288 гбайт/с. На графике приведено значение 228 гбайт/с что неверно.
Так у них еще 272 ниже 228 и 240 ниже 228
Большое спасибо за проделанную работу!
Пока что это лучшее видео по сравнению! Которое хоть как то поможет при выборе видеокарты для покупки ! Честно говоря я в конце еще ждал сравнение в QHD лучи + длсс,фср 😅 может как-нибудь потом.
Спасибо за проделанную работу!
Интересно было бы еще и 4к посмотреть. У меня 4к монитор, в том числе для работы, видеокарта 3060Ti на 6x памяти. Мне для игр хватает, я за ультрами не гонюсь. Тот же киберпанк идет на 45-50 кадрах в 4к. Я думаю в 4к разница по шине была бы еще более видна.
Золотые слова
@G-Konstantin для 4к памяти не достаточно. можно было бы не писать свою дичь.
@@Vadim_Andr. Нормально хватает, я же играю и привел в пример тот же киберпанк - далеко не самую легкую игру, кстати он ест 6,7-7 видеопамяти, упора точно нет. Если взять тот же borderlands 3 - идет на все 60 кадрах, тест выставил автоматом разрешение 4к и настройки безбашенные, игра напомню на UE4 и в ней нет DLSS, все кадры нативные, честные, кушает 6,5 видеопамяти, примерно. Хогвардс автоматом выставил 4к и высокие настройки (местами ультра), с dlss баоанс и там достаточно большой апскейлинг выставляется, но картинка отличная - 50-60 кадров выдает, статоров нет, игра идет плавно, кушает памяти 7,4-7,5. Вот чего точно больше кушает при 4к, так это оперативы, 16 гиг точно не хватит, если в фул хд было 10-12, то в 4к 20-25, так что 32 оперативы обязательно. Я не спорю, что в ультрах мне не хватит памяти, но 3060Ti не карта для ульра настроек. Хочу также сказать, что четкость картинки в 4к значительно покрывает более низкую по качеству графику, плотность пикселей и картинка в которой не видишь пикселей тоже решает. Понятно что 2к тоже отлично, но как я говорил, мне 4к нужен в том числе и для работы, и брать второй в 2к для игр лично для меня нет смысла. Все что я написал не надуманное или с каких-то тестов, это то, что у меня есть, все данные взяты с оверлея MSI Afterburner. Процессор у меня не плохой, но по современным меркам древний - 8700к, возможно на современном проце показатели будут еще более интересные, по крайней мере показатель редких кадров.
@@G-Konstantin 7100 примерно уже максимум. Остальное резервируется под винду.
купил давно 3070 Ti и кажется она и сейчас остается оптимальным решением
За эти деньги мог бы взять Радик 6800
сейчас нет не *изди. б/у карточех хватает.
@@zemlynin_El у моего брата 6900хт асус на воде. , я бы свою 3070ти на амудешное ведро не променял.
Серёга молодец, рубит правду матку не смотря на бренды и характеристики.
RTX 3060 12 Гб берут ещё для работы со Stable Diffusion и таких людей много, сравнительно недорогой и мощный вариант. Было бы неплохо 3070 с 16 Гб памяти, но такого нет. Будет 4060 с 16 Гб памяти, но цена там обещает быть уже намного выше. Было бы интересно сравнить видеокарты в генерации изображений с помощью нейросетей.
боже... успокойтесь мамкины работники на видеокартах
@@NemesisLive а тебе то чё? Иди в доту играй
@@unitigp2 клоун, а причем тут дота?
3070 можно расширить память до 16гб
в новых драйверах даже копаться особо не надо - напряжение немного повысить и будет мутант с 16гб видеопамяти
@@NemesisLive , клоун тут только ты. От злобы не лопни.
Спасибо огромное за ваши подробные обзоры ❤ это великолепно просто
Я все равно запутался, в шинах ))но многое понял,спасибо большое за работу, вы молодец!
Старые добрые тесты 😊. Стоит ли переплачивать за длсс 3 и нужен ли длсс вовсе ?
не стоит,ибо это маркетинг,технология которая нихера не дает
Не стоит за эту фигню переплачивать, 4060 и 4060ti мусор за текущие цены, если и нужна средняя видеокарта, то лучше взять 7600, А770 (если не брезгливы с немного кривыми драйверами) или 6700 10ГБ.
Длсс 3 по мне это фикция, пустышка, генератор кадров конкретно.
@@stokl3877 я кстати тоже думал брать 4070ти-4080 из-за длсс3 но потом прикинув ,взял за 78к 7900хт,и просто кайф,мощность запредельная,и запас огромный
По отзывам в интернете FG добавляет очень заметный импут лаг. Лично для меня это неприемлемо даже в однопользовательских играх.
@@MaksimMaksimov74 Да, 7900хт это лучший вариант на сегодня, буквально лучшая инвестиция денег. Учитывая как АМД оптимизирует свои драйвера, то через годик 7900хт скорее всего будет обгонять 4080.
Если коротко, то все 4060 - кастраты, недостойные покупки.
Спасибо вам за столь детальные тесты с кучей объяснений!
Спасибо, Сергей! Как всегда, самый подробный и вдумчивый обзор!
Охватили одним видео, весь "бюджетный" сегмент этого поколения - к сожалению вышло оно, максимально убогим, но что имеем. Вся надежда на следующие линейки производителей. Думаю, 12gb станут новым стандартом, для бюджетного сегмента.
Ахах, тут бы с eah6970 на усосанную rx570/580 пересесть))
В чём убогость кроме жадности производителей? Стоили бы они в 2 рада меньше все были бы в восторге.
@@degitА с чего они должны стоить в 2 раза меньше, м?😂 Может ты у нас инженер-проектировщик, который заменит все станки из Нидерландов и удешевит производство?
отличный разбор и "+" за раскрытие темы "для простых смертных",
но есть и ложка -дёгтя- критики - обращу внимание, что использовалась *кастрированная* версия А770.
да, интел изначально тоже планировали делать А770 в двух версиях, но в итоге в серию 8ГБ карты не пошли (их делали только сторонние вендоры, да и то не много), и референсной явлется 16ГБ версия.
(а 8ГБ оставили более скромному А750)
График цены к ФПС должен быть дома у каждого, как котировки на биржах )
Наконец то более менее уложились знания про чипы, шины, линии. Спасибо за материал!
но на практике оно по другом.
Dude, come on, let's go, let's go ahead! The content is awesome, can we have more? You're amazing! Can we have more of this more often?👍😎♥️
Понимаю, что будь такая возможность - наверняка сделали бы, но в рамках речи про память и ширину шин хорошо бы вошли прямые сравнения карт a770 на 8 и 16 Гб, ну и 4060ti так же на 8 и 16 гб
нет.
Спасибо за тесты)
Лично я продолжаю сидеть на 1070 и наблюдать за этим "железным" шоу xD
Итересно посмотреть на новую встройку от амд в 7000, ну ещё на всякую экзотику, например как на канале м-техникс лайв, был видос, как специальную видюху под майнинг с шиной 1х переделали(ну или восстановили) на 16х))))
тебя никто не заставляет покупать, можешь хоть на встройке сидеть вечно и играть в 320p
@@user-nx6ep7jz4w он не играет, он наблюдает)
@@user-nx6ep7jz4w ути-ути-ути, какие мы дерзкие, по себе-то зачем судишь, жертва маркетинга? У нас нормально всё работает с приемлемым фпсом и без ваших мегановинок.
Если мозгов не хватает сопоставить свои нужды с возможностями железа, то кто тебе доктор? Продолжай копить гигафлопсы дальше, может быть когда-нибудь они тебе пригодятся...
@@Gamulyator если ты не знал, то новинки делаются не для того чтобы ты покупал каждый год новинку)
всем интересно , давай досвидания.
Титанический труд! молодцы, спасибо!
Отличный обзор! Стало интересно, почему в сравнениях не участвует 6650хт и 6700, было бы интересно посмотореть, и есть ли существенная разница к версий 00 и 50, все же в цене часто ращница есть
Иногда они по той же цене бывают, так что жалко, что их нет.
Купил не давно rx 6700 не XT, хорошая цена была, и пересмотрев множество роликов доволен, 160бит шина и pci-e x16, раньше всегда нвидии брал, но попробовав понравился родной софт АМД, и андервольтинг, и мониторинг в играх уже доступен.
@@ВиталийЛ-ы2вбро, а как с температурой?
4-9% быстрее чем 6600хт. я про 6650
@@lizardx6504у меня 6600хт дуал асус, изначально была очень шумной, сделай андервольт и отрегулировал вентиляторы, теперь красота, а насколько она слабее 6700хт и 7600? Есть смысл на них переходить с нее ?
Титанический труд, ценим всем ютубом! Ответили на важный вопрос для всех по поводу шины.
Ого, а как я пропустил это, лайк подписка, песня а не обзор. И разумеется благодарность!
мне просто интересно, в каких таких магазинах авторы видео увидели цены на 3070 ti 44к и на 6600 xt 26к, да и так, чтобы видеокарты были еще в наличии, даже без просмотра самих цен(а я смотрел цены на эти видюхи на самых популярных платформах и в магазинах) они кажутся ну просто абсурдными, да блин, если так задуматься, получается цена на нетопувую 3070 будет выше, чем здесь на 3070 ti
да, в ролике бред с ценами
А что не так и где вы смотрели? На Яндекс маркете в наличии от 26к 6600xt да и на озоне они есть. 3070ti по такой цене я не смог найти
@@SergeyKir-ee4rz ну вот к 3070ти как раз вопросы
Все просто нужно экомически продвигать новую память,которая имеют большую частоту.Самое главное НО новая память на широкой шине,будет давать поток который не обработает видеопроцессор,так зачем тратить лишние бабки.Поэтому когда не хватает производительности памяти для чипа GPU,расширяют шины,и добовляют микросхемы памяти.Этот цикл наблюдается очень много лет.
Если я правильно тебя понял, то 16 гб у интел на широкой шине не имеют смысла ?
@@_s.i.m_ Да,это элементарно,как и оперативная память, есть определённый объём который может обработать компьютер(gpu,cpu), и превышение её не несёт никакого положительного потенцила. Точно так могу вам сказать по поводу(ssd,m2) современные процессора такие как i7 i9 и аналоги AMD не могут обработать информацию с памяти быстрее чем 1 гигабай, поэтому загрузка windows и игр будет с одинаковой скоростью что на топовом Самсунге (1000$)m2 что на с среднего m2 у которого скорость чтения 2 Гб, построенные большие фабрики много людей работают, нужно это всё обкспечивать, поэтому маркетинг держит все на плаву. А выбор уже уже за потребителям, хочет он поддержать своего любимого производителя, или может не имеет такой возможности и хочет сыканомить.