А что вы думаете по поводу новой линейки видеокарт RTX 50? Поддержать донатом - www.donationalerts.com/r/dark... Бусти - boosty.to/darkrikoshet ТГ канал - t.me/dark_rikoshet
Сколько я каналов посмотрел, все сравнивают работу видеокарт с функцией rtx и это логично и правильно, я не спорю. НО! Я хочу узнать, что вообще по мощностям без RTX. Я презираю ртх с самого его начала. Сырая технология, грубо говоря, как героин младенцу вколатая игрокам, хочет развиться без нашего на то согласия. Играть с включенным ртх желания нет, меня устраивают тени которые и так раскиданы разрабами и я обязательно буду ждать, что по компоновке и производительности без ртх и стоит ли вообще тратить деньги на обновление.
Думаем, что это отстой. До тех пор пока вся видеокарта не будет работать над вычислением лучей, это так и останется маркетингом на костях действительно важной и нужной технологии.
Ну в общем если отмести онлайн соревновательные игры где решает скорость отклика, то с этой технологией можно насладится игрой в разрешении 2к и 4к на мониторах с большой герцовкой 144+ ну хотя посмотрим что будет.
Да ужас какой-то! Согласен, это не правильно не справедливо, а издатели так вообще продают виртуальные игры за большие деньги, а должны давать их бесплатно, как FSR у АМД!
@@Igor-Bond который кстати, вроде бы начиная со следующей итерации, также будет требовать аппаратных мощностей, как и длсс. всё, амуде закрылась от народа получается, не наш слоняра больше?
@@daga5627 дают при соответствующей нагрузке. 3090 и 4090 разница в производительности до 70%. При 56% отличии в ядрах. Поэтому может быть ещё быстрее, чем разница в ядрах из-за новой архитектуры. Ну и какие 10% нифиг? Самому не смешно?
В прошлом поколении, RTX 4070 Super за 600$ действительно соответствовала RTX 3080 Ti 1200$ по чистой производительности К тому же, RTX 4090 была в два раза мощнее, чем RTX 3090, без всяких генераций кадров А в этом поколении, судя по слайду с презентации Nvidia, RTX 5090 мощнее, чем RTX 4090 лишь на 25%, именно по чистой производительности Что самое смешное, так это то, что по цене RTX 5090 дороже на те же 25% 2000$, вместо 1600$ за RTX 4090, получается вообще никакого улучшения относительно мощности за доллар не произошло среди этих карт. У меня такое подозрение, что в этом поколении, AMD перегонят Nvidia по чистой производительности, вот это будет потеха, если так.
Путем оптимизации технологии в новых драйверах мощности видеокарты будут использоваться исключительно для обработки счётчика ФПС... А если серьезно - зачем они это делают? Ну будет в какой-то игре нарисованные 200 ФПС, но с жутким инпутлагом, выскакивающих и ниоткуда монстрами, артефактами и потреблением питания под 1к ват
Если бы включили мультифрейм для 2000 и 3000 линейки, то да, могли бы с гордостью говорить, что увеличили их производительность в 4 раза в ИГРАХ на пустом месте. А для 5000 линейке это выглядит, конечно, маркетинговой уловкой.
они эти мультифреймы разрабатывают, деньги вбухивают. надо же зарплаты платить) а если на старых картах все сразу включать, с чего они будут денюжки зарабатывать?) кто будет эти мультифреймы делать?
Вместо того, что бы сделать реально мощное железо для нативного 4к, крестьян уже который год кормят искусственными софтверными затычками, которые стопудово пишут исключительно под новые карты. С другой стороны, современное ААА превратилось в такое УГ, что обновлять комп стало почти бессмысленно, еще и за такие бабки.
А почему нет? Если Хуанг, снова втирает людям туфту, что и была до. Токо теперь вместо 1 ненастоящей картинки, будет сразу - 3. А игра как шла в 30фпс. На 4070. Так будет в 30 и на 5070. Смысл.
@@antonwestakov648 5070 дешевле на 50$. 5070 в чистой производительности мощнее 4070. +длсс на 2к , 4к выглядит нормально. Переход с 4070 на 5070 не имеет смысла.
@@antonwestakov648 Ты хоть смотрел как длсс работал или только слушал деда который сидит на б/у 3080 и хейтит обсалютно все, не учитывая цену, производительность с прошлыми картами и энергоэффективность
Все идет к тому, что нвидия продает тупо дллс в картах, а не чистую производительность по факту. Ненужно будет особо наращивать мощности, а тупо делать программный дллс с каждым поколением карт, и фпс будет удваиватся. Так они потом сделают генерацию не трех кадров, а 5-6 к примеру и цены ставят космос. У меня есть 4080 2к монитор, и я плевать хотел на эту 5 серию. Мне моей карты с 2к разрешением притом в нативе хватит еще на очень долго, примерно до года 2030 можно не парится со сменой карты, в целом апгрейда пк. Тобишь у меня 12700к, 32гб ддр5 оперативы и 4080, как уже сказал. Пред топ комп, который будет еще много лет тянуть игры.
Ну ведь можно купить чистую производительность от конкурента в лице АМД, и не парится, даже не смотреть в сторону Нвидиа, которая продаёт только DLSS, верно?
@@Igor-Bond Не фанат амд, всю жизнь сижу на нвидия, да еще я наслышан про баги с драйверами амд. Как там щас, не знаю с этими драйверами, но переходить на амд не стану.
@@Владик1985 я владелец 7900хт нитро + и 5700х рузена, вылетов нет, ну разве что если не накидывать на адреналине частоты на которых карта не способна работать. Про хотспот 100 - тут скорее к исполнению, при разгоне и потреблении 400вт было 90, и то единажды, так 85-87 (лето, жара). Есть ли баги у амуде? Нет, есть фичи в виде повышения чëткости и пр функции адреналина, а также возможность настроить карту как хочешь и без автарбëрнера.
А какого хрена? Они на 5080 сделали 16Гб? На 4080 столько же и этого мало для локальных нейронок. По мне это петушиный поступок, походу оставили зазор для 5080ti на 24Гб
Единственная глобальная притензия к нвидиа, это заоблочные цены. Я бы купил условную 5050Ti за 125-199$. Но 200$ для меня психологический барьер который я никогда не перейду, какая бы хорошая видеокарта не была и какой бы прекрасный dlss там не прикрутили. Пока у них с ценами такая бубуйня, я быду юзать apu от amd, где за те же условные 200$ я получу и хороший проц и приемлемую графику, что бы худо бедно поиграть во все современные игры. Так что не видать Хуангу новой кожанки за мой счёт, пусть ему куртки оплачивают те, кто у него сервера под нейронки покупает.
Ты не их целевая аудитория на сейчас. К сожалению, они отказались от бюджеток вообще. Причем, если смотреть с 700-й серии, каждые два поколение, идет проседания. Т.е. если 750Ti - была прям хорошим геймерский решением в своем поколении, То, 2060 стал таким минимумом.
Просто пора ПЕРЕСТАТЬ сравнивать производительность графики в играх, тогда и разводов таких не будет. Сравнивайте в монтаже, в матвычислениях и прочем.
@@SiMBi0ZZA Когда ты слезешь с шеи родителей, и будешь сидеть 8 часов над просчетом задачи за компом вместо 2-3 вот тогда и говори - на кой оно надо! Время- деньги
Это тебе не амд, которой и 32 гига мало будет в qhd. Если не заметил, то в презентации ещё и нейронные текстуры показали, которые весят в 2 раза меньше🤷
Еще одно чучело вылезло про видеопамять😂, сейчас еще про шину начнет затирать. Давай. Только лбди покупают, и играют на ультрах в 60++++ фпс. Но ему все, Чего-то, Где-то не хватает.
Я хз зачем эти генераторы кадров, если латенси не заметно лишь от 60 кадров, чего вполне хватает для 90% игр, ведь они не соревновательные. Ну будет у вас не 60, а 180 кадров и толку?
Согласен, от увеличения цифр ничего не меняется, кроме самой картинки, увеличенная задержка реально больше приносит дискомфорта, чем эти цифры в верху экрана радости!;)
Ну при задержке от 70 фпс вполне комфортно играется в киберпук, но плавности немного не хватает. Для меня плавно от 100 фпс. Поэтому FG помогает. А вот зачем х4 сделали уже действительно не ясно.
@@Directx11cool Да, я в курсе. Вообще-то это был сарказм. Ты это не мне объясняй, а зеленному хомячью здесь и на других каналах с разбором 5000 линейки. Как на том-же Селектфром.
@@x_bat9_cah4e3_x6 Расстрою тебя но да задержка + мыло + артефакты и расскажу прикол что генка работает нормально только если круглые кадры 30/60/120 если у тебя в игре нет 30 как показана теста на киберпанке где без генки 24 а с генкой 240 будет чуствоваться очень плохо даже хуже чем 24 потому что карта просто не дотягивает до 30 чтобы генка нормально работала
ЕСЛИ без DLSS производительность в Cyberpunk 28 кадров, то нафига мне нужна карта за 1500$ ? DLSS это был шанс для маломощных карт, хоть как то отрисовать 60 FPS для требовательных игр. Зачем мне искусственные 270 кадров, они не добавят отзывчивости управления, это будет мыло и ватное управление с задержкой несколько десятков MC. По ходу в чистой производительности мощности у NVIDIA закончились еще на 10й серии, 1080ti была последняя карта, которая отрабатывала каждый вложенный рубль и каждый потребленный ватт электричества.
По такой логике, Ryzen 7 1700, благодаря божественной генерации кадров NVIDIA, становится в 4 раза лучше, а значит его можно сравнивать с Ryzen 7 9800X3D Кто не знал, на генерацию кадров процессор никак не влияет, то есть если процессор может выдать 40 кадров, генерация кадров все равно может рисовать больше кадров
Честно, всю жизнь сидел на зеленых и красные даже не рассматривал. Но DLSS в современных играх такая шляпа, что пипец. Во многих играх просто отключаешь что бы мыло убрать. Где то читал, что все это мыло началось с ТАА сглаживания. И что бы DLSS что то адекватное показал, то нужна во первых игра с правильно рабочим DLSS, а во вторых в идеале 4К разрешение. Решил, что следующую сборку буду пробовать делать только на красных.
1:50 не знаю.зачем тогда выложил свое видео?там речь о процессоре повышенной производительности Blackwell, предназначенный для технологий искусственного интеллекта (ИИ)
Да что вы такое говорите, вы не правы, надо играть в игры с 4К разрешением без апскыйлеров, и сглаживания, в нативном разрешении и с 30 кадрами в секунду, а не в с этими DLSS и 144 кадрами, это кащунство играть с огромным количеством кадров в секунду!
@ с path tracing конечно будет так. Это игра использует его по максимуму. Такая маленькая видеокарта не сможет тебе в таком разрешении 60 фпс сделать. Вот и применяются технологии
@@Chidorinа какой смысл сравнивать устройства , когда для 5090 появился новый тип вычислений? Итак ясно, что по голой производительности прирост будет процентов 30.
Нвидия получает 80% прибыли от корпораций. Что нужно корпам? Нейросеть, или майнинг. А что надо ему? Больше и ядер и видеобуфер. Нужны ли им ФПС в играх? вообще нахер не впали. Понимаете куда и для кого развиваются видеокарты? ДЛСС это попытка убить 2 зайцев, заставить геймеров покупать видюхи которые по сути им не нужны и дают мало производительности.
@@Igor-Bond ну запусти любую игру на UE5 с длсс 3/3.5, а затем быстро смени направление взгляда несколько раз - увидишь что все в артефактах. ДЛСС вывозит исключительно в статичных сценах без сильной динамики, во всех прочих картинка превращается в шлак из артефактов.
Не,ну если это чисто с длсс 4 такой прирост тогда ладно,но если это считается при включенном FG-это убого. Я пару раз включал эту frame generation,так там мало того что задержка чувствуется очень сильно так еще и при движение картинка размазывается жестко.Но вот чисто длсс 3.5 без fg мне нравится,картинка четкая на 2к монике при настройке «качество»
Ну если подумавть вообще нафиг нам куча немереных кадров, я вас умоляю видюхи выдающие в 2k в играх 100фпс более чем достаточно за глаза вы супер пупер человеком из за 200фпс не станите эти видюхи нужны только для монтажа видео и ИИ
т.е. на видеокартах 40-й серии нас не ждут эти задержки новых технологий с добавлением 3-х кадров -- ну и хорошо, Хуанг прогревает Гоев... Если всё так плохо, ждать нам реальные мощности ещё 2 года, можно на 40-й серии пока пересидеть, и посмотреть на видеокарты АРКИ от INTEL, Хуанг им явно фору даёт на 2 года - показать что INTEL выкатит, если АРКИ появятся с технологиями Ai это даже очень хорошо, у INTEL неплохой потенциал в области ИИ - в эту сторону смотреть нужно, и пока сидеть на 40-х видеокартах.
нвидиафанбоев не спасти, они реально думают что растянув как в презентации 1080п до 4к детальнее будет, есть ещё виды сглаживания и длсс это тоже сглаживание только сегодня один узнал, с такими фанатами можно и 3.5гб видеопамяти продавать 5060, всё равно не заметно.
@effgeffer761 вообще-то карточка вышла в 20-х годах, и на момент выхода тянула всё на ультра в 2К, ну кроме АРК, там фпс скакал 30-40, но на высоких настройках 70-75 без проблем. Я и другие игры тех лет прошёл с удовольствием, никаких лагов. А сейчас главное новые драйвера не устанавливать, оставаться на дровах 2022 года. Сейчас она и новый АРК тянет в средне-высоких настройках в 65-75 фпс. Более оптимизированеые игры вообще на ура идут. Смысл её менять только после перехода на 4К. Хотя откуда вам знать о моем опыте с видеокартами, ведь начинал я ещё с 64-мб видеопямати с компьютером Intel - 2, когда большинства из смотрящий это видео ещё и в планах не было 😁
@RD_tech2185 я не играл в эти игры, что ты написал, они мне не интересны, это проходные игрухи. Там и оптимизации никакой, вот тебе и не хватает 8гб. Но то, что эти 8 гб забиты под завязку в некоторых играх - это так. У меня была 3060 ti, я её в майнинг потом отправил, а после продал. 3070 всё же помощнее как-никак.
А в блендере и других прогах Куртка Хуанг нарисует мне производительность при рендере 8к сцены на своем ДИЭЛ'ASS 4? Тогда беру амуде, там хоть память есть, которую могу без остатка на рендер кинуть
Читал сравнение видюх в блендере, там 7900 XTX слил допотопной 3080 в 2 раза почти, то есть это уровень плюс-минус 3060... Да и в целом брать карты АМД для работы... вы там держитесь, удачи 😁
Не только Хуан, меня даже Зяоми програла на деньги, продав мне новый Смартфон! А вот мой сосед по подъезду не прогреваемый, пользуется техникой 15-20 летней давности и копит денежки, он рассказал что уже 2 250 000 рублей накопил, когда я его угостил пивком, за свои 75 лет жизни, вот человек молодец что не прогревается на все эти маркетинги, правда плохо одно, он одинокий, сын его умер давно, жена тоже умерла!
Смотря для кого как, если кто-то реально думает что 5070 круче, и возтмет по этой причине, то тут можно по плакать. А так 5070 будет мощнее 4070 и дешевле
12:17 а вот не такой же будет инпут лаг, а больше сами Nvidia заявляли, что инпут лаг такой же, если включен DLSS Quality + Nvidia Reflex это как два энергетике тестировать на спортсменах, при том, что один спортсмен в обуви, а другой босиком нужно сравнивать, когда оба спортсмена в обуви))
Смотри на плюсы и минусы, 7900хтх дороже, но мощнее в голой производительности , 384 бита шина, 24гб видео буфер. 5070 дешевле, лучше в трасровке, длсс 4, нейронки.
Я как обладатель rtx 4080 очень жду завтрашнего обновления Lossless Scaling. С этой прогой комфортнее играется в неоптимизированные игры Stalker 2 и Indiana Jones and the Great Circle. Не понятно вообще для чего покупал такое железо, если современные игры без костылей не тянет
DLSS 2 это по факту не вторая версия, а версия, включающая в себя только апскейл и сглаживание. в 3-й версии добавили еще одну фичу, теперь назвали ее 3-ей
Хотим мы того или нет, но от технологий никуда не деться. Раньше вместо "честной" попиксельной обработки изображения придумали шейдеры, теперь DLSS кадры рисует... Опять же игроделы будут чем дальше, там больше на эту технологию полагаться и тем, кто ею не будет по каким-то соображениям пользоваться будет очень печально играть из-за отсутствия оптимизации.
Все равно гоев уже прогрели и цена 4090 на вторичке уже поползла вниз из-за одного только анонса 5070 :D Потому что кому нужна 4090, когда есть "такая же" 5070. Хотя 5080, которая на 600$ дешевле - реально даже не такая же, а мощнее. Короче, как бы там ни было, прогрев гоев состоялся.
проблема рт нет мощностей для него проблема длсс нельзя использовать в играх где её не внедрли сами разрабы фрейм ген дерьмо хз как вообще можно её хоть немного хвалить рефлекс крутая фишка но опять же нет в драйвере что бы юзать везде И самое главное нужны мощностя а не технологии и та же видеопамять о которой все ноют нах не нужна если сам камешек не справляется, покрутите разрешение в играх и глядя на фпс посмотрите на загрузку гпу и загрузку памяти Посыл правильный что нас дурят но люди сами хотят верить в чудеса увы(
ты откуда производительность найдёшь? АЛЁ 5070 В растре есть уже 250ватт. Без всяких лучей, длсс и прочей мишуры. Твоя 5070 упирается в возможности тепловыделения, который сейчас уже не решить. Техпроцесс тормозит своё развитие. Раньше видеокарты от улучшения нанометров и бустились, а сейчас уже нет, так как раз в 2 года TSMC выпускает новое поколение техпроцесса, которое на 20-30% энергоэффективнее предыдущего. BRUH. Каким образом ты сделаешь видеокарту производительнее нынешней 5070?
@@home_bt8218 наверное можно сделать монстр-видюху с потреблением > 1 кВт и стоимостью в $дохреналлион, вопрос кто себе такое в домашний ПК купит, 1.5 энтузиаста? И где эту производительность реализовать, если игры разрабатывают под консоли в первую очередь?
@@home_bt8218 ой вода такая надёжная, а жидкий металл надёжнейшая вещь. Воистину. Мы же видеокарты покупаем на три года. А через 3 года пусть хоть спаяется. Проблема даже не в охлаждении, а в потреблении как таковом. Увеличиваются радиаторы и прогары и увеличиваются требования к блокам питания, что не норма. Я не собираюсь сидеть и играть в игры на пк, который в игрушках кушает 1 кВт
Dlss мы не можем использовать сразу, потому что длсс обучают для каждой игры. Драйвер то может и позволяет включить длсс там где нет, но кадров останется скорее всего столько же.
5070 будет такой же как и 4070. Ширина шины таже. Количество памяти тоже. Наверняка чип тот же с малюсенькими доработками в сторону ПСЙ5.0 И подправленным блоком ДЛЛС 4 (который кстати ни*уя не новый, так как был уже в 40-й серии). Короче, без разницы что покупать. 4070 или 5070. Покупайте что дешевле! ИМХО
я думал что кудаядра будут мощнее, но когда увидел разницу в чистой производительности между 4090 и 5090 понял, что остальные карты будут просто шлаком, там же вообще жесткий недобор по чипу
а прирост по частоте памяти и чипа , ты посчитал )? покупайте что дешевле. Чтоб давать советы надо иметь мозги и способность разбираться , Купи себе утюг лучше....
Спасибо за выпуск, интересный вопросы раскрыты. А то прям многие в восторге от презентации и восхваляют КУРТКУ за заботу о геймерах - мол, подвезли и цены и производительность. Всех благ и тёплых эмоций ближнему кругу ❤
Я честно не понимаю проблему. Сам пробовал DLSS и генерацию кадров, не понимаю почему +- всем не по нраву эта технология. В чём проблема, что половина кадров не настоящая, если это выглядит лучше, чем мало нативных? Да, соглашусь, что сгенерированные кадры иногда или даже часто могут быть искажёнными, рваными в качестве. Но глаз через пару минут привыкает к этому, и эти "фальшивые" кадры выглядят с нативными лучше, чем чистый натив. По поводу Super Sampling-а тоже не понимаю. Да, конечно, иногда сложные в понимании места на изображении для ИИ модели могут искажаться и быть неестественными, но опять же уходим в человеческий фактор того, что глаз привыкает, и таких проблем не замечает. Подведу итог высказываний. DLSS желателен при игре с трассировкой лучей/путей для облегчения вычислений видео ускорителя, и отлично с этим справляется, создавая плавную картинку, ценой искажениями изображения. Но что же лучше? Любоваться логичной, но слегка искажённой графикой, или попытками её повторить такими методами как Screen Space, VXGI и т.п? Лично в моём вкусе будет первое, потому что разницу между нативом и "фальшивкой" не замечаю спустя время. Я могу согласится, что выбор это дело каждого, многие хотят честное изображение без артефактов, а некоторые готовы немного жертвовать качеством, но получать логичную картинку. Я понял проблему, многие люди платят много своих денег, но не получают требуемого ими результата за такие большие деньги. Ругают за это компанию, однако, если посмотреть с лица компании, то основная задача компании в бизнесе. Nvidia отлично делает вычислители для сложных вычислений, что многое время подходило для графики в видеоиграх, из за чего они и делают видеокарты. Но также оказалось, что особенности архитектуры GPU подходит для вычислений ИИ. Многие компании заинтересовались в разработке ИИ, и также оказалось, что Nvidia может предложить чуть ли не лучшее решение для этого. Поэтому Nvidia посмотрела в сторону ИИ, но стараются не забыть про игроков, и пытаются внедрить их технологии в видеокарты, из за чего люди и не получают нужных вычислительных мощностей. Получают значительные улучшения в ИИ, и эти улучшения стоят денег, но людям не нужен ИИ. Я, кажется окончательно понял, почему многие ругают новые видеокарты и компанию. Если я не прав, то, пожалуйста, поправьте меня.
Единственный минус это цена. Это я как владелец карты от красных пишу. Для меня все таки цена имеет решающее значение. И будущее это апскейлы, как бы нам не хотелось. Встали мощности , "нанометры заканчиваются" нужны новые технологии.
Мощности встали и нанометры уже лет 10 ни как не закончатся. Капиталисты выжимают все соки из потребителей, козыряя своими чудо технологиями и костылями, которые были-бы не нужны, если бы изначально ускорение RTX реализовали на отдельном чипе, как это когда-то было c Phyisx. Да-да, была отдельная плата с чипом ускоряющим физикс и за него нужно было платить отдельно! А сейчас, нам даже выбора не дают. Нужен тебе RTX или нет - ты все равно за него заплатишь.
@@dofiga1309 уже даже tsmc говорит о 2 нанометрах как о чем-то сложном. Ядерных технологий тоже не предвидится и капиталисты тут не причем. Либо надо архитектуру х86 менять и все вот это допотопное что тянется еще с начала времен. Но весь готовый софт итд этого не позволит сделать. а ближайшем будущем так точно. Что касается rtx так ведь есть тензорные ядра они и выполняют роль того самого чипа как было у физикс. RTX это сложно, общитать в реал тайме или зарендерить готовое видео как в кино - это разные вещи и мощности.
Проблема в том, что несознательные потребители без способности критично мыслить активно способствуют процветанию империи Хуанга и отсутствию у неё нормальных конкурентов.
Меня в комментах на полном серьезе один чел уверял вчера, что он уже тесты посмотрел в сети 5070 vs 4090 и она типо одинаковая по производительности. Я конечно вежливо объяснил ему, что эти тесты, как и 98% сравнительных тестов железа в сети это фейки. Реальные будут только ближе к 30 января. Пытался ему объяснить, что комппния не будет торговать себе в минус выпуская карту за 500 долларов с производительностью 4090. Так наивно думать. Это не серьезно. Куда тогда продавать 4070ti, 4080 и 4090? Которых еще достаточно на скаладах. Да и по чём их продавать, если на авито по его локике 4090 полетят за меньше чем 100к. Такой фантазер. Объяснял ему, что это сравнение 5070 с мультигенератором и голая 4090. А по сухой мощи ей дотянуть бы до 4070ti. Но он непоколебим. Ждет извинений после 30 января. Это поколение потеряно.
Генерация нескольких кадров на 5 серии эксклюзив не просто так. Хардвар анбоксед пояснял почему. Генерация кадров в 4 серии частично работала на цпу, а в 5 серии всё перенесли на гпу. То есть 4 серия аппаратно не умеет делать то, что умеет 5 серия при генерации.
Ну FSR это же апскейл, а генерация это уже дорисовка искусственно, тут надо смотреть на качество, dlss в сравнение с FSR сильно картинка шакалится это очень заметно.
4:37 Автор вы читали что там написано под моделькой генерации картинок Flux? В 4090 использовался типа FP8 а в 5090 использовался FP4! Нормально да? Прогресс не за счёт технологического ускорения умножения чисел, а за счёт уменьшения точности вычислений в два раза.
@@sanya_cev Посмотрел я этот ролик, даже с переводом, ииии, заметил что в настройках DLSS стоит режим производительности, а не баланс или качество, а это уж сильно снижает качество картинки, будем ждать тестов у других Ютуб блогеров!
Генерация ВСЕГДА генерирует в 2 раза больше фпс, ровно в 2. Просто мощности, которые необходимы на генерацию съедают часть нативного ФПС, из-за чего итоговый фпс может быть меньше.
Ты каким местом смотрел, наидиа всегда программного обновляет что возможно вплоть даже 20 серию карт, если для этого требуется аппаратная модель внутри карты естественно это будет работать только так где она есть
А что вы думаете по поводу новой линейки видеокарт RTX 50?
Поддержать донатом - www.donationalerts.com/r/dark...
Бусти - boosty.to/darkrikoshet
ТГ канал - t.me/dark_rikoshet
Сколько я каналов посмотрел, все сравнивают работу видеокарт с функцией rtx и это логично и правильно, я не спорю.
НО!
Я хочу узнать, что вообще по мощностям без RTX. Я презираю ртх с самого его начала. Сырая технология, грубо говоря, как героин младенцу вколатая игрокам, хочет развиться без нашего на то согласия. Играть с включенным ртх желания нет, меня устраивают тени которые и так раскиданы разрабами и я обязательно буду ждать, что по компоновке и производительности без ртх и стоит ли вообще тратить деньги на обновление.
Что Хуанг в край уже обнаглел в виду отсутствия реальной конкуренции со стороны родственницы.
Думаем, что это отстой. До тех пор пока вся видеокарта не будет работать над вычислением лучей, это так и останется маркетингом на костях действительно важной и нужной технологии.
Ну в общем если отмести онлайн соревновательные игры где решает скорость отклика, то с этой технологией можно насладится игрой в разрешении 2к и 4к на мониторах с большой герцовкой 144+ ну хотя посмотрим что будет.
никогда не было и вот опять - Нвидия виртуальные кадры продаёт за реальные деньги!
Все кадры виртуальные умник...
Да ужас какой-то! Согласен, это не правильно не справедливо, а издатели так вообще продают виртуальные игры за большие деньги, а должны давать их бесплатно, как FSR у АМД!
@@Igor-Bond который кстати, вроде бы начиная со следующей итерации, также будет требовать аппаратных мощностей, как и длсс. всё, амуде закрылась от народа получается, не наш слоняра больше?
таки меня это устраивает
@@siffzeL_ К сожалению да, если хотя бы на 30-ой серии можно будет запускать при помощи модов это уже хорошо.
Голую производительность не показали, я думаю там прирост 10-20% максимум, вот и не показали.
около 30%, если считать ядра
@artem123654 ядра не дают эквивалентный прирост. Надо смотреть тесты.
@@daga5627 новое поколение обычно даёт больший прирость производительности на ядро
@@daga5627 дают при соответствующей нагрузке. 3090 и 4090 разница в производительности до 70%. При 56% отличии в ядрах. Поэтому может быть ещё быстрее, чем разница в ядрах из-за новой архитектуры.
Ну и какие 10% нифиг? Самому не смешно?
Показали же, серые графики это без всяких апскейлеров и генераций
У Хуанга куртка блестит прямо с трасировкой лучей и DLSS 4 😅🤣
Ахахахаха
- У вас есть кадры?
- Кое что по лучше, рисунок кадра😂
В прошлом поколении, RTX 4070 Super за 600$ действительно соответствовала RTX 3080 Ti 1200$ по чистой производительности
К тому же, RTX 4090 была в два раза мощнее, чем RTX 3090, без всяких генераций кадров
А в этом поколении, судя по слайду с презентации Nvidia, RTX 5090 мощнее, чем RTX 4090 лишь на 25%, именно по чистой производительности
Что самое смешное, так это то, что по цене RTX 5090 дороже на те же 25% 2000$, вместо 1600$ за RTX 4090, получается вообще никакого улучшения относительно мощности за доллар не произошло среди этих карт.
У меня такое подозрение, что в этом поколении, AMD перегонят Nvidia по чистой производительности, вот это будет потеха, если так.
ну так нет же конкуренции в верхнем сегменте, вот и творят что хотят.
Путем оптимизации технологии в новых драйверах мощности видеокарты будут использоваться исключительно для обработки счётчика ФПС...
А если серьезно - зачем они это делают? Ну будет в какой-то игре нарисованные 200 ФПС, но с жутким инпутлагом, выскакивающих и ниоткуда монстрами, артефактами и потреблением питания под 1к ват
Чистый маркетинг чтобы продать свой кал
казуалам впарить так легче, вот и всё.
Скорее всего уже исчерпали мощности кремния, поэтому начали продавать искусственные фпс за реальные деньги
У тебя на рука эта видеокарта есть, что ты так говорить?
@@pooo1shovel Опа… свидетели зеленых подъехали…
По сути смотреть прохождения на ютуб это 100% ненастоящих кадров, это как бы более совершенная технология
Если бы включили мультифрейм для 2000 и 3000 линейки, то да, могли бы с гордостью говорить, что увеличили их производительность в 4 раза в ИГРАХ на пустом месте. А для 5000 линейке это выглядит, конечно, маркетинговой уловкой.
они эти мультифреймы разрабатывают, деньги вбухивают. надо же зарплаты платить) а если на старых картах все сразу включать, с чего они будут денюжки зарабатывать?) кто будет эти мультифреймы делать?
Для меня NVIDIA уже синонимом RAZER стала и цвет у них один.
Вместо того, что бы сделать реально мощное железо для нативного 4к, крестьян уже который год кормят искусственными софтверными затычками, которые стопудово пишут исключительно под новые карты. С другой стороны, современное ААА превратилось в такое УГ, что обновлять комп стало почти бессмысленно, еще и за такие бабки.
Они старые карты отбрасывают включенным принудительно рейтрейсингом! Индиана Джонс не запускается на GTX1080ti хотя она мощнее чем 3060
Так и что в итоге? Если выключить дрысню в виде генерации, то 5070, выдаст те же, 30fps? Ммм...💩
Сенсея насмотрелся
А почему нет? Если Хуанг, снова втирает людям туфту, что и была до.
Токо теперь вместо 1 ненастоящей картинки, будет сразу - 3. А игра как шла в 30фпс. На 4070. Так будет в 30 и на 5070.
Смысл.
@@antonwestakov648 5070 дешевле на 50$.
5070 в чистой производительности мощнее 4070.
+длсс на 2к , 4к выглядит нормально.
Переход с 4070 на 5070 не имеет смысла.
@@antonwestakov648 Кстати все картинки не настоящие, это лишь пиксели, циферки.
@@antonwestakov648 Ты хоть смотрел как длсс работал или только слушал деда который сидит на б/у 3080 и хейтит обсалютно все, не учитывая цену, производительность с прошлыми картами и энергоэффективность
Все идет к тому, что нвидия продает тупо дллс в картах, а не чистую производительность по факту. Ненужно будет особо наращивать мощности, а тупо делать программный дллс с каждым поколением карт, и фпс будет удваиватся. Так они потом сделают генерацию не трех кадров, а 5-6 к примеру и цены ставят космос. У меня есть 4080 2к монитор, и я плевать хотел на эту 5 серию. Мне моей карты с 2к разрешением притом в нативе хватит еще на очень долго, примерно до года 2030 можно не парится со сменой карты, в целом апгрейда пк. Тобишь у меня 12700к, 32гб ддр5 оперативы и 4080, как уже сказал. Пред топ комп, который будет еще много лет тянуть игры.
влажные мечты
Ну ведь можно купить чистую производительность от конкурента в лице АМД, и не парится, даже не смотреть в сторону Нвидиа, которая продаёт только DLSS, верно?
самое разочеровывающие что игры новые будут в упор по производительности dlss. как сталкер без апскейлера мыло и шумы
@@Igor-Bond Не фанат амд, всю жизнь сижу на нвидия, да еще я наслышан про баги с драйверами амд. Как там щас, не знаю с этими драйверами, но переходить на амд не стану.
@@Владик1985 я владелец 7900хт нитро + и 5700х рузена, вылетов нет, ну разве что если не накидывать на адреналине частоты на которых карта не способна работать. Про хотспот 100 - тут скорее к исполнению, при разгоне и потреблении 400вт было 90, и то единажды, так 85-87 (лето, жара).
Есть ли баги у амуде? Нет, есть фичи в виде повышения чëткости и пр функции адреналина, а также возможность настроить карту как хочешь и без автарбëрнера.
А какого хрена? Они на 5080 сделали 16Гб?
На 4080 столько же и этого мало для локальных нейронок.
По мне это петушиный поступок, походу оставили зазор для 5080ti на 24Гб
хуанг конечно мог бы добавить больше памяти, но тогда бы ему не хватило денег на новую куртку с трассировкой
@Latinonos
Кто там в облаках, самолёт или птица, нет это хуанг в лучах искрится
хочешь работать на видюхе, покупай 5090, а если хочешь играть, 16 гигов тебе хватит на ЛЮБОЙ тайтл в 4к
@sluckydog657
Да хочу работать и играть. Но 16Гб для 5080 реально мало.
А 2000$ за 5090 реально много.
К чему крайности?
@@banderprofiи в чём ты будешь работать?) В пэинте тебе и встройки хватит, а нейронку ты чему будешь обучать? Как апнуть 2к ммр в доте?😂
17:15 - эта прога работает в 0.1% случаев и постоянно крашится, хз зачем вообще её сделали
Продолжаем сидеть на RX6600.
🤮
я тоже сидел, и чего раньше не купил 4070супер😆
rx470 )
@@АлексейСтипанович что тоже жрёт после даунвольтинга в пике 90 ватт и можно взять на Авито за 15-16 штук?
А я 6800ХТ заменил на 7900ХТ)
Единственная глобальная притензия к нвидиа, это заоблочные цены. Я бы купил условную 5050Ti за 125-199$. Но 200$ для меня психологический барьер который я никогда не перейду, какая бы хорошая видеокарта не была и какой бы прекрасный dlss там не прикрутили. Пока у них с ценами такая бубуйня, я быду юзать apu от amd, где за те же условные 200$ я получу и хороший проц и приемлемую графику, что бы худо бедно поиграть во все современные игры. Так что не видать Хуангу новой кожанки за мой счёт, пусть ему куртки оплачивают те, кто у него сервера под нейронки покупает.
От одного сумасшедшего на встройке у куртки не убудет)
@Askippen это правда, как и то что сумасшедших вокруг гораздо больше чем может показаться.
@@0verforce если человек говорит, что он не сумасшедший, то он врёт. Если человек не говорит, что он сумасшедший, то он сумасшедший.
@@Askippen мне определённо нравится этот стиль повествования, зачёт!
Ты не их целевая аудитория на сейчас.
К сожалению, они отказались от бюджеток вообще.
Причем, если смотреть с 700-й серии, каждые два поколение, идет проседания.
Т.е. если 750Ti - была прям хорошим геймерский решением в своем поколении,
То, 2060 стал таким минимумом.
Просто пора ПЕРЕСТАТЬ сравнивать производительность графики в играх, тогда и разводов таких не будет. Сравнивайте в монтаже, в матвычислениях и прочем.
кому не пофиг на монтаж и прочий не интересный массам скучный бред?)
@@SiMBi0ZZA Когда ты слезешь с шеи родителей, и будешь сидеть 8 часов над просчетом задачи за компом вместо 2-3 вот тогда и говори - на кой оно надо! Время- деньги
После презентации акции компании упали на 10% рынок не врёт
Туда их😂 (нет на самом деле)
ну-ну, их акции же просто обвалились, и плевать, что они сейчас растут
@@v61kz а тебе то что с этого
Не 10, а 7. И они отобьют за год на 20, а ты так и будешь нищебродом без норм видюхи.
Far Cry 6 всё показал... Куртка разводила😂
Для 5070 - 12гб это дно. Даже 16гб дно. На 5 лет не хватит для игр.
Хватит, мне и 8гб хватает в 4к зачем все выкручивать на максимум
Это тебе не амд, которой и 32 гига мало будет в qhd. Если не заметил, то в презентации ещё и нейронные текстуры показали, которые весят в 2 раза меньше🤷
@@ЕвгенийВозяков ну смотрю во что в ближайшее время ты играть собрался))))
@UMRUN Не играю, не во что
Еще одно чучело вылезло про видеопамять😂, сейчас еще про шину начнет затирать. Давай.
Только лбди покупают, и играют на ультрах в 60++++ фпс.
Но ему все, Чего-то, Где-то не хватает.
один кадр в игре, и ии её завершит сама
Хуанг нам старается втюхать, фейковые кадры
Я хз зачем эти генераторы кадров, если латенси не заметно лишь от 60 кадров, чего вполне хватает для 90% игр, ведь они не соревновательные. Ну будет у вас не 60, а 180 кадров и толку?
Согласен, от увеличения цифр ничего не меняется, кроме самой картинки, увеличенная задержка реально больше приносит дискомфорта, чем эти цифры в верху экрана радости!;)
Ну при задержке от 70 фпс вполне комфортно играется в киберпук, но плавности немного не хватает. Для меня плавно от 100 фпс. Поэтому FG помогает. А вот зачем х4 сделали уже действительно не ясно.
@@Directx11cool Это чтобы ты в киберпуке с трассировкой пути на 5090 имел не 30-40 кадров, а 100-120 хотя-бы.
@@Protector1rk 30-40 нативных кадров неиграбельны по задержке, хоть на 100х с помощью FG умножай их.
@@Directx11cool Да, я в курсе. Вообще-то это был сарказм. Ты это не мне объясняй, а зеленному хомячью здесь и на других каналах с разбором 5000 линейки. Как на том-же Селектфром.
Нарисовать можно хоть 1000 фейковых кадров а на самом деле 50)
расстрою тебя, но с нарисованными кадрами я чувствую разницу, хоть и задержка появляется, но плавность игры в любом случае лучше будет)
@@x_bat9_cah4e3_x6 Расстрою тебя но да задержка + мыло + артефакты и расскажу прикол что генка работает нормально только если круглые кадры 30/60/120 если у тебя в игре нет 30 как показана теста на киберпанке где без генки 24 а с генкой 240 будет чуствоваться очень плохо даже хуже чем 24 потому что карта просто не дотягивает до 30 чтобы генка нормально работала
ЕСЛИ без DLSS производительность в Cyberpunk 28 кадров, то нафига мне нужна карта за 1500$ ? DLSS это был шанс для маломощных карт, хоть как то отрисовать 60 FPS для требовательных игр. Зачем мне искусственные 270 кадров, они не добавят отзывчивости управления, это будет мыло и ватное управление с задержкой несколько десятков MC. По ходу в чистой производительности мощности у NVIDIA закончились еще на 10й серии, 1080ti была последняя карта, которая отрабатывала каждый вложенный рубль и каждый потребленный ватт электричества.
Куртка прогревает!
Платье кидает!
А когда не прогревал ?
Автору респект за такую жоскую аналитику, обоснованные сомнения и здравые рассуждения.
По такой логике, Ryzen 7 1700, благодаря божественной генерации кадров NVIDIA, становится в 4 раза лучше, а значит его можно сравнивать с Ryzen 7 9800X3D
Кто не знал, на генерацию кадров процессор никак не влияет, то есть если процессор может выдать 40 кадров, генерация кадров все равно может рисовать больше кадров
вот и раскроется потанцевал фуфыкса
Наконец-то, новая серия! Неужели я наконец-то смогу купить б/у 2070 или 3060 по бюджетным ценам?!
нет)
Не бери эти обмылки, лучше 6700xt в хорошем состоянии
@@Людына_Павук3070 норм за 25 с Авито
30-я серия хрен подешевеет
Сочувствую
Честно, всю жизнь сидел на зеленых и красные даже не рассматривал. Но DLSS в современных играх такая шляпа, что пипец. Во многих играх просто отключаешь что бы мыло убрать. Где то читал, что все это мыло началось с ТАА сглаживания. И что бы DLSS что то адекватное показал, то нужна во первых игра с правильно рабочим DLSS, а во вторых в идеале 4К разрешение.
Решил, что следующую сборку буду пробовать делать только на красных.
Меняй DLSS на FSR - тебе понравится
@@Dagon_44 😂
Хуанг тот еще жулик но с моей 1660ti я думаю уже пора пересаживаться.
1:50 не знаю.зачем тогда выложил свое видео?там речь о процессоре повышенной производительности Blackwell, предназначенный для технологий искусственного интеллекта (ИИ)
Думаю пришло время для замены 3080 на 5070 ti 🤔
Жестко конечно, когда ты сам пенек и пытаешься в рассуждение о технологиях.
Тоже хотел что-то подобное написать, особенно когда речь зашла про шарпинг выходного изображения.
Тоже самое хотел сказать.
А я не шарю😅 Для меня он все грамотно говорит😂 Правильно ребят, выводите на чистую воду
включай dlss когда у тебя производительности не хватает и играй в майнкрафт. только за это доплатить ещё нужно.
Да что вы такое говорите, вы не правы, надо играть в игры с 4К разрешением без апскыйлеров, и сглаживания, в нативном разрешении и с 30 кадрами в секунду, а не в с этими DLSS и 144 кадрами, это кащунство играть с огромным количеством кадров в секунду!
В ДЛСС 4 будет 3 кадра генерироваться, а не 1, представьте какое ужасное мыло и ватное управление будет🤣🤣
Теперь упор не в мощность видеокарты а в ее способность работать с технологией ускорения Хуанг решил пойти по самому легкому пути
Ваши любимые разработчики теперь будут еще больше лениться
Они делают и то и другое одновременно умник
@@medrown Меня мало впечатляет 27 фпс на rtx5090 нативном 4к в киперпанке, остальное конечно магия
@ с path tracing конечно будет так. Это игра использует его по максимуму. Такая маленькая видеокарта не сможет тебе в таком разрешении 60 фпс сделать. Вот и применяются технологии
@@medrown Кстати, уже показали карты от ретейлеров от фирмачей Асус, Палит, не маленький такой бутерброд
Только меня смущает, что у 3-х слотовой 4090 ТДП 450 Ватт, а у 2-х слотовой 5090 это значение достигает 575 Ватт?
Так это версии FE, флагманские решения от MSI или Asus будут трехслотовыми
@@__GuGuSiK__флагманские от мси 😂😂😂😂😂😂
включение генератора в 2 раза задержкусразу увеличивает лул)
мелким шрифтом текст на слайдах: 4000 серия с точностью FP8, 5000 - FP4 😂
Наверное потому что 40-ая серия не умеет в fp4. Тебе это не приходило в голову? 🤦
@ а 5000 в fp8 😂
@@Chidorinа какой смысл сравнивать устройства , когда для 5090 появился новый тип вычислений?
Итак ясно, что по голой производительности прирост будет процентов 30.
Нвидия получает 80% прибыли от корпораций. Что нужно корпам? Нейросеть, или майнинг. А что надо ему? Больше и ядер и видеобуфер. Нужны ли им ФПС в играх? вообще нахер не впали. Понимаете куда и для кого развиваются видеокарты? ДЛСС это попытка убить 2 зайцев, заставить геймеров покупать видюхи которые по сути им не нужны и дают мало производительности.
Печально
Всегда отключаю длсс и прочие ии-приблуды в играх, ибо после них вместо нормальной картинки ты видишь 100500 артефактов на экране.
Тоже бы так делал если бы не видюха днище которая только с фср вывозит новые тайтлы
Верно, настоящие тру геймеры играют в оригинальный Deus Ex без всех этих абскуйлеров!
@@Igor-Bond ну запусти любую игру на UE5 с длсс 3/3.5, а затем быстро смени направление взгляда несколько раз - увидишь что все в артефактах. ДЛСС вывозит исключительно в статичных сценах без сильной динамики, во всех прочих картинка превращается в шлак из артефактов.
6:50 при включенном Ray Tracing, DLSS значительно больше влияет на FPS, чем без RT, так что там может быть не 70, а даже 100
Не,ну если это чисто с длсс 4 такой прирост тогда ладно,но если это считается при включенном FG-это убого.
Я пару раз включал эту frame generation,так там мало того что задержка чувствуется очень сильно так еще и при движение картинка размазывается жестко.Но вот чисто длсс 3.5 без fg мне нравится,картинка четкая на 2к монике при настройке «качество»
14:05 с первого кадра идет быстрый апскей а потом улучшайзер, без апскейла, чтоб исключить задержку.
Ну если подумавть вообще нафиг нам куча немереных кадров, я вас умоляю видюхи выдающие в 2k в играх 100фпс более чем достаточно за глаза вы супер пупер человеком из за 200фпс не станите эти видюхи нужны только для монтажа видео и ИИ
Видимо для ИИ и делают теперь
т.е. на видеокартах 40-й серии нас не ждут эти задержки новых технологий с добавлением 3-х кадров -- ну и хорошо, Хуанг прогревает Гоев...
Если всё так плохо, ждать нам реальные мощности ещё 2 года, можно на 40-й серии пока пересидеть, и посмотреть на видеокарты АРКИ от INTEL, Хуанг им явно фору даёт на 2 года - показать что INTEL выкатит, если АРКИ появятся с технологиями Ai это даже очень хорошо, у INTEL неплохой потенциал в области ИИ - в эту сторону смотреть нужно, и пока сидеть на 40-х видеокартах.
у кого 3080-3080тиа 4070-4080 смысла рыпаться нет
нвидиафанбоев не спасти, они реально думают что растянув как в презентации 1080п до 4к детальнее будет, есть ещё виды сглаживания и длсс это тоже сглаживание только сегодня один узнал, с такими фанатами можно и 3.5гб видеопамяти продавать 5060, всё равно не заметно.
У тебя есть идеи получше? Что можешь предложить для улучшения карт нвидиа?
@@shmpnj не покупать 4 года
Для меня главное генерация во FLUX, если в два раза вырастет производительность, как заявлено, то надо брать.
3070 до сих пор актуальна, в 2К вывозит всё, что мне нужно. 5000 серия не зашла, а из 4000 - понравилась только 4070 ti super
Игры из 2012 - 15 года?
@effgeffer761 вообще-то карточка вышла в 20-х годах, и на момент выхода тянула всё на ультра в 2К, ну кроме АРК, там фпс скакал 30-40, но на высоких настройках 70-75 без проблем. Я и другие игры тех лет прошёл с удовольствием, никаких лагов. А сейчас главное новые драйвера не устанавливать, оставаться на дровах 2022 года. Сейчас она и новый АРК тянет в средне-высоких настройках в 65-75 фпс. Более оптимизированеые игры вообще на ура идут. Смысл её менять только после перехода на 4К. Хотя откуда вам знать о моем опыте с видеокартами, ведь начинал я ещё с 64-мб видеопямати с компьютером Intel - 2, когда большинства из смотрящий это видео ещё и в планах не было 😁
8 Гб??? Что там вывозит в 2к? Поверю если в fhd, так как у самого 3060ti. Но 8гб сейчас уже для fhd не хватает (indiana jones and the great circle)
@RD_tech2185 я не играл в эти игры, что ты написал, они мне не интересны, это проходные игрухи. Там и оптимизации никакой, вот тебе и не хватает 8гб. Но то, что эти 8 гб забиты под завязку в некоторых играх - это так. У меня была 3060 ti, я её в майнинг потом отправил, а после продал. 3070 всё же помощнее как-никак.
@thinkwithyourhead140 так оптимизации ни тогда не было, ни сейчас. А Нвидия продолжает кормить 8 гигами гоев
16:53 подушню: не ответа, а вопроса. ответ они сами покажут)
Шутите?
5090 минимум 420-450к будет в ДНС.
Это чо жадность барыг 😅😅
Цена закупки и х2 бахнут.
Правильно делают. А нечего терпеть власти
Не нравится? Езжай туда где цены рекомендованные.
А в блендере и других прогах Куртка Хуанг нарисует мне производительность при рендере 8к сцены на своем ДИЭЛ'ASS 4? Тогда беру амуде, там хоть память есть, которую могу без остатка на рендер кинуть
Читал сравнение видюх в блендере, там 7900 XTX слил допотопной 3080 в 2 раза почти, то есть это уровень плюс-минус 3060...
Да и в целом брать карты АМД для работы... вы там держитесь, удачи 😁
@@nitroexpress9928 что еще остается, rtx titan за 100к? Видел какую-то видеокарту от нвидиа за 20к для работы, но до покупки еще руки не дошли)
2030 год: ЭйАЙ генерирует видеокарту
Хуанг опять прогревает нас на деньги))00
Не только Хуан, меня даже Зяоми програла на деньги, продав мне новый Смартфон! А вот мой сосед по подъезду не прогреваемый, пользуется техникой 15-20 летней давности и копит денежки, он рассказал что уже 2 250 000 рублей накопил, когда я его угостил пивком, за свои 75 лет жизни, вот человек молодец что не прогревается на все эти маркетинги, правда плохо одно, он одинокий, сын его умер давно, жена тоже умерла!
Смотря для кого как, если кто-то реально думает что 5070 круче, и возтмет по этой причине, то тут можно по плакать. А так 5070 будет мощнее 4070 и дешевле
12:17 а вот не такой же будет инпут лаг, а больше
сами Nvidia заявляли, что инпут лаг такой же, если включен DLSS Quality + Nvidia Reflex
это как два энергетике тестировать на спортсменах, при том, что один спортсмен в обуви, а другой босиком
нужно сравнивать, когда оба спортсмена в обуви))
Да, там в конце видео видно импут лаг настоящий
Ребят, подскажите пжлст, стоит сейчас покупать rx 7900xtx или лучше rtx 5070?
8000 ждать
Смотри на плюсы и минусы, 7900хтх дороже, но мощнее в голой производительности , 384 бита шина, 24гб видео буфер. 5070 дешевле, лучше в трасровке, длсс 4, нейронки.
Я как обладатель rtx 4080 очень жду завтрашнего обновления Lossless Scaling. С этой прогой комфортнее играется в неоптимизированные игры Stalker 2 и Indiana Jones and the Great Circle. Не понятно вообще для чего покупал такое железо, если современные игры без костылей не тянет
Планирую сделать обзор на обновленный LS
спасибо за полезную информацию !
Спасибо за комментарий!
Генерация норм, когда 60+ фпс. А когда 20, то карту уже ничего не спасет, по секунде задержка.
Это да
DLSS 2 это по факту не вторая версия, а версия, включающая в себя только апскейл и сглаживание. в 3-й версии добавили еще одну фичу, теперь назвали ее 3-ей
11:35 звиздец, они втупую выкрутили ползунки шарпенинг фильтра вправо.
Походу
Чушь несешь. Производительность всех ядер стала выше в 2 раза и более....
Ага, а в играх прирост на 10-30 процентов
"рефлекс 2 игнорирует нам то, что делает видеокарта.." - автор хотя бы понимает, что он вообще говорит?
Нет
Хотим мы того или нет, но от технологий никуда не деться. Раньше вместо "честной" попиксельной обработки изображения придумали шейдеры, теперь DLSS кадры рисует... Опять же игроделы будут чем дальше, там больше на эту технологию полагаться и тем, кто ею не будет по каким-то соображениям пользоваться будет очень печально играть из-за отсутствия оптимизации.
Ну если нормально будет работать, то норм
Можно и дальше сидеть на своей rtx 4070 super и не париться
Абсалютли
Красава😊
Никогда такого не было и вот опять. Или люди думают что компании говорят правду. Посмотрите на графики аппл, куртка учился у радужного
Все это не имеет смысла, 20 фпс будет в таркове в любом случае, потому что буянов
Все равно гоев уже прогрели и цена 4090 на вторичке уже поползла вниз из-за одного только анонса 5070 :D Потому что кому нужна 4090, когда есть "такая же" 5070. Хотя 5080, которая на 600$ дешевле - реально даже не такая же, а мощнее. Короче, как бы там ни было, прогрев гоев состоялся.
проблема рт нет мощностей для него
проблема длсс нельзя использовать в играх где её не внедрли сами разрабы
фрейм ген дерьмо хз как вообще можно её хоть немного хвалить
рефлекс крутая фишка но опять же нет в драйвере что бы юзать везде
И самое главное нужны мощностя а не технологии и та же видеопамять о которой все ноют нах не нужна если сам камешек не справляется, покрутите разрешение в играх и глядя на фпс посмотрите на загрузку гпу и загрузку памяти
Посыл правильный что нас дурят но люди сами хотят верить в чудеса увы(
ты откуда производительность найдёшь? АЛЁ 5070 В растре есть уже 250ватт. Без всяких лучей, длсс и прочей мишуры. Твоя 5070 упирается в возможности тепловыделения, который сейчас уже не решить. Техпроцесс тормозит своё развитие. Раньше видеокарты от улучшения нанометров и бустились, а сейчас уже нет, так как раз в 2 года TSMC выпускает новое поколение техпроцесса, которое на 20-30% энергоэффективнее предыдущего. BRUH. Каким образом ты сделаешь видеокарту производительнее нынешней 5070?
@@sanya_cev СЖО никто не отменял, а жидкий металл видимо по приколу сделали, странно говорить про упор в тепловыделение.
Мультигенератор интегрировали в драйвер. Ты упустил этот момент в презентации. Больше ничего не нужно интегрировать.
@@home_bt8218 наверное можно сделать монстр-видюху с потреблением > 1 кВт и стоимостью в $дохреналлион, вопрос кто себе такое в домашний ПК купит, 1.5 энтузиаста?
И где эту производительность реализовать, если игры разрабатывают под консоли в первую очередь?
@@home_bt8218 ой вода такая надёжная, а жидкий металл надёжнейшая вещь. Воистину. Мы же видеокарты покупаем на три года. А через 3 года пусть хоть спаяется.
Проблема даже не в охлаждении, а в потреблении как таковом. Увеличиваются радиаторы и прогары и увеличиваются требования к блокам питания, что не норма. Я не собираюсь сидеть и играть в игры на пк, который в игрушках кушает 1 кВт
Сижу, гадаю где я включил тему боя tales of arise.
Ахахахаха
Хорошее видео
А когда подвезут новый апскейлер для предыдущих поколений? И улучшенный генератор для 4000? После 30 числа дрова выкатят новые?
Dlss мы не можем использовать сразу, потому что длсс обучают для каждой игры. Драйвер то может и позволяет включить длсс там где нет, но кадров останется скорее всего столько же.
Хз, посмотрим
Эх, те времена, когда 70ая в линейке стоила 12к рублей... Учитывая курс, умножаем на 3 итого 36к, а сейчас хотят в 3 раза больше...
А сейчас события 24 февраля 2022 года. Ещё вопросы?
@@GPfAnubis я бы сказал события 14 года, тогда всё началось...
А plague tale requiem дословно читается как "Э ПЛЭГ Тэйл Рэквием" что в переводе значит примерное "Чумной рассказ: реквием"
а я думал Чумная сказка: реквием
5070 будет такой же как и 4070. Ширина шины таже. Количество памяти тоже. Наверняка чип тот же с малюсенькими доработками в сторону ПСЙ5.0
И подправленным блоком ДЛЛС 4 (который кстати ни*уя не новый, так как был уже в 40-й серии).
Короче, без разницы что покупать. 4070 или 5070. Покупайте что дешевле!
ИМХО
@@x-comufodefense942 на 50 частоты пободрее...
я думал что кудаядра будут мощнее, но когда увидел разницу в чистой производительности между 4090 и 5090 понял, что остальные карты будут просто шлаком, там же вообще жесткий недобор по чипу
а прирост по частоте памяти и чипа , ты посчитал )? покупайте что дешевле. Чтоб давать советы надо иметь мозги и способность разбираться , Купи себе утюг лучше....
Спасибо за выпуск, интересный вопросы раскрыты.
А то прям многие в восторге от презентации и восхваляют КУРТКУ за заботу о геймерах - мол, подвезли и цены и производительность.
Всех благ и тёплых эмоций ближнему кругу ❤
Я честно не понимаю проблему.
Сам пробовал DLSS и генерацию кадров, не понимаю почему +- всем не по нраву эта технология. В чём проблема, что половина кадров не настоящая, если это выглядит лучше, чем мало нативных? Да, соглашусь, что сгенерированные кадры иногда или даже часто могут быть искажёнными, рваными в качестве. Но глаз через пару минут привыкает к этому, и эти "фальшивые" кадры выглядят с нативными лучше, чем чистый натив.
По поводу Super Sampling-а тоже не понимаю. Да, конечно, иногда сложные в понимании места на изображении для ИИ модели могут искажаться и быть неестественными, но опять же уходим в человеческий фактор того, что глаз привыкает, и таких проблем не замечает.
Подведу итог высказываний.
DLSS желателен при игре с трассировкой лучей/путей для облегчения вычислений видео ускорителя, и отлично с этим справляется, создавая плавную картинку, ценой искажениями изображения. Но что же лучше? Любоваться логичной, но слегка искажённой графикой, или попытками её повторить такими методами как Screen Space, VXGI и т.п?
Лично в моём вкусе будет первое, потому что разницу между нативом и "фальшивкой" не замечаю спустя время.
Я могу согласится, что выбор это дело каждого, многие хотят честное изображение без артефактов, а некоторые готовы немного жертвовать качеством, но получать логичную картинку.
Я понял проблему, многие люди платят много своих денег, но не получают требуемого ими результата за такие большие деньги. Ругают за это компанию, однако, если посмотреть с лица компании, то основная задача компании в бизнесе. Nvidia отлично делает вычислители для сложных вычислений, что многое время подходило для графики в видеоиграх, из за чего они и делают видеокарты. Но также оказалось, что особенности архитектуры GPU подходит для вычислений ИИ. Многие компании заинтересовались в разработке ИИ, и также оказалось, что Nvidia может предложить чуть ли не лучшее решение для этого.
Поэтому Nvidia посмотрела в сторону ИИ, но стараются не забыть про игроков, и пытаются внедрить их технологии в видеокарты, из за чего люди и не получают нужных вычислительных мощностей. Получают значительные улучшения в ИИ, и эти улучшения стоят денег, но людям не нужен ИИ.
Я, кажется окончательно понял, почему многие ругают новые видеокарты и компанию. Если я не прав, то, пожалуйста, поправьте меня.
Букв много, читать не буду. Спасибо за комментарий!
Единственный минус это цена. Это я как владелец карты от красных пишу. Для меня все таки цена имеет решающее значение. И будущее это апскейлы, как бы нам не хотелось. Встали мощности , "нанометры заканчиваются" нужны новые технологии.
Мощности встали и нанометры уже лет 10 ни как не закончатся. Капиталисты выжимают все соки из потребителей, козыряя своими чудо технологиями и костылями, которые были-бы не нужны, если бы изначально ускорение RTX реализовали на отдельном чипе, как это когда-то было c Phyisx. Да-да, была отдельная плата с чипом ускоряющим физикс и за него нужно было платить отдельно! А сейчас, нам даже выбора не дают. Нужен тебе RTX или нет - ты все равно за него заплатишь.
@@dofiga1309 уже даже tsmc говорит о 2 нанометрах как о чем-то сложном. Ядерных технологий тоже не предвидится и капиталисты тут не причем. Либо надо архитектуру х86 менять и все вот это допотопное что тянется еще с начала времен. Но весь готовый софт итд этого не позволит сделать. а ближайшем будущем так точно. Что касается rtx так ведь есть тензорные ядра они и выполняют роль того самого чипа как было у физикс. RTX это сложно, общитать в реал тайме или зарендерить готовое видео как в кино - это разные вещи и мощности.
точняк
@@dofiga1309не нравится? Сделай лучше!
Хомяки действительно думают, что за 500 баксов получат 4090 it super. Не разрушаем их надежды
Проблема в том, что несознательные потребители без способности критично мыслить активно способствуют процветанию империи Хуанга и отсутствию у неё нормальных конкурентов.
разве существует такая карта?
Меня в комментах на полном серьезе один чел уверял вчера, что он уже тесты посмотрел в сети 5070 vs 4090 и она типо одинаковая по производительности. Я конечно вежливо объяснил ему, что эти тесты, как и 98% сравнительных тестов железа в сети это фейки. Реальные будут только ближе к 30 января. Пытался ему объяснить, что комппния не будет торговать себе в минус выпуская карту за 500 долларов с производительностью 4090. Так наивно думать. Это не серьезно. Куда тогда продавать 4070ti, 4080 и 4090? Которых еще достаточно на скаладах. Да и по чём их продавать, если на авито по его локике 4090 полетят за меньше чем 100к. Такой фантазер. Объяснял ему, что это сравнение 5070 с мультигенератором и голая 4090. А по сухой мощи ей дотянуть бы до 4070ti. Но он непоколебим. Ждет извинений после 30 января. Это поколение потеряно.
Я помню получил за 500 баксов 2080 ti в лице 3070 и был доволен как слон,че та подумал будет тоже самое и шя
Получат. Только не в СНГ. Но у тебя видимо другого мира на карте не существует и ты думаешь что все тебя разводят, да? Бедняжка
Генерация нескольких кадров на 5 серии эксклюзив не просто так. Хардвар анбоксед пояснял почему. Генерация кадров в 4 серии частично работала на цпу, а в 5 серии всё перенесли на гпу. То есть 4 серия аппаратно не умеет делать то, что умеет 5 серия при генерации.
Такую дичь делают... Добавляют генерацию кадров и презентуют это как прогресс... XD. Сделали бы, чтоб сразу 100 кадров генерировалось, а не три...
Та видимо так и будут делать
Ну FSR это же апскейл, а генерация это уже дорисовка искусственно, тут надо смотреть на качество, dlss в сравнение с FSR сильно картинка шакалится это очень заметно.
Да, но сейчас АМД должны подтянуть FSR 4
4:37 Автор вы читали что там написано под моделькой генерации картинок Flux? В 4090 использовался типа FP8 а в 5090 использовался FP4! Нормально да? Прогресс не за счёт технологического ускорения умножения чисел, а за счёт уменьшения точности вычислений в два раза.
Linus с канала Linus tech tips поиграл в cyberpunk 2077 на 5090 и гостинг все еще присутствует местами
Пока официально не начались продажи видеокарт, всё что вам показывают, это фальшивки, так что ждите выхода оф карт и драйверов!
ему как бы уже заслали эти видеокарты)))
@@sanya_cev Посмотрел я этот ролик, даже с переводом, ииии, заметил что в настройках DLSS стоит режим производительности, а не баланс или качество, а это уж сильно снижает качество картинки, будем ждать тестов у других Ютуб блогеров!
Генерация ВСЕГДА генерирует в 2 раза больше фпс, ровно в 2. Просто мощности, которые необходимы на генерацию съедают часть нативного ФПС, из-за чего итоговый фпс может быть меньше.
12 гигов у новинки и 24 у 4090 и новинка лучше ? в fhd вероятно ? и как бы в МАТ ЧАСТИ разобраться надо бы . не умеешь в космос - айда в воду .
У and эта технология afmf называется , 2 версия почти хороша
Да, в конце упомянул)
Я так понимаю что RTX40 не будет поддерживать DLSS 4?
Да
@@antonkovalev6259 А 30-линейка будет поддерживать DLSS 4?
Будет, кроме мультигенератора.
продажа ДЛСС 4 за 2к баксов карт уже не существует
Ничего появятся моды и dlss 4 можно будет запускать на 40-ой серии.
Нет
@@user_Antonio что нет? Если длсс 3 можно тупо скачать на 20 и 30 линейке, то и с длсс 4 такое будет.
А зачем? Ну если тольько прям совсем оптимизацию прекратят😂 Но из одного кадра 4 мне не очень хочется🤣
@@GamingTestsEnjoy так они и так доступны)))
@@GamingTestsEnjoy бл где ты запускал dlss 3 на 20 и 30?? Нет такого, чё ты выдумываешь сидишь?
5070 будет в промежутке от 4070ти до 4070тиС
Недоролик от школьника можете не смотреть
почему фон музыка из tales of arise xDD
Ну годноту надо вставлять)
Я лучше с пиксельными лесенками играть буду
6090 будет генерировать 1000 кадров, за 3 000$, лучше подожду ее, я что лох:)))))
Ну, продавать то ,надо!
12:55 при 250 кадрах задержка должна быть вообще около 4 ms
Было бы круто если бы длсс 4 и на 40 серию добавили, но увы они никогда так не расщедрятся
DLSS 4 будет на всех RTX картах. На 5 серии только многокадровая генерация
Ты каким местом смотрел, наидиа всегда программного обновляет что возможно вплоть даже 20 серию карт, если для этого требуется аппаратная модель внутри карты естественно это будет работать только так где она есть
Lossless scaling давно может 3 кадра генерировать 😂