А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах. Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
Забавно было бы, если бы глава Нвидиа имел фамилию "красный" ) Интересно, он бы фамилию сменил? Конечно, жадный "желтый" зажмет ДЛСС 4 на старых картах 30 линейки и покорные фанаты понесут свои "кровные" в магазины....
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-. единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@RomanDrIn смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу. а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
@@doberlife639 с чего бы вдруг? Видеокарта не совершает никаких механических действий (вертушки не считаем), так что вся потребляемая ей энергия уходит в тепло.
Хорошо бы лучики сделать лёгкими и не проприетарными, а потом всей игровой индустрией кааак перейти на них, кааак на растр забить, вот было бы классно🎉❤🎉❤🎉❤🎉
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально. в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений). если прям совсем кратко: честно работать - много работать (лучшее качество). "не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее) надеюсь,сумел объяснить.
>> Как это работает? Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр. Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
Таких карт и у АМД и у Нвидии было предостаточно, не вижу ничего удивительного в том что к этому вернутся обратно, наращивать производительность каждый раз в два раза не успевали никогда почти. Если экстраполировать что было раньше и 5090 будет реально на двух чипах, 6080/6090 будет отночиповой и такой же по характеристикам на бумаге, но быстрее за счет меньших задержек и новой архитектуры. Как то так.
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку. Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Лучше подождать амд и надеюсь без лучей и генераторов, тупо производительная, не жрущая, не по цене звездолёта. Разучились компании понимать своих массовых потребителей.
AMD конечно молодцы вышел драйвера даже для легендарной Polaris RX480\580(была инфа что прекратят их поддержку) вечные чипы фигачат уже более 8 лет!!! В онлайн игрушках нормально тащит братела не жалуется..Про драйвера на 6700xt Frostpunk 2 летает.. INTEL конечно жаль надеюсь компания не исчезнет иначе начнется история как с синими и получим монополиста в виде уже красных которые начнут борзеть )
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее это так себе совет.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
Играть-то можно чуть менее, чем на любом "гамне", а вот для мало-мальски серьёзного ИИ нужны CUDA и память 12Gb+. Поэтому очень грустно становится от ценника в 2к печатаных.
Илья, на демонстрации уже устаревшая версия... Вышла новая бета версия Nvidia App, уже с более расширенным функционалом, очень даже интересная 😉😜 так что советую обновить, понравится
с каждым новым поколением видюх и производительность растет и ИНПУТ ЛАГ в играх растет ) и 120 фпс начинают выглядеть как 90 на предыдущих поколениях видюх тоже самое и с памятью - выставил хмр - получи более высокий инпутлаг в играх.
и получается ... берём новую видюху чтобы был более высокий фпс в играх чтобы был более низкий инпутлаг в управлении... а получаем что получаем... плюсуем к этому ещё обязательное неотключаемое размытие в движении от включенного таа. - прогресс графония придет по итогу к тянущемуся мылу
а так же app будет отслеживать куда вы заходите, что делаете и во что играете, никогда не ставил экспириенс с кучей мусора , только чистый драйвер обновлял
Ничего там не мылит, хватит нести куйню. Уже тонна сравнений от разных каналов, разницы там нет, в качестве. С лупой не найти толком. А уж в самой игре, в динамике, ничего ты не увидишь
@@Alexandr84881 есть там разница, мылит) и это однозначно. просто мыльцо видно на удалённом расстоянии. и в разных играх dlss работает по разному плохо или хорошо, например в witcher 3 nextgen update DLSS просто ужасный, с ним нереально играть, он превращает в игру для пк - игру для консолей. А вот в cyberpunk последних патчах DLSS очень хорошо сглаживает картинку, мыла не видно совсем
Играю на 4к телеке с длсс, могу и без него, но разницы в картинке нет, чем то даже лучше когда резкие края убраны, да и сама карта меньше напрягается. Что бы длсс не был мылом, не надо включать его на 1080р разрешении где реконструировать изображение приходится из сознания дизайнера игры 😂
@@hillandobillando1588 для убирания мыла, в панели nVidia есть такая фишка как DSR а у неё есть настройка плавности, также во многих играх есть настройки резкости DLSS, но даже если этого всего нет, есть GeForce Exp. и комбтнация клавишь alt+f3, там можно выставить и резкость и детализацию и что хочешь. Ей богу, мыло не видно даже в 2560x1440 с DLSS на производительность, всё что там заметно, так это гостинг и некоторые, еле заметные рассыпания пикселей, а в 4к разрешении с DLSS на качество и вовсе этого не видно, разве что под микроскопом, так ещё при этом 0 мыла и никаких ссаных ступенек как это есть в вашем любимом нативе, особенно без сглаживаний, которые если включать, почти все... мылят картинку. И не надо мне втирать об обратном, у меня в пользовании 4080 Super и отличный QHD монитор за нехилый прайс, была в пользовании и 7900XT с FSR 3.0, по сравнению с DLSS 3 оказалось мусором, а сейчас кайфую в играх от идеального сгладивания с помощью комбинации DSR и DLSS, прекрасно вижу своими глазами, что никакого мыла нет😊
RTX4090, как у меня, до сих пор стоит ~284тыс. Я представляю, сколько будет стоить RTX4090 и RTX4080... там уже походу за миллион перевалит. Учитывая какая подсистема под нее необходима, вообще все становиться интересным (материнка, ЦП, память, БП).
9:27 Так rar и 7zip это не алгоритмы, а контейнеры, разве нет? а вот как раз LZMA, LZ4, Deflate и т.д. это алгоритмы которыми пользуются rar(не точно, вроде у него свой проприетарный алгоритм) и 7zip. Поправьте если я не прав.
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
Нвидиа уходит все дальше от обычных геймеров. Ценовая политика запредельная. Даже на такой огрызок как 3050 6 гиговый , ей красная цена 10-12 тысяч , но не 18-20 . Про хорошие видяхи вообще молчу там 70 тысяч плюс
Цена уже известна 5090 2400$ 5080 1850$ и 5070 1450$ До выхода GTA7 ещё чуть больше года и выходит она эксклюзивно на PS5 потом XBOX и только через год выйдет на ПК. То есть ближе к 2027 году
С такими ценниками даже на остатках 3080 Хуангу лучше ориентироваться на какие-то узконаправленные компании. Рынок железа давно уже не дружелюбен для среднестатистического покупателя, а дальше будет "лучше".
Ну я бы не ждал чего-то интересного. Новая видюха будет как всегда только x090, а остальнве так рефреши на новой архитектуре с +5-8% прироста относительно предыдущих моделей. Что-то мне это напоминает интел.
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю. Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
с 1070 смысл был переходить на 3070. с 2070 на 4070. Лучше 4070 TI Super. Будет ли смысл переходить с 4070 на 5070? Пока не знаю, но учитывая цену - не уверен.
Я переходил как раз с 1070 на 3070 и скажу так, не было смысла))) А вот 3070 на 4090 я заменил очень удачно (сбермегамаркет расщедрился что-то в то время и насыпал за покупку бонусов прям очень круто. У меня 4090 вышла в 100к, а 7800хт вышла в 16к вообще.
Детальный разбор кофейной гущи.
Лучше и не скажешь
Народ ещё верит в 50-ю линейку , это хайпа ради. Новость ради новости.
А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
Такая короткая рекламная вставка, что не успел перемотать 🤣
Мне нравится фраза "Сбалансированный вариант для геймеров" - Процессор по цене всей игровой сборки!
Ну если только по цене для игровой сборки бомжа
При упоминании студенческих лет надо было фоточку приложить патлатую :)
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах.
Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
у меня есть титан v топовый до сих пор может 3д графику и т.д быстро обработать...а карте 6 лет причем!!!
не титан всегда на 100 чипах делался а 90 на 102 делают так что 90 это бывшие 80
@@Ostireon а 80 это тогда что?
Купить 5090 и играть с дллс и генерацией ультимативный гейминг от хуанга😂
Если картинка не отличима или близка к нативу то какая разница?
@@Fantomas24ARM Разница в том, что картинка как раз таки отличается в нативе и в постобработке.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
Инженеры нвидиа. Наш чип полное г. Хуанг. Делаем dlss 4.0. 😎
Тестил? @@Fantomas24ARM
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
Lz4 поддерживается форком 7zipZS, мб завезут потом и GPU
Это когда непрофессионал берется обсуждать профессиональные темы.
Ну так-то на самом скрине ошибка, там перечисляются форматы.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
какая разница, если весь смак в новом длсс будет, если оно не будет поддерживаться в 40xx. А если будет, то и нафиг новую покупать)
Когда ГТА выйдет на ПК уже может быть 6000 и 7000 серии инвидиа, тогда уже 7600 порвёт эту 4080.
а сейчас какая видеокарта?
@@RomanDrIn В конце 25-го года только на консолях она будет?
@@-MohammedElSyed- я тебе даже больше скажу, есть шанс, что её перенесут на 26 год и далеко не малый шанс, что она будет только на плейстейшине.
Deflate -- это ZIP и есть.
Какое же замечательное качество картинки в роликах! Просто перфекто! Спасибо за кайф для глаз) Как минимум)
Толку то большинство уже смотрят в 720p
там где в названии присутствует "профессиональный", ценник минимум х2 сходу..
Забавно было бы, если бы глава Нвидиа имел фамилию "красный" ) Интересно, он бы фамилию сменил?
Конечно, жадный "желтый" зажмет ДЛСС 4 на старых картах 30 линейки и покорные фанаты понесут свои "кровные" в магазины....
Зеленый еще является антиподом красного) Что вписывается в извечное противостояние Нвидиа против АМД(АТИ).
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-.
единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@RomanDrIn смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу.
а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
@@ivan2go1 там не всегда так, я вот взял 7800хт за 16к, если учитывать кэшбэк. Но это надо искать и чекать кучу продавцов.
Выпуск Ильи без политики! Вот это праздник!)
ахахах
у меня джедай 2 заработал только на старых дровах, на всех новых и рекомендуемых постоянные вылеты rtx 3080
Драйвера Нвидии это бич последних пары лет, стараюсь обновлять их не чаще 1 раза в полгода.
Такими темпами, мы скоро будем водяное охлаждение в базовой версии видеокарт брать. 400 ватт!!!
Этот параметр не полностью отражает насколько будет сложно охлаждать чип.
Кирюша, тебе лет 15 ? Посмотри на прошлые видеокарты от амд, там и больше было и ещё далеко до ртх серии.
@@doberlife639 с чего бы вдруг? Видеокарта не совершает никаких механических действий (вертушки не считаем), так что вся потребляемая ей энергия уходит в тепло.
Вот только только обновил драйвера, полгода не обновлял, а тут видос :/
Хорошо бы лучики сделать лёгкими и не проприетарными, а потом всей игровой индустрией кааак перейти на них, кааак на растр забить, вот было бы классно🎉❤🎉❤🎉❤🎉
Почему нарисовать дополнительные кадры между реальными менее затратно, быстрее и проще, чем еще один реальный кадр? Как это работает?
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально.
в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений).
если прям совсем кратко:
честно работать - много работать (лучшее качество).
"не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее)
надеюсь,сумел объяснить.
>> Как это работает?
Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр.
Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Если кратко: не жрет дополнительные ресурсы компа = кадры даром. За настоящие кадры придется платить и достаточно дорого, включая проц и оперу.
А DLSS 4.0 не будет на 40-й оенейки поскольку для этого нужно будет обязательно купить 50-е поколение еврейский ✡️ принцып работает всегда )))
также как и генератор кадров на 30 серии не работает аппаратно, хотя физически это возможно, просто произошел эффект энвидия)
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
@@KommunistDelux я тоже того же мнения. но мне пришлось взять 3080, поскольку RX того же уровня производительности на авито в моем городе не было
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Хороших игр мало. Компьютерные железки каждый год растут в цене. Такими темпами компьютеры просто будут ненужны простым смертным
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
2:00 к в сравнении 4080 вообще в 2 раза по всем параметрам 😂
Таких карт и у АМД и у Нвидии было предостаточно, не вижу ничего удивительного в том что к этому вернутся обратно, наращивать производительность каждый раз в два раза не успевали никогда почти. Если экстраполировать что было раньше и 5090 будет реально на двух чипах, 6080/6090 будет отночиповой и такой же по характеристикам на бумаге, но быстрее за счет меньших задержек и новой архитектуры. Как то так.
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку.
Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
За отопление вот тут сумма огромная.
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
9:31 Так Deflate и используется в zip. А RAR и LZMA(7z) слишком сложны, требуют дохрена памяти, так что аппаратной поддержки ожидаемо не будет.
Лучше подождать амд и надеюсь без лучей и генераторов, тупо производительная, не жрущая, не по цене звездолёта. Разучились компании понимать своих массовых потребителей.
AMD конечно молодцы вышел драйвера даже для легендарной Polaris RX480\580(была инфа что прекратят их поддержку) вечные чипы фигачат уже более 8 лет!!! В онлайн игрушках нормально тащит братела не жалуется..Про драйвера на 6700xt Frostpunk 2 летает.. INTEL конечно жаль надеюсь компания не исчезнет иначе начнется история как с синими и получим монополиста в виде уже красных которые начнут борзеть )
У меня 4090 и играю в 4к и фростпанк 2 ФРИЗИТ. Жутка неоптимизированная игра. К сожалению современные разработчики кладут болт на оптимизацию.
Если 5080 будет ~4090, то и стоить будет также. Куртка же сказал что теперь продаёт не тиры карт, а "единицы призводительности"
Нельзя будет такую 5080 в Китай продать, по этому будет чуть слабее 4090.
Ждём 7060 за 2к баксов.
@@AlexCoachman
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее это так себе совет.
Это же Фаундерс Эдишен будет 600w а какая нибудь Rtx 5090 asus power gaming pro $ OC будет 800w потреблять
Не будет, коннекторы у блоков рассчитаны под определенную нагрузку. Тебе же чётко сказали, что 2 по 16 не будет.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 так ты 4к поставя и увидишь как она в теплопакет долбится
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
2:49 Что там вместо процессора? Почему охлаждение воздушкой?
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
ребята, спасибо)
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
Когда- то процы считались кипятильниками. Теперь -видео - кофеварки))
4:23 плюс наша розница 50% 😂
попробуй покупать не в днс :)
@@ivan2go1 спасибо, но гарантия это гарантия
@@Amdur88 гарантия не только в днс есть))
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
@@Amdur88нет никаких гарантий, что ты завтра проснешься
Ура, снова течки!
осталось понять что нового в app по сранвнеию с экспириенс 🤔
В длсс 4-ре объекты низкого качества станут лучше, ура.. они переизобрели тесселяцию )))
Нда.. Купить новую видеокарту.. Или машину 🤔
В слове машина, вы лишний нолик забыли.
Машину за 300к рублей щас уже не купить
будто есть во что играть на новых видеокартах)
@@ivan2go1 купи лучше гитару и играй...
Скорее кучу хлама с головной болью
Играть-то можно чуть менее, чем на любом "гамне", а вот для мало-мальски серьёзного ИИ нужны CUDA и память 12Gb+. Поэтому очень грустно становится от ценника в 2к печатаных.
Поэтому взял rtx 4070 super, сделал самый минимальный андервольтинг и на пару лет забуду про апгрейды. Буду менять все только на ам6
По сухой производительности похоже сильного прироста в 5080 не будет, судя по количеству блоков. А по технологиям и не знаешь чего ждать.
Илья, на демонстрации уже устаревшая версия... Вышла новая бета версия Nvidia App, уже с более расширенным функционалом, очень даже интересная 😉😜 так что советую обновить, понравится
чем больше смотрю про Nvidia, тем сильней жду новые карты от AMD
600W? Скоро с видеокартой понадобится приписка "при использовании выключайте отопление в доме"
Вообще-то Deflate - алгоритм сжатия , все популярные архиваторы умеют в него.
Странно как-то, улучшений в 5080, по сравнению с 4080 немного, а потребление выросло прилично🤔
Если AMD выпустит 2х чиплетный проц с 3д кешами на обоих, то можно будет запускать сразу 2 игры 😁
И покупать сразу две копии 😂
Вспомнил мем про Чака Норриса, что может одновременно смотреть 1000 кабельных каналов по ТВ 😁
И опять ни слова про FP64 на новых картах NVIDIA. Какая производительность при вычислениях на двойной точности на куда-ядрах Blackwell?
Когда обзор лунар лейка от бороды?
Ну чё, берём 5090 или скипаем новую линейку?
с каждым новым поколением видюх и производительность растет и ИНПУТ ЛАГ в играх растет ) и 120 фпс начинают выглядеть как 90 на предыдущих поколениях видюх
тоже самое и с памятью - выставил хмр - получи более высокий инпутлаг в играх.
и получается ... берём новую видюху чтобы был более высокий фпс в играх чтобы был более низкий инпутлаг в управлении... а получаем что получаем... плюсуем к этому ещё обязательное неотключаемое размытие в движении от включенного таа.
- прогресс графония придет по итогу к тянущемуся мылу
Deflat это не экзотика, это gzip который крайне популярен на серверах ну и это дефолтный алгоритм для zip формата
Предсказатели объявили месяц Ильи, количество годных роликов увеличено вдвое!
а так же app будет отслеживать куда вы заходите, что делаете и во что играете, никогда не ставил экспириенс с кучей мусора , только чистый драйвер обновлял
Вспомните Int i740 - давняя видюха...
Nvidia будет хвастаться, что замедлила трассировкой и замылила DLSS уже кучу игр
Ничего там не мылит, хватит нести куйню. Уже тонна сравнений от разных каналов, разницы там нет, в качестве.
С лупой не найти толком. А уж в самой игре, в динамике, ничего ты не увидишь
@@Alexandr84881 Конечно же не мылит. Если эту хероту не включать. 😄😄
@@Alexandr84881 есть там разница, мылит)
и это однозначно. просто мыльцо видно на удалённом расстоянии. и в разных играх dlss работает по разному плохо или хорошо, например в witcher 3 nextgen update DLSS просто ужасный, с ним нереально играть, он превращает в игру для пк - игру для консолей. А вот в cyberpunk последних патчах DLSS очень хорошо сглаживает картинку, мыла не видно совсем
Играю на 4к телеке с длсс, могу и без него, но разницы в картинке нет, чем то даже лучше когда резкие края убраны, да и сама карта меньше напрягается. Что бы длсс не был мылом, не надо включать его на 1080р разрешении где реконструировать изображение приходится из сознания дизайнера игры 😂
@@hillandobillando1588 для убирания мыла, в панели nVidia есть такая фишка как DSR а у неё есть настройка плавности, также во многих играх есть настройки резкости DLSS, но даже если этого всего нет, есть GeForce Exp. и комбтнация клавишь alt+f3, там можно выставить и резкость и детализацию и что хочешь. Ей богу, мыло не видно даже в 2560x1440 с DLSS на производительность, всё что там заметно, так это гостинг и некоторые, еле заметные рассыпания пикселей, а в 4к разрешении с DLSS на качество и вовсе этого не видно, разве что под микроскопом, так ещё при этом 0 мыла и никаких ссаных ступенек как это есть в вашем любимом нативе, особенно без сглаживаний, которые если включать, почти все... мылят картинку. И не надо мне втирать об обратном, у меня в пользовании 4080 Super и отличный QHD монитор за нехилый прайс, была в пользовании и 7900XT с FSR 3.0, по сравнению с DLSS 3 оказалось мусором, а сейчас кайфую в играх от идеального сгладивания с помощью комбинации DSR и DLSS, прекрасно вижу своими глазами, что никакого мыла нет😊
RTX4090, как у меня, до сих пор стоит ~284тыс. Я представляю, сколько будет стоить RTX4090 и RTX4080... там уже походу за миллион перевалит. Учитывая какая подсистема под нее необходима, вообще все становиться интересным (материнка, ЦП, память, БП).
Имелись в виду 5080 и 5090?
подскажите староверу майнинга, а что она даст в майнинге то, на eth и rvn итд ? :))
Давно сижу на нвидиа апп и всё ок не смотря на бета версию
Бро! Я скучаю по твоему английскому произношению. =)
Ну если проста добавлять куда ядра в каждом поколении конечно же прирост будет к примеру у 1080 ti было 3584 и 250вват
Архиватор не то же самое что компрессор, и 7zip может создавать *архивы* используя *компрпессию*, LZ4, тут не надо искать несоответствий
9:27 Так rar и 7zip это не алгоритмы, а контейнеры, разве нет? а вот как раз LZMA, LZ4, Deflate и т.д. это алгоритмы которыми пользуются rar(не точно, вроде у него свой проприетарный алгоритм) и 7zip. Поправьте если я не прав.
слышал слух что 5080 будет стоить дешевле чем 4080 на старте,тут говорят дороже ,как же долго ждать январь.
не понял, а когда это успели РТ в рдр2 прикрутить то???
Снова грустный(
Но хочу уточнить!Я бы купил бы RTX 4090 после выхода 5000 серий но они производство остановили🥺А значит будут только RTX4090 бу или с завышеным ценам!
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
а почему сразу по 96 мб прямого кэша нельзя сделать без всяких 3д ?
Короче, как обычно, меняйте старые карты на новые, какие есть.
уточните, о каких лучах он говорит?
Что они так прилипли к 16-пиновым коннекторам? Как такой дохляк может в одиночку тянуть 600W не перегорая? Не риторический вопрос.
Жду тест, RTX 5090 + AMD FX 8350 🤣
Зачем им делать 5090 если запрещают в том же Китае 4090?
Короче, ждем 5080 ti super😜
Нвидиа уходит все дальше от обычных геймеров. Ценовая политика запредельная. Даже на такой огрызок как 3050 6 гиговый , ей красная цена 10-12 тысяч , но не 18-20 . Про хорошие видяхи вообще молчу там 70 тысяч плюс
Ура новый ролик
конечно стоит обновлять дрова как и делать апгрэйд пекарни.
обновился вот полчаса назад на 565.90 старушку 3090
Прошу уже давно. Сделайте сборки ПК для САПР.
Solidworks
Ansys
Nastran
NX
И прочие
ПОЖАУЛЙСТА
Цена уже известна 5090 2400$ 5080 1850$ и 5070 1450$ До выхода GTA7 ещё чуть больше года и выходит она эксклюзивно на PS5 потом XBOX и только через год выйдет на ПК. То есть ближе к 2027 году
боюсь ps5 не потянет её)))
Интересно 5080Ti будет с шиной 364 бита
А для чего тебе нужна шина, при частоте памяти за 20к ? Возьми 1080ти и 4060ти, сильно шина помогает?
Ничего интересного, но весело. Спасибо.
После 560Ti (так и не "дав" программистам "понять" еë "мощь"), NVidia в маркетинг ушла.
Сколько ватт?! Да ты шо, ох...
С такими ценниками даже на остатках 3080 Хуангу лучше ориентироваться на какие-то узконаправленные компании.
Рынок железа давно уже не дружелюбен для среднестатистического покупателя, а дальше будет "лучше".
просто есть ещё страны для белых людей
а не только с империализмом и войнами
@@Володявв-л8фбоюсь там свои проблемы, хорошо там, где нас нет.
гейминг умрет в будущем тем более элитам не нужно миллиарды потребителей, к 30 году всех утилизируют лишних поэтому все так плохо и стали делать
Ну я бы не ждал чего-то интересного. Новая видюха будет как всегда только x090, а остальнве так рефреши на новой архитектуре с +5-8% прироста относительно предыдущих моделей. Что-то мне это напоминает интел.
только у интела все камни имели +5%, включая флагманы)))
Мне одному кажется, что 5090 будет "двухголовой"?
Хочу 5090 ti super, чтобы лучи лились отовсюду! Пох , хоть за пять тыщ зелени. Хуанг, ну когда уже????
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю.
Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
Грустно конечно, но думаю 4090 мне пока ещё хватит.
с 1070 смысл был переходить на 3070. с 2070 на 4070. Лучше 4070 TI Super. Будет ли смысл переходить с 4070 на 5070? Пока не знаю, но учитывая цену - не уверен.
Я переходил как раз с 1070 на 3070 и скажу так, не было смысла))) А вот 3070 на 4090 я заменил очень удачно (сбермегамаркет расщедрился что-то в то время и насыпал за покупку бонусов прям очень круто. У меня 4090 вышла в 100к, а 7800хт вышла в 16к вообще.
и нада пакупать холодильник для видео карт
Не поднимайте волну... Всё у интела будет ок... Он просто обречён так сказать на ок )) У него нет других вариантов..
2299 за 5090... маркетингово красиво 😂