всем нубам нужно с детсада или начальной школы просмотр этого как домашнее задание. что бы не писали дичь про какую то настоящую и не настоящую графику.
Спасибо,очень круто! Этот канал прямо находка!У Вас талант объяснять,просмотрел на одном дыхании. Позвольте вопрос: нейронная компрессия и декомпрессия текстур и rtx Mega Geometry будут работать на сороковой линейке карт?
спасибо! По поводу нейронного сжатия текстур пока непонятно. По логике должно работать везде на всех RTX, иначе нафига это всё. Nvidia сделали аппаратные блоки ускорения нейронок первые, поэтому получают гигантский профит сейчас от этого, а то время как у AMD сейчас будет первое поколение видеокарт с этими блоками, поэтому и FSR 4 будет работать только на них. Но nvidia - это nvidia и вполне могут сделать софт-лок на 50ю серию. Надеюсь, этого не будет
@@SelectFrom в RX 7000 есть аппаратные блоки ИИ. Только почему то амд сделала фср 4 только для 9000 серии. Они даже инструментарий выпускали для работы с аппаратными блоками ии в 7000 серии
Посмотрел внимательно, некоторые моменты персматривал, но так и не понял, а какая разница аппратная между 4й и 5ой серией? Я не особо в этом разбираюсь, как потребитель. Сейчас у меня 4080s, получается, что в5й серии просто програмное усиление? Как бы исскуственное? Для себя пока не вижу смысла в переходе со своей ВК. Но это мое имхо, не разбираующегося.
У вас отличная карта, переходить на 50ю линейку смысла нет. Пользуйтесь с удовольствием ещё года 2-4. Отличия в новых картах минорные по сути, +15-20 процентов честной производительности в лучшем случае по каждому тиру карт в линейке и большой прирост по ускорению нейронных сетей. Насколько большой, покажет время и тесты. Переход тем более бессмысленнен, из-за того же объёма памяти и обновлении DLSS на всех картах серии RTX
потому что матчасть тяжело понимать даже в лёгком виде. гораздо удобнее ненавидеть нвидию потому что так модно. и понимать ничего ни в чём не надо - сиди себе и пиши гневные коменты про наепалово от куртки. Всё, ты в потоке, ты в струе
@@PhilosophicalSock пусть Хуан выпускает нормальные карты, а не это обрубленное говно, даже 5090 не тянет с лучами в 4К разрешении, максимум 40 фпс выдает
Судя по информации от NVIDIA, RT блоки обрабатывают вдвое больше треугольников на такт по сравнению с Ada Lovelace. По трассировке прирост хороший получается, но общая производительность GPU около 20 процентов по тестам. Также большой прирост по нейронкам должен быть
@@SelectFrom Ну если судить по тестам в фар крае 6 и плагтейл 2, то прирост 30-45%, но там лучи не такие тяжелые, интересно посмотреть на прирост в трассировке пути, например, в вуконге, где куча геометрии из-за растительности.
Что думаешь о технологии ue mega lights которая повышает фпс в сложных ценах с фулл рей трейсингом до 2х раз чисто благодаря оптимизации десятков источников освещения не трогая качество? (Также в ue есть технология динамического запекания света также для rt еще вроде с версии 5.2)
Кирилл, очень круто, посмотрел на одном дыхании! После таких видео обычный бэкенд кажется очень скучным, когда люди такие прорывные штуки делают. Можешь, пожалуйста, посоветовать ресурсы, где на доступном языке так же можно почитать о технологиях? А работа у тебя тоже с нейронками связана?)
Если честно, найти ресурсы, где можно почитать простым и доступным языком ОЧЕНЬ сложно, особенно, на русском языке. Низкоуровневая информация берётся мной и коллегами из документации технологий и SDK на английском и потом доносится зрителям. Если бы было легко найти такую информацию, я бы не делал канал =) Можешь посмотреть список источников в видео, например, про DLSS, который находится в описании. Причём этот список неполный, а только его часть. Полный список можно увидеть в прошлом ролике, где я его прокручивал в начале видео. Порой, чтобы сделать одно видео, нужно прочитать десятки разных источников на английском, а то и по несколько раз, чтобы понять, и также с видео, которые я пересматриваю по многу раз, пока не разберусь. Что касается информации по графическим технологиям в играх, эти знания я накапливал годами, изучая материалы сам. Позже, когда я начал вести канал, я случайно попал в вообщество энтузиастов, в котором мы обмениваемся знаниями - ссылка на него есть в описании (это дискорд сервер). Причём, там есть не только просто любители, но и люди, которые работают в индустрии. Если интересно, присоединяйся туда
@@LeatherVladAU если вдруг не подписан на канал моего коллеги Ильи - GodRay, подпишись на него тоже. Он из нашего сообщества и тоже делает классные видео
Я немного иначе понял этот Frame Warp. Мне кажется, он вообще не берет данные от мышки, а работает по положениям внутриигровой камеры текущего кадра и следующего кадра от CPU. Сначала CPU работает над первым кадром, после, этот кадр передается GPU, сохраняется положение камеры в сцене и проц начинает работать над вторым кадром. Когда оба закончили работу - Frame Warp получает второе более актуальное положение камеры из второго кадра от CPU. Дальше высчитывается вектор изменения положения камеры и Frame Warp фотошопит первый кадр. Здесь сокращается задержка только видеокарты. Такая схема сможет учесть особенности поведения мыши и камеры в игре, тряска камеры от получении урона или кинематографичных взрывах, лимит обзора (в катсценах нельзя сильно мотать головой по сторонам), замедление/ускорение, изменение чувствительности при прицеливании и прочие особенности игр. Все просчитывается движком игры и разработчикам не придется сильно заморачиваться над внедрением этой технологии.
Интересно, вероятно что-то из этого. Нвидиа так же в тексте написали, что варп анализирует последние данные с устройств ввода. Так что наверное что-то посередине от вашего видения.
Нет,то что вы описываете это генерация кадров (работаем с промежуточным пока готов второй) Здесь схема совершенно другая.мы берём инпут игрока и смещаем кадр относительно оси движения мышки без участия игрового движка,а пробелы от этого процесса заполняем нейронкой(есть хорошее видео от 2kliksphilip про фреймворп если интересно) Таким образом вообще убираем программную задержку как таковую,ибо мы рисуем куски кадра так то вообще без участия движка
@@smail2507 Нет, я описывал не генерацию кадров. Мы не дожидаемся рендера второго кадра, а только его сцену. В момент, когда видеокарта отрендерит первый кадр, процессор сформирует сцену для второго кадра с более актуальным положением камеры. Так же если Frame Warp будет анализировать только движение мыши, минуя игровой движок - возможны рассинхроны и артефакты движения. Как быть, если в игре ось Y ограничена? И мы не можем поднимать прицел слишком высоко. В случае анализа только по мышке - FrameWarp вылезет за рамки, перерисует кадр с более высоким углом Y и в последствии возможны дергания камеры. Так же как быть с отдачей при стрельбе? Мышку раньше обновляем, а отдачу позже? При учете результатов от движка - движения абсолютно точные. Только визуальные рассинхроны возможны. Начали стрелять, прицел повело вверх, а огня из дула еще нет. Или же получили в голову - нас встряхнуло в этом кадре, а источник урона отобразиться только на след. кадре
@@stakanoff4617 Такое вполне можно реализовать в движке дополнительным функционалом, где когда мышка отправляет новые данные - этот функционал обрабатывает под условия игры и сохраняет как новое положение камеры и тогда задержка будет очень мелкой. Но это требует реализации от разработчиков, в больших играх потребует учета множества факторов и сильно усложнит продвижение технологии. Мне как то больше верится изначальный вариант с полным созданием сцены в CPU - просто и надежно
ваша интерпретация довольно интересная. Насколько я понял, там используется что-то похожее на ваше описание в том числе, потому что иначе зачем им буфер глубины и предыдущие кадры?
Очень все круто. Самое главное, что Курта не обделяет обладателей rtx2000 серии даже. А им уже 6 лет. Взял Амд, в принципе не жалею, работает все ок по драйверам, а вот софт под видеокарты это просто кошмар. Все лагает, глючит, скидывает настройки и не чего не исправляеться. Поэтому, будет возможность, перейду на RTX карту.
что ты врешь фанатье? куртка фреймген от длсс 3 сделал только для 4000 серии, а МФГ только для 5000. Сколько вас фанатов не корми говном с лопаты, всегда будете такими глупенькими фанатиками...
Софт обычный все в одном приложении, а не в 2-х как на нвидии. + Тоже самое могу написать и про софт нвидии, даже новость была что Nvidia app отнимает производительность и это только одна из последних новостей, так их больше было.
Брал 4080 до выхода 50XX серии, для себя не вижу смысла перехода на 50 серию т.к я играю на 2к мониторе и фпс везде покрывает мои 165 герц (Я использую везде и ДЛСС и FG всегда, я платил за эти технологии и работает всё хорошо) посмотрел уже кучу видео и понял что вполне мог дождаться но я ничего и не теряю т.к задел на будущее большой
@@TolyanS но вот тут уже неправда. 4К везде (!) тянет только 4090, если говорить про ультра настройки. А если уменьшать их, то и многие калькуляторы как бы в некотором смысле "тянут" 4К, что лишает конкретного смысла фразу "тянуть 4К"
@@PhilosophicalSock не попадалось такой игры (за исключением коряво оптимизированных), где мне пришлось бы снижать с ультров 4к, разумеется всегда использую dlss и fg
@@TolyanS КП2077 оптимизирован отлично. Как и Алан 2, например. Но я сильно сомневаюсь, что ты выкручиваешь там трассировку на максимум и всё на ультры. Даже на 4090 у меня местами управление становится вязким из-за слишком низкого базового фпс. Некомфортно играть. И это на Баланс пресете апскейла, на Качестве вообще неиграбельно. Скручивать на самый низкий Перфоманс пресет видится зашкварным. И опять же, самый тухлый режим апскейла равносилен сильному снижению настроек, имхо. Всё же артефакты заметны
@ если игра даже на 4090 на ультра неиграбельна, я не считаю её оптимизированной. Ведь тогда смысла в мощной видеокарте нет, если везде лагает. Но это моё мнение, не настаиваю
Меня лично интересует больше нагрев 5070 тк сейчас играю на palit jetstream 4070 супер , и иногда он долбится под 80 градусов и это я считаю дофига (корпус thermaltake tower 300), если охлады новых карт будут лучше то наверное буду менять , не считаю зазорным добавить 20к , свою карту брал в июле в Ситилинке за 65к, да придется добавить но зато какой результат. Поменял моник на 4к (144гц) и старой карты реально не хватает
у тебя какая-то проблема с обдувом или с термопастой или с прижимом охлада. никаких 80 на 4000 серии и близко быть не должно. у меня на 4090 едва ли к 65 редко приближается
@@PhilosophicalSock посоветуй сборку для 2к гейминга. И ещё, стоит ли ждать ртх5060 и брать его? Или подождать пока 50 серия выйдет, а затем как цены упадут на 40ую серию, взять 4070 супер?
@@brotv6558 я не советчик сборок. обстоятельства и финансы у всех разные. есть лишь некоторые факты для подумать: если у 5060 будет 8гб памяти, то её НЕ брать точно. 8Гб уже мусор. я лично в 4К не видел игорей, которым нужно больше 16Гб. Но если ты любитель наворачивать моды с 8К текстурками, то тебе может понадобиться 16Гб. 12Гб - самый минимум сегодня. упадут цены на 4000 или нет - тоже не факт. у нас типа кризис перманентный, санкции и курс деревянного адовый. легко могу представить, что просто барыги задерут цены на новые карты, а старые останутся как есть. 550$ же только на презентации цена и только для амурики. У нас легко превратится в 100к рубасов
По тестам Digital Foundry При двух сгенерированных кадрах DLSS 4, задержка в среднем около 51 ms При трех 55.5 ms При 4 57.3 ms Так что, всем клоунам, кто говорит, что задержка не увеличивается, скидывайте ссылку на видео, сами найдете оно последнее на канале
@@fx8052 потому что я разбирал саму технологию генерации кадров и как она работает. Про то, что задержка может расти при высоких значениях я не спорю. Другое дело как это будет ощущаться на практике. Кроме того, никто не заставляет включать х4 генерацию, даже одного кадра более, чем достаточно для покрытия возможности большинства высокогерцовых мониторов. Вы смотрите цифры, но нужно пробовать на практике как оно работает. По своему опыту могу сказать, что генератор имеет смысл при производительности от 45 к\с при игре на геймпаде и при 50-60 к\с на клаво-мыши. Это не умножитель производительности, а инструмент увеличения визуальной плавности при примерном сохранении ощущения от ввода. Если у вас монитор 144 Гц, а игра на хороших настройках графики выдаёт только 50-60 кадров, вы можете получить больше визуальной плавности. Не рассматривайте генератор как умножительно производительности при низкой частоте кадров, это ошибочное мнение, навязанное блогерами, которые не понимают назначение этой технологии. Попробуйте сами в играх как это работает и увидите, что смысл есть. Всё нужно всегда проверять самому. В конце концов, если вам ваш личный опыт скажет, что вам не нравится, всегда можно отключить. Я, например, персонально не люблю некоторые пост эффекты: виньетку, зернистость плёнки и аберрации, поэтому всегда из отключаю
@@SelectFromВот именно. Генератор может превратить 60 кадров в 200+, но он не превратит 10 кадров в 60. 60 кадров это уже комфортный уровень игры. Генератор кадров не поможет условной rtx 5050 или rtx 5060 достигать 60 фпс на высокий настройках
не один здравомысляший человек не начнет продовать свою карту и брать новую из того же сегмента за 14 растиризаторов это чушь реальный прирость а не даунгрейд как и в прошлом покаление есть только у топа 4090 так что схема такая же если вы не шейх но не хотите отдавать за парашу 5090 свои кровные 2000 баксов которые даже скорее всего у вас не целый компьютер нету не то что на одну карту то в любом случии амд опять будет доедать бюджетный рынок за инвидией и их видеокарты как и в прошлый раз выйдут относительно цена качество лучше как и в прошлом сегменте если нет вы в любой момент можете купить инвидиа которые в ходе рыночной конкуренции просядут по цене так что советую просто подождать даже если вы питаете не обосновоную ненавись к амд технологием и принципиально берете зеленых я так сделал взял аналог 4070 s на релизе которая в среднем ниже на 2 кадра на релизе от 70 серии она и сейчас если сравнивать в валюте стоит 4070 s стоит где то почти 700 бачей тем временем карта от красных хуже в среднем на 3 кадра стоит 500 делайте выводы как говорится а на релизе когда они с конкуретными ценами залетели 400 долоров за эту карту отдать был просто подарок я так счастлив был наверно только в дестве так что не давайте вонючим карпаратам нажится на псевдо некст гене и думайте что вы покупаете и проверяйте сравнивайте и тд
Спасибо, за видео. Я, правильно понимаю, что reflex v2.0 может быть наоборот вреден для онлайн-баталий? Ведь положение оппонента и его задержка ,относительно сервера, нам неизвестна(чтобы не было ситуации, когда ты, вроде бы первым атакуешь противника(стоящая фигура), а на самом деле он будет лежать и все уйдёт в молоко(время будет потеряно).
reflex 2 был разработан и протестирован e-sports командой nvidia. Думаю, они знают, что делают и reflex 2 будет отлично работать. В конце концов, его работу показывали именно в мультиплеерной игре Finals
@@SelectFrom Не сомневаюсь: команда профессионалов знает, что делает. Мне интересно: как это будет выглядеть после релиза?Т.к. в моем понимании reflex 2.0- система, которая работает на "опережение", а с учётом нового генератора кадров, с 3 нарисованными кадрами, вместо 1, как сервер должен на это реагировать, исходя из цикла(запрос-обработка-обновление-синхронизация)? Ведь каждый кадр даёт информацию о местоположении и направлении камеры. Больше кадров- больше задержка, я так это вижу. На днях начал перепроходить Ryse: Son of Rome- игра 2013г. Без всяких rtx разработчики сделали,на мой взгляд, отличную картинку, почему сейчас никто не соблюдает баланс картинки/требования к пк? Разработчики этой игры урезали полигоны на моделях, чтобы на Xbox one пошла. Но игра выглядит сочнее, более поздних игр.
@@You2Ber42 Я не специалист в этом вопросе(просто пытаюсь для себя разобраться). В видео автор говорит, что движок должен в т.ч. брать информацию из предыдущих кадров. Если, условно играет 2 команды в КС и у каждого игрока будет включен новый фреймген, то reflex 2.0 будет брать информацию из генерированных кадров? А их получается 75%, от общего числа(если на 1 реальный - 3 рисованных), у каждого игрока, сами игроки при этом не знают : в какой момент времени на экране проскочит реальный кадр- для них картина целостная. Мне вот это не ясно: сервер будет обрабатывать 75% информации нарисованной каждым из участников- не великовата ли будет погрешность, даже с учетом времени на корректировку?
@@KirBelGen Пока по поводу реального поведения в играх сложно что=то сказать. Надо ждать тестов и смотреть там. Графики от маркетологов всегда и всё приукрашивают, поэтому только реальные тесты
Давайте радоваться "технологиям" ака фейковым кадрам вместо нормального прироста за поколение. Где прогресс-то ты увидел? В чистой производительности это провал. 5090 четверть цены от 4090 за 30% прироста вкупе с ростом тдп почти в полтора раза. Чуть ли не первый раз, когда новое поколение не отправляет отдыхать старое. Особенно, если сравнивать с 4000 супер линейкой. 5090 спокойно могла выходить под названием 4090 супер за те-же 2к зелени и ничего бы не изменилось. Православные блогерки, как были рабами Куртки до санкций, так и остались. Уже даже не за рекламные бабки зелённое фуфло втюхивают. Чисто за идею. ua-cam.com/video/rlV7Ynd-g94/v-deo.htmlsi=FugaCCJ2aC7s3_Uh
Кирилл ты на стриме в демках показывал демки аппаратного расчета для прозрачных текстур и тп и аппаратну реорганизацию шейдеров. Демки интересно где взять и потестить интересно на 3000 серии. с переотражениями там тоже прирост будет при вкл выкл ser., так как у тебя там галки вкл выкл сама апи а не выбор програмно или железно
Если они реально смогут побороть гостинг, то это будет, конечно круто и уберёт кучу проблем. Аааа еееесли, дай бог, DLL и вправду не придётся качать и автоматом будут подтягиваться новые версии DLSS, ну условным скриптиком самой Nvidia App, которая будет понимать, что ага запустилась игра с такой-то вот версией DLSS, она старая и будет вместо неё использовать новую из библеотеки - это внатуре будет круто
По поводу рефлекса, ничего такого как в презентации он не делает, это древняя настройка пререндера кадров, по умолчанию отрисовываются 3 кадра, в настройках панели нвидия можно установить 1 кадр или 0, что устраняет инпут лаг, в какойто момент кажется в 300-х драйверах нвидия эту настройку убрала, хотя пользователи просили и бунтовали, а теперь они выкатили это как новую технологию, это просто обман пользователей выдавая простую настройку за новую технологию.
Привет! Спасибо, отличный разбор - для игр подожду 5080 ti. Берём сейчас напрямую из США или Китая с Тайванем - получается дешевле чем в маркетплейсах. Asus Apex x870E от 90 до 100 тысяч. Придётся походу в плане центрального процессора пересаживаться на AMD, но вот опять же по тестам в 4К - всё не так однозначно. Лежит уже один SSD Intel Optane под работу, возьму ещё один под систему - на AMD они работают так же, если я не ошибаюсь? Почему зажали память? Будут версии TI к концу года и SUPER так же скорее всего появиться чуть позже.
@@deymas3221 вариаций там вообще можно наклепать: 5080 супер, 256 шина, 24 гб памяти 1000$ 5080 ти, 320 шина, 20 гб памяти , 1100$ 5080 ти супер, 384 шина, 24 гб памяти 1200$
Такая вот ситуация в капиталистической конкуренции в условиях монополии. Одни делают видяхи устаревающими быстрее по памяти, чем по чипу. другие выкатывают 20+ гб, которые нахрен не нужны видяхам, скорее устаревающим по чипу и технологиям. амуде просто нечем больше конкурировать, потому их фанбои обмазываются своими бесполезными гигабайтами
на свиче может не быть разве что MFG. Всё остальное будет. Для мобилки не нужно больше 120 фпс и не нужен минимальный отклик. значит, там будет работать отлично с генерацией кадров
Подскажите пожалуйста, у меня друг ждёт дискретную видеокарту RTX 50 на 60, а я жду дискретную видеокарту RTX 50 на 70 или лучше дождаться Radeon RX 90 на 70, но у нас двоих мониторы с 1920x1080 разрешением, 144 герцами у меня и 280 у друга, плюс у нас есть G-Sync, так вот вопрос, нам надолго хватит этих видеокарт, для одиночных сюжетных игр?
Если на карты что уже вышли и можно делать какие то прогнозы то на новые карточки тестов которых даже нет делать прогнозы вилами по воде но в фул хд 5060 будет всеми правдами и не правдами 4 года выдавать 60 кадров за редкими исключениями (если игра не оптимизирована и там не будет длсс) 5070 будет примерно на 60% лучше потому не меньше того же срока.А на рх9070 очень интересно посмотреть тесты так как амд менее предсказуемые.
слов нет какая длсс 4 имба, разительный отрыв в качестве от 3 версии, так еще и доступен на 20rtx, без понятия зачем нужны теперь карты от конкурентов, 4й длсс = натив
не не не, ты чо, это ж фальшивые кадры, скам и наепалово от куртки! весь ютуб завален таким нытьём. и только что посмотрел первый взгляд на FSR4 - все пишут "ого как круто вау, уже хочу". двойные стандарты и конченные хейтеры нвидии. сейчас модно ненавидеть зелень, даже если будешь выглядеть полным идиотом
Такая имба, что единственный пример на киберпанке сделан в темень и даже там можно увидеть разницу в четкости. Насколько он шакалит картинку можно будет оценить только после выхода, но я сомневаюсь что в ближайшее время генерация кадров приблизится по качеству к нативу. Наш таймлайн проклят и упор сделан на другое, а некоторые ведомые и неприхотливые игроки уже настолько привыкли к мылу и лесенкам от длсс, что готовы своим копиумом оправдывать это технологию до посинения.
Ну ок, текстуры в латентное пространство переведут. Потом шейдер будет обращаться к текстуре и она в реальном времени будет сетью декодером обрабатываться и отдавать в шейдер данные? Честно говоря сомнительно. Обычно энкодеры для таких абстрактных вещей дллжны быть довольно большими, чтобы сжатие было адекватное. Декодеры обычно сопоставимых размеров, хотя в теории они конечно могли их сделать очень мелкими... Звучит как фантастика пока для меня. Потому что чтобы развернуть латентное пространство обратно в исходное - нужно по сути еще кучу изображений промежуточных сгенерить.. даже если нейронка маленькая, все равно куча данных в промежутке генерится
Да, мне тоже пока кажется этот момент немного странным, потому что эта декомпрессия текстур будет отнимать время GPU. Пока не увижу как это работает в реале, мой скепсис останется при мне
Что то ты про рефлекс не то рассказал. А так норм для обзора. Допустим на расчет кадра тратится 3мс. А на ортрисовку 12мс. По рефлексу главное отличие в том что без рефлекса новый кадр начинает просчитываться сразу после окончания просчета прошлого. А потом когда он готов а видеокарта еще прошлый рисует мы ждем 12-3=9мс. И когда видеокарта закончила рисовать кадр она достает из очереди тот кадр который мы сделали 9мс назад. Т.е. он уже на 9мс отстает от того что есть в момент начала рисования кадра, а плюс еще сам кадр будет рисоваться 12. Рефлекс запрещает за ранее готовить кадры, т.е. когда кадр готов и передан видеокарте процессор не начинает готовить новый, а ждет пока работа видеокарты будет близка к завершению, зная что процессору нужно 3мс игра начнет готовить кадр через 8мс после предыдущего, и таким образом отставание кадра от модели будет не 9мс а 3мс.
@SelectFrom Только что наткнулся на ваш канал. Просто ТОП пояснения за техническую составляющую. Но сколько же здесь клоунов в комментах просто ужас, настолько нелепых теоретиков(постом выше коммент), продолжающих рассуждать о том как работает генерация кадров, когда прошёл 1 год спустя релиза в массы, где уже было всё рассказано и показано всеми. Это говорит о том, что никто из выше отписавшихся не юзал генерацию кадров, только чешут языком и о том, какая она фейковая и никому не нужна. Пересказывают чужие мысли других ютуберов выдавая за свои и так на каждом канале....... ЛОЛ. Запустил на максимуме ведьмак 3 в QHD, без dlss итог: 1) ~45фпс - (задержка ~110мс) - картинка дерготня, дичайший инпут лаг 2) ~45фпс - (+ рефлекс задержка ~40-50мс) - картинка дерготня, обычный инпут лаг 3) ~65фпс - (DLSS FG + рефлекс задержка ~60-70мс) - плавная картинка, обычный инпут лаг Играть когда базовый фпс 45-50(и включить генерацию кадров) вполне можно ничего страшного не случилось, зато какая плавность появилась. А разница в инпут лаге 50вс60 по среднему значению не заметна в ведьмаке Киберпанк трассировка пути, 1080p + dlssq 1) ~80фпс - (задержка ~60-70мс) - картинка не ультра плавная, дичайший инпут лаг - ощущается как 110+ в ведьмаке 2) ~80фпс - (+ рефлекс задержка ~25мс) - картинка не ультра плавная, низкий инпут лаг, 3) ~120фпс - (DLSS FG + рефлекс задержка ~35мс) - ультра плавная картинка, обычный инпут лаг, никакой разницы Разница в инпут лаге 25вс35 по среднему значению не заметна в киберпанке. Это я вообще к чему, отключите нафиг ваше рефлексы и играйте без них, даже с генерацией кадров + рефлекс = задержка в 2 раза меньше чем без данных технологий. Это же по вашему никак не мешает вам играть. ЛОЛ Комментаторы, они на то и есть комментаторы, они коментят, а не тестируют или наблюдают, что есть в реальности. Просто играя в игры и двигаясь по локации у вас везде будет разная задержка,(не путать с кадровой частотой), вы в двух местах сможете найти задержку в ~25мс и ~35мс с одинаковым фпс. Достаточно просто включить оверлей нвидии и посмотреть на задержку. Но что-то комментаторы не ноют об этой, разной задержке в разных локах. Потому что они не знают о ней (привет плацебо), а тут им нвидия в лицо тыкнула, что есть легкое повышение в задержке и тут они все прозрели. И им теперь эта задержка стала важна. (5 минут назад, о ней даже не подозревали) Одно дело когда люди просто не знают. То такие люди спрашивают про то как работает технология. А другие сразу имеют мнение, что она никому не нужна. Я попробовал. Рыбак рыбака видит издалека. 95% орущих что генерация кадров фигня - недалекие люди, которые даже не тестировали эту технологию. Один раз попробуешь её потом будешь краснеть, что за глупости в интернете написал. Больше 15 лет было по кайфу чтобы фпс был около 100, когда падал до 60-70 я менял видяху. Теперь можно будет менять когда станет выдавать меньше 40-50 кадров без генерации. Получить плавность высокогерцового моника ценой в 5-10миллисекунд, когда и так уже в 2раза срезали задержку с помощью рефлекса - ноу проблем.
Почему никто не учитывает стоимость новой видеопамяти 7 версии , ее скорость по сравнению с 6.... Прокачали ведь сильно) когда вывели ddr5 для процессора все ныли дорого и тд, а сейчас маст хэв если собираешь новую систему ,, глупо устаревшую ddr4 ставить, нвидиа прокачала 5 серию карт по скорости памяти и по производительности, да зажали обьем памяти но остальное то не так и плохо
Спасибо за выпуск. Смотря на системы и подсистемы всего и свя для генерации и предсказанию, то получается сложная система... НЕУЖЕЛИ ЭТО ИСПОЛЬЗУЕТ МЕНЬШИЕ РЕСУРСЫ чем голая производительность....😵💫 Разрыв восприятия какой-то 🙃😉🤗
К сожалению, это радует только очень узкий круг людей, которые хоть что-то понимают в матчасти. Попробуй почитать коменты на почти любом канале - утонешь в говне от идиотов, для которых нейросети - чёрная магия и обман. И их примерно 99.5% Да и двойные стандарты выкручены на максимум. нвидию модно ненавидеть за любой шаг. Когда амуде делает то же самое - или радуются или молчат
Запланированное устаревание. Нвидиа не хочет, чтобы люди подолгу засиживались на картах. Единственные модели адекватные - 5070Ti для 1440р и 5060Ti для 1080р
Пока 12ГБ для игр в QHD хватает, даже для макс. настроек и генератора. Разве что Индиана Джонс вылезает за эти рамки с его неадекватно раздутой буферизицией, да и то только с активным PT.
Доллар обесценивается, а другая валюта по отношению к доллару обесценивается ещё быстрее. Вполне себе норм цена, учитывая, что видеокарту ты берешь МИНИМУМ на 2 года, но т.к. каждое поколение менять смысла нет, то на 4 года. А если ещё взять во внимание контекст сегодняшнего дня, то можно и все 6 лет сидеть, а то и больше. У меня 3080, вот до сих пор все тянет на ультра в 1080р., даже в лучах практически никогда себе не отказываю, хотя уже на 2 поколения отстаёт. Ну и не понимаю эти возмущения, за последние лет 5 у нас недвижка подорожала раза 2, автомобили вообще молчу, даже базовые вещи, типа продуктов 50-200% стоимости нарастили, а как видеокарты подорожали на 10-20% - ахтунг!!!
Часть блогеров уже отметили, что сравнение с начальными версиями, а не супер, является тоже манипуляцией, потому что на фоне супер версий по цене и спецификациям новые карты выглядят так себе. И фраза "5080 дешевле чем в прошлом поколении" это чушь полная, её следует сравнивать с супер версией, где у них паритет по цене.
если сравнивать с Super версиями, то да, но мы берём вот рассматриваем эквивалентные модели. Зарелизят суперы, будем их сравнивать, а пока смотрим производительность поделей одинакового уровня
@@leo58355 вы, наверное, посмотрели обзор автора Мой компьютер. Да, я тоже вчера его смотрел, но это его мнение, а это моё мнение и они могут не совпадать. Мы же не сравнивали раньше, допустим, 1080 и 980ti или 980 и 780Ti. Ti версии обычно выпускали через несколько месяцев, а то и год, поэтому это не совсем корректно так сравнивать. Нужно сравнивать что было на релизе 2 года назад и сейчас. Конечно, если мы берём улучшенные карты, прогресс вообще как будто на месте топчется, но относительно эквивалентных моделей всё вполне логично: +20-30 процентов общей производительности как и до этого было в большинстве поколений. Другое дело, что в этот раз упор делается на нейронные сети уж слишком сильно, но таков уж тренд сейчас
@@SelectFrom Не только его, ещё есть как минимум вот этот видос от англоязычного блогера ua-cam.com/video/rlV7Ynd-g94/v-deo.html В целом не имеет значения что и когда выпущено, если ti версии ближе по цене - значит сравниваем их. В данном случае суперки не только прибавили в производительности - они ещё и цену скинули, так что Хуанг просто выпустил конкурентов с идентичной ценой, которые слабо превосходят суперки. Если мы сравним 50 серию и суперки - разница без учёта генератора будет 10-15%, кроме 5090 конечно, которая при этом нарастила и свою цену, так что сравнение со старыми версиями это очередной маркетинг от Хуанга.
Все таки молодцы Нвидиа, что запихали улучшения и в 20 и 30 серию, помню, в 2015 году брал 980gtx (лучшая карта того времени) и тогда не мог играть в фулл хд и сглаживании 4x в 60фпс, а сейчас средняя 5070 тянет все и вся (жаль что 12гб) У самого 4080s пока не меняю
Именно. Они абсолютно правильно сделали, что подсуетились раньше всех, потому что AMD теперь приходится делать только первую итерацию аппаратного ускорения нейронок, в то время как у нвидиа это уже 4е поколение карт, из-за чего все нейронные фишки можно запускать на картах шестилетней давности
Чел говорит 5060 для бомжей. Ты в каком мире живешь? Какие самые популярные и массовые карты нвидиа за последнее десятилетие? 1060\2060\3060\4060 и так далее. Ничего не изменится и в этот раз. rtx5060 будут раскупать быстрее любой другой модели
Популярность карты не делает ее хорошей. Если брать надолго, то 5070 и особенно 5070 Ti будут более эффективным вложением денег. "The more you buy, the more you save"
Скорее всего будет зависеть от поколения и количества тензорных ядер. Чем их меньше и чем они старше, тем хуже будет буст от включения DLSS. Но вряд ли разница будет большая, даже между 2060 и 4090.
длсс генерация кадров в потоковом видео в браузере при просмотре фильмов и тп по нажатию 1 кнопки и возможность переработки видео и анимации в процесе производства аниме к примеру сразу в 60 кадров без артефактов
Аплодирую стоя, случайно наткнулся на канал, жду 5080 что бы обновиться с 4080, очень хочется пощупать новый генератор и перепройти Киберпанк с Патч трейсингом наконец то в 4к, со старым генератором пройдены все интересующие меня одиночные игры двух последних лет!
интересно будет посмотреть на реальные цены, как там 5080 будет выглядеть относительно 4090. Может быть выгодно продать старушку и взять новое. Или наоборот окажется лучше б\ушная 4090. Всё же 240 фпс нужно только если у тебя такой нереальный 4К монитор. Что вряд ли, учитывая 4080 в компе
@@dead_locked более качественный моник может стоить как целая 4080 и выше. А "раскрыть" его высокую герцовку в 4К сможет только новое поколение с новым генератором. В принципе, если деньги есть, то вопрос отпадает
Работаю на ноутах и если ты используешь Блендер, Синема 4Д или, упаси господь, Гудини, при восьми гигах, это сразу смерть, при не самом выдающемся выходном визуале. Куртка, в очередной раз, плевать хотел на пользователей. Кто-то скажет, что работай на ПК, но, лично в моём случае, не реализуемо совсем.
Как вариант дешманский ноут + мощный пк с удаленным доступом. Моделить можно на любом ноуте, собрать тяжелую сцену, просчитать симуляции/рендер уже на мощном пк.
Чем меньше нанометры-тем сложнее пихать мощн. оборудование в тоже пространство на карточке.Это не может длится бесконечно..Меньше..меньше...Наступил порог уменьшения...Критичный.Именно поэтому перешли на технологии...Выбора нет...Реальность и возможности.Хуангу респект что он заранее это предвидел..
Любое сжатие текстур это ухудшение качества, с таким же успехом ты можешь поставить качество на средние и играть без всяких сжатий, но качества епик и ультра тебе не видать как своих ушей
@@СергейЮрьевич-ж6лТогда надо было бы память добавлять. Шина складывается из количества контроллеров памяти и чипов. В 4060, например, 4 чипа по 2 гигабайта, каждый требует шину 32 бита для подключения. 32х4=128.
@@SelectFrom так об этом и речь, что можно было сделать хотя бы 10 гбайт и шину 160 бит, как это сделал Интел, тогда 5060 дала бы прирост в играх. Но нет Хуан привык с говна пенку собирать, это перевыпуск 4060 и прирост на уровне погрешности
@tishaqqe8198 тема называется Dark Theme for Google Chrome Вот ссылка chromewebstore.google.com/detail/dark-theme-for-google-chr/annfbnbieaamhaimclajlajpijgkdblo?pli=1
@@SelectFrom а как вы сделали вкладки круглыми? у меня просто после установки темы они все равно остаются лишь слегка скругленными как они есть по дефолту
на 4090 можно спокойно сидеть ещё 2-4 года. С ней всё будет отлично. Карта очень производительная, памяти дофига - а что ещё нужно? Многокадровый генератор не особо нужен
Если ты в 2к гамаешь, то и правда можно не рыпаться. 100+ фпс достаточно для комфорта. Самый большой смысл от новой линейки для олигархов с 4К@240 гц мониторами и выше
Зачем нам ваши rtx, которые сжирают половину фепасов? Да, качество получше, чем с классическеми методами. Но не в 2 раза. Можешь объяснить, зачем оно игрокам?
затем, что это единственный путь для дальнейшего прогресса. ничего лучше в графике не существует. миллионы растровых костылей отправятся на свалку истории. И это замечательно
Очень классное, подробное и качественное видео! До этого посмотрел видео про новые карточки и автор там просто всё видео поносил новые карточки за DLSS и Frame Gen. Хотя это не проблема новых карточек от Nvidia, у них есть много других проблем как с тем же объёмом памяти и энергоэффективностью (температурами). Конечно я понимаю негодование многих людей по поводу этих технологий, но и многие не задумываются что сейчас в наше время мы столкнулись с проблемой, точнее разработчики игры, что требование к играм всё растёт и растёт по графике, геймплею и т.д. А времени и срока на их создания толком не увеличиваются, из-за чего у многих не остаётся времени оптимизировать свой проект. Так что эти технологии очень помогают разработчикам. + А многие не видели сравнение DLSS и любого другого традиционного сглаживания, например TAA. Ведь там во многих случаях DLSS выигрывает по качеству картинки и плюсом поднимает fps. Про Frame Gen. жалобы идут что там появляется огромный импутлаг и управление становится вязким и не приятным. Я не могу сказать насколько он меняет ощущения от геймплея, но смотря и слушая разных блогеров я могу сделать вывод что для обычного рядового геймера не будет никакой разници в ощущениях игры с генератором кадров или без него, но при этом он получает ещё + fps. Единственно разницу вероятно заметят только киберспортсмены которым важны каждые 0,01 секунда. Но они и играют только в те игры где с оптимизацией нет проблем и там спокойно можно выключить эти технологии и получать 300-500+ fps. Так что мне честно трудно понять причины негодования многих людей по поводу технологий. Технологии всегда двигают прогресс и делают хорошо, а проблемы с видеопамятью, энергоэффективностью/нагревом, ценой (Ну могли бы сделать чуть дешевле) и т.д. Это реальные проблемы на которые нужно указывать и за которые нужно ругать компанию Nvidia, но если у вас есть доводы против этих технологий, пишите сюда в комментариях я с радостью посмотрю и отвечу ^^ А также есть же уже новые карточки от AMD 9000-й серии которые уже достигли производительности 4000-й серии и стоят в два раза дешевле. Так что вероятно AMD сейчас победила и взяла лидерство в процессорах (А я в них всегда верил и поддерживал), и сейчас начнёт улучшать свои карточки и брать всё больший и больший кусок рынка видеокарт и давить на Nvidia тем самым снова заставив делать карточки лучше и с меньшим количеством проблем. Хотя как по мне AMD бы улучшить свои карты в рабочих задачах сделав бы их хотябы такими же как у Nvidia и уже они станут в разы популярнее. + Ещё не забываем про тёмную лошадку в видеокартах Intel, который вроде бы тоже неплохо вошёл. Так что ещё посмотрим и увидим)
1. да что ты вообще несёшь? откуда инфа про энергоэфективность и температуры новых карт? ни одного теста не было. 2. жалобы на инпут лаг идут только от идиотов, которые сами его не пробовали или не способны понять, что им говорят - для FG желательно иметь 60 базовых фпс. идиоты всё пытаются выставить как проблему то, что из 20 фпс им не делают 120 идеальных с задержкой как у 120 фпс. А это чушь собачья. Такого никто никогда и не обещал 3. киберкотлеты играют в такие игры, где и так 300+ фпс, им не нужны никакие генераторы. им нужен только Reflex 4. негодование людей исключительно от их собственной тупости и неспособности понять инфу, которую им даёт нвидия. нейросети - вообще для 99% аудитории являются какой-то чёрной магией и обманом. А на самом деле просто мозгов не хватает понять, как это всё работает 5. нет ещё никаких новых карт от амд и откуда инфа, что они достигли 4000 серии и откуда инфа про цены? господи, да что ты опять несёшь.. ни одно теста, никакой инфы не было, они даже не представлены официально
@@PhilosophicalSock Смотри, с 2 и 3 Я полностью согласен и про это я и писал в своём сообщении, тут ок) В первом про энергоэффективность и температуры, уже есть в интернете информация о TDP (потреблении энергии) видеокарт 50-й серии, где например 5090 потребляет будет потреблять 575W, что на 125W больше чем у 4090, а тут уже исходя из потребления энергии и ещё больших размеров системы охлаждения и самих карт в сравнении с 40-й серией можно сделать вывод о высоких температурах. Насчёт новых карт от AMD уже появляется информация про эти карточки из сливов, а точнее их тесты где и видны показатель что RX 9070 по мощности сравнима с 4080 super (но без апскейлеров и генераторов кадра, чистая производительность) а цена, тут честно скажу могу согласится что цена может быть не достоверной, но во многих источниках указывается цена в 500$, тогда как 4080 super стоит 1000$
Задержка 240 мс по монитору а не мышке тебе кайфик будет так играть в игры? Я когда в сталкер с Фг играл выброситься в окно хотел хоть к меня было 120-180 фпс а там в 4 раза больше задержка
@arasik2474Я не могу сказать имеется ли значительная задержка с Frame Generator или нет, так как сам лично не могу протестировать и я говорю лишь беря за основу того, что говорят другие люди и на основе информации от Nvidia. Если у тебя без Frame Generator меньше 60 fps то с большой вероятностью и в правду будет большая задержка, но если у тебя с этим всё нормально, то не могу сказать где проблема и вероятно в данном случае Frame Generator и в правду будет делать только хуже и будет лучше только с DLSS. Но в целом я смотрел и слушал разных блогеров, стримеров, спрашивал знакомых и у них толком проблем не было и в итоге они получали красивую плавную картинку) Но я точно не знаю, говорю на основе информации и мнению других людей.
@SelectFrom хмм, странно, в тестах ноутбука lenovo legion 5 pro с ryzen 7 5800u rtx 3060 он хорошо тянул многие современные игры в 1080р на максималках, в некоторые игр и в 1440р получалось с хорошим фпс играть, у rtx 3060 вроде как раз 8 гб, возможно в самом ноутбуке проблема с раскрытием мощи и как вариант если не хватает есть длсс и фср
@@raven169 если снижать разрешение карт теней и разрешение текстур, уместить то можно игру в 8ГБ, но это всё чаще приходится делать в играх. Это плохо. Постоянно приходится сидеть и думать над настройками и использованием генератора кадров, потому что его включение забирает видеопамять, которой и так нет
Генератор имеет смысл при производительности от 45 к\с при игре на геймпаде и при 50-60 к\с на клаво-мыши. Генератор нужен, чтобы покрыть возможности мониторов с высокой частотой развертки. Это не умножитель производительности, а инструмент увеличения визуальной плавности при сохранении ощущения от ввода. Если у вас монитор 144 Гц, а игра на хороших настройках графики выдаёт только 50-60 кадров, вы можете получмить больше визуальной плавности. Не рассматривайте генератор как умножительно производительности при низкой частоте кадров, это ошибочное мнение, навязанное блогерами, которые не понимают назначение этой технологии. Попробуйте сами в играх как это работает и увидите, что смысл есть. Всё нужно всегда проверять самому. В конце концов, если вам ваш личный опыт скажет, что вам не нравится, всегда можно отключить. Я, например, персонально не люблю некоторые пост эффекты: виньетку, зернистость плёнки и аберрации, поэтому всегда из отключаю
@@SelectFrom Как вы думаете Вот было 100 FPS и общая задержка 40ms Включили генерацию кадров, FPS увеличился (не важно на сколько), задержка стала 50ms Какому число FPS стала соответствовать задержка при включенной генерации? Ведь кажется, что задержка соответствует на 25% меньшему числу FPS, ведь задержка возросла на эти 25%, но это вообще не так Общая задержка в 40ms на то и общая, что учитывает абсолютно все, и мышку, и монитор и тп В реальности, задержка именно обработки кадров возросла примерно на 50-100%, а значит 100 fps, именно по задержке обработки кадров, превратились в 50-66 fps, хоть и нарисовано 200 fps Именно поэтому, когда при 30 fps, включаешь генерацию, играть становить не возможно, будто там 15-20 fps, если не меньше, что на самом деле так и есть по задержке А вот почему я так думаю Когда видеокарта генерирует кадры, ей нужно сначала обработать последний кадр, после чего сгенерировать промежуточный, и только после этого показать последний настоящий кадр Если учитывать, что сгенерированный кадр находится ровно по середине последних двух реальных кадров, то задержка увеличится в половину обработки одного кадра, то есть если один кадр обрабатывался 10ms, а сгенерированный по середине, задержка до появления последнего реального кадра возрастет на 5ms, и это не учитывая время на генерацию кадра Можете посмотреть видео на i2hard "Артефакты, задержки и много ФПС. - Изучаем и тестируем DLSS 3" Там они тестировали общую задержку Для пример, время обработки кадра в Starfield 10ms, общая задержка 36ms, а общая задержка с генерацией 45ms Если 10ms ушли на обработку кадров, а остальные 26ms ушли на прочее, значит еще 9ms ушли на генерацию, не так ли? Так как после этого можно утверждать, что задержка обработки кадров возрастает не значительно, если фактически она возрастает почти в 2 раза?
@@fx8052 я смотрю i2hard и помню это видео. Сейчас ещё раз зашёл перепроверить. Проблема в том, что там, где вы видите сильный рост задержки - это тесты с упором в CPU, чего при нормальной игре у пользователя никогда не будет при нормальном сценарии. А вот если вы в этом же видео вы найдёте сценарий упора в GPU, что как раз и происходит при игре у среднестатистического пользователя, вы увидите, что проблемы с задержкой такой уже нет. За счёт Reflex задержка снижается, но потом чуть чуть вырастает от включения генератора. Да, бывают сломанные игры, где отдельные технологии могут работать плохо, но в большинстве игр всё будет нормально работать. Проблема не в генераторе, а в имплементации в конкретной игре. Единственное, что скажу - тестируйте всё сами. Если вам нравится эффект, который даёт настройка, оставляйте и играйте с ним; если же нет, выключаете и забываете про неё. Всё просто
У кого нет часа времени, в двух словах пересказываю "5000 серия туфта, продолжайте дальше сидеть на 4000/3000/2000 серии". Шейдерной мощности прибавлено мало, а значит фпсиков будет мало, обновляться смысла нет. Ввели абсолютно не нужный мульти фрейм ген х4, который до 60 кадров не включишь ибо будет инпутлаг большой, а после 100 фпс он уже и не нужен и так все гладко! По сути более менее использовать можно ФГ 4000 серии х2 где дает, а х3-х4 бесполезен. Все основные улучшения завезли во все серии в виде улучшенного ДЛСС, РР, Рефлекса. Условная 5080 в нативе будет +- выдавать те же 15 фпс в киберпанке на ультрах с трассировкой пути, что и ваша старая 4080. А сотворить, что то вменяемое с мульти фрейм геном х4 вы не сможете. Ну будет показывать у вас 60 кадров, а задержка ввода будет как при 10 кадрах - оно вам надо? Нет. Ну включите вы ДЛСС на производительность и получите 1080р пережеванное ДЛССом в 4к ваши, ну будет у вас 35 фпс без мульти фрейм гена, а с х4 у вас будет 150 фпс, но при этом задержка ввода у вас будет как при 25 фпс. Оно вам надо эти 150 фпс? Нет! Поэтому без повышения нативной производительности, все эти фреймгены никак не работают. У них очень ограниченный диапазон применения от 60 до 100 кадров. Ниже 60 фпс вы получаете ужасную задержку, а выше 100 оно вам и не надо ибо и так все хорошо у вас. А так как 5000 линейка имеет очень слабый буст по грубой силе, то и смысла ее покупать нет.
Во-первых то, что выше 100 фпс не надо - это уже пиздёж и неправда, чем больше фпс - тем один хуй плавнее, у меня 165 ГЦ моник и 165 ФПС намного приятнее, чем 100, и это ощущается сильно. Во-вторых если у тебя 35 ФПС в 4К на 5080, то КТО тебе мешает настроить игру, например понизь качество самой трассировки, или снизь некоторые настройки графики, выжми хотя бы 50 "нативных" ФПС и включай Мультигенерацию, и всё, ноль проблем. Задержку никакую ты не почувствуешь в Сингл игре. Технология революционая и дико важная для высокогерцовых мониторов, теперь обладатели 240 ГЦ мониторов смогут не только в низкографеновое онлайн-дрочево играть в 240 фпс, но и в новые красивые сингл игры, даже с трассировкой, это чудо просто, такого без технологий не достичь. Ну а про так называемый "Натив" всё, забудь, он уже на свалке истории. Уже упор идёт в "нативную" производительность и нанометры, будущее за технологиями типа Мультигенерации и ДЛСС.
Есть там преимущества в различных добавленных аппратных блоках для некоторых спецэффектов, но с большим Но, всё это требует подержки игроделами. Они или тупы или ленивы или не хотят так как новых карт мало ятоб под них делать, и тогда надо если это возможно включать это в настройки вкл выкл. Нвидиа старается а игроделы инцелы как делали логодромы статерные так и продолжают. Ну вот поставят себе 5090 и запустят сайлент хил 2 и также лагать будет, статерить.😊 Вот когда нвидиа наконец выпустит именно игровые компы где цп озу врам гпу связаны по уму на скоростных шинах. А щас это лохотрон эти пк платформы
@@costea. что это за "различных добавленных аппратных блоках для некоторых спецэффектов"? Ты походу не о том вообще говоришь. Какие еще "спец. эффекты"? Будет из оружия не просто пламя от выстрела вылетать, а еще и конфетти? И что за "добавление аппаратных блоков", для этих "спец. эффектов". Сам придумал? Архитектурно 5000 серия линейки видеокарт, это копия 4000 серии и никаких новых блоков там не добавили.
Иди ищи таблицы по tflops. Там походу буст за счёт памяти будет и слегка насыпных cuda ,в расчет 5090 не берём .Ребрендинг относительно линейки super 5-10 процентов
во-первых, 4090 и так тянет что угодно в 100+ фпс. можно оставаться на ней во-вторых, таки нет. MFG будет в каждой первой большой игре. И если у тебя монитор на 144+ гц, то это нехилый такой буст, даже не считая 20% отрыва в базе
При 30 ФПС, генератор кадров не работает адекватно. Фризит, дергает, и лагает. А при 60 как бы уже и не требуется. В целом от 60 и выше разницы не вижу
На 60 fps имеет смысл, чтобы покрыть возможности мониторов с высокой частотой развертки. Генератор кадров - это не умножитель производительности, а инструмент увеличения визуальной плавности при сохранении ощущения от ввода
ничего не фризит, не дёргает и не лагает. лично крутил на киберпунке с базовыми 20-25 фпс. А при 60 ещё как требуется и отлично работает для достижения 120
Зачем вся эта муть? Зачем все эти фэйк сглаживания/улучшения/кадры? Почему нельзя просто убрать всю нейромуть и максимально заняться разработкой хороших отражений?
потому что мы упирается в возможности кремния. Новые тех процессы очень сложные и дорогие а на 1 нм мы достигнем эффекта туннелирования в кремнии, поэтому нужно улучшать производительность алгоритмами. Забудьте про нативное разрешение выше 1440р в современных играх
Автор понять ,не может ,что нам продают технологии, а не мощные видео карты по сути они как всегда на 10% мощней 400 линейки RTX1080 хватило на 10 лет 300 вышла горячая и прожорливая ,400 холодная и 10-15% мощней , 500-просто умеет рисовать мыло
Нам продают технологии, так и есть, потому что мы упирается в возможности кремния. Новые тех процессы очень сложные и дорогие а на 1 нм мы достигнем эффекта туннелирования в кремнии, поэтому нужно улучшать производительность алгоритмами. Забудьте про нативное разрешение выше 1440р в современных играх
@@SelectFrom вот сейчас даже поражаюсь твоей выдержке. откровенному идиоту пытаться что-то объяснять. таких миллионы. "мыло, обман, хуанг козёл, пук пук среньк". Респект тебе и соболезнования одновременно
щас ещё длсс 4 завезут, патч с оптимизацией выкотят и в 2к будет комфортно, поэтому решил 6000 подождать не менять, но реальные тесты и цены прояснят ситуацию.
Нвидиа дает вам 4к 240фпс или 8к 120фпс люди 4к 60фпс лучше… 8к в режиме длсс ультра перфоманс выглядит четче чем 4к таа и почти такая как 4к длаа но при это в 2 раза выше фпс, люди 30мс в одиночной игре это ужасно как так можно играть, черт возьми в отличной игре те 30мс не страшны если вы не кибер котлета, а в онлайн играх и так на 4090 от й440п средние до 4к высокие фпс от 300 до 500+ в фортнайт,волорант, апекс, колда 6 и тп
Нет нет нет. Фальшивые кадры от нвидии = нам такое наепалово не надо!!11 Вот амуде показала с утра первый взгляд на FSR4 - совсем другое дело. Там и фальшивые кадры как настоящие, и задержек нет, и артефактов, просто каеф! и никакого наепалова (весь ютуб завален такими коментами)
@ фсо всех был хуже длсс и задержку добовлял, и деталей и четкость заметно хуже чем в длсс, у них нет ии и внутри видеокарт нет нечего чтобы отвечала за стобильный результат, амд как был для нативного бюджетного гейминга как и остался
@@MakarPirog FSR4 может оказаться и правда неплохим. Посмотрим. Я тут про что главное говорю - про двойные стандарты. амуде благодарят за то же самое, за что ненавидят нвидию. И так повально, 99% коментов одинаковые
@ нвидиа 90% занимает всего ai по продажам и инновациям в мире, да и фср 4 будет ии блоки как в длсс видеокартах нвидиа, ну эти ии блоки будут сильно хуже
@ амд король нативного разрешения без Ии до 800$, для меня для онлайн игр цена фпс за амд, но фср 4 будет всё же хуже длсс 3 не говоря о длсс 4 где блоков стало в 4 раза лучше в 5090 чем у 4090
Опять говнокарты, шины порезаны, памяти мало, на 5090 заоблачная цена, ее реальная цена в розницу 600 долларов, достаточно включить лучи на 5090 и она сразу обделается в 4К разрешении, потому что для лучей нужно делать двухчиповые карты, а не эту парашу
Обьесняю крч посмотрим как это будет работать но все же в играх с точки зрения движка который кодили все работуют на одном принципе типо есть основная петлся в которой впихнута два метода один апдейт второй рендер и как часто это петля обновляется и есть твой фпс апдейт следит за инпутом игрока и любыми обьектами которые должны обновлятся а рендер рисует обновленые обьекты на экране допустим каждый кадр метод апдейт смотрит что бы игрок подвинул мышку как только игрок двигает мышку на определеное расстояние которое умножено на сенсу в движке метод аппдейт одновляет позицию камеры игрока а метод рендер рисует новый кадр для этого аппдейт выполняется первым перед рендером первый с физической точки зрения игрок подвинул мышку это инфа пошла обрабатоватся процесором и оболочкой тоесть системой виндовс передалась в игру игра обновила позицию камеры кадр отресовался показывая игроку где сейчас его камера первая версия рефлекшана срезала путь и направляла позицию мышки сразу к процесу просчета пропуская оппаратную оболочку и процессор новый же как он обьеснят человек двигает мышью в процесор попала инфа о том на какое растояние подвинулась мышка еше до того как петля игры успел отресовать несколько промежуточных кадров что бы полностью подвинуть мышь процесор берет промежуточный кадр и по инфе куда игрок подвинет мышь с процессора двигает кадр до того как все кадры отрисовались на экране прямо на промежуточном кадре что создает пустое петно в кадре в зависимости куда был сдвинут кадр которое дорисовывает на основе разнх каналов кадра простенький аи алгоритм надеюсь все поняли
не все и не всегда движки прям полностью работают иммено только на апдейте и на рендер петле ведь когда апдейте игровых обьектов привязан к фпс это иногда порождает неожидоное поведение в случии если у индивида очень большой фпс но конкретно инпут от пользывателся подругому работать впринципе не может писать для огромного возможного инпута отдельный поток и опропадывать его когда инпут должен быть постояный ну это откровено говоря маразм как с технической так и с стороны исполнения всего данного марофета и да иммено из за этого фундаментального принципа построения движков так много игр имеют смешные баги типо как огромную скорость передвежения и впринципе игры когда игра пробивает лимит по кадрам в помешении в фаллаут 4 или увелечиный урон от подения в дарк соулсе ведь програма не понимает такоей концепции как время а если с каждым кадром менятеся какое то значение в апдейте то изменение этого значение на прямую зависти от этого самого апдейта и программа допишь игра воспринимает один кадр как одну еденицу времени в которой обьект или какоето значение должно изменится но так как для разного компьютера вермя кадра разное получаем забавные баги
и не кто такие баги не пофиксит скорее всего ибо эти два метода поевились скорее всего еше задолго до разработки самой игры движок скорее всего начинался с этих двух методов и основной петли и тут как говорится если поменять что то это считай что вытянуть дженгу в низу перамиды на которой все держется и мало того что придется переписывать всю игру еше и движок условной бифесды которому 100 лет в обед где уже не кто и не помнит что на что положил спутся 20 с чем то лет модификации короче можно очень много чего сломать о сушествования чего ты даже не подазривал
не советую гнатся за генератором кадров потом пожелеете и даже не слушайте людей которые пытаются докозать вам обратное это враньё откровеное я наблюдал столько покалений как они эволюционировали и даже если вы посмотрели видео где умные с виду дядьки сравнивают картинку с апскейлом и генератором в статике или при большом фпсе я вам как человек который сьел на этом дерьме собаку как только ваш фпс упадет ниже 40 гостинги рассыпание картинки в движении а учитывая сколько шас обьектах в современых играх гостинг приведет вас к тому что без таблеток от головной боли вы не сможете играть в игру с ним так же если у вас малый или не дай бог не стабильный фпс в динамике при движениях обьектов или камеры вы в каждой игре будете наблюдать как сильно разлетается ваша картинка и приврашается в кашу и это фундаментальная проблема этих технологий ибо на каждой ее версии когда либо существовашей он сушествует как у амд так и нвидия у амд работает хуже но честно говоря насрав чуть больше или чуть меньше от этого оно слаше не станет так что максимум этой технологии если у вас и так стабильный высокий фпс без дергаюшегося графика времени кадра это подогнать его под герцовку своего монитора что наблюдать более плавную картинку в пративном случии вообше забудте про нее
Ну так генератор сделан для высокочастотных мониторов, когда у тебя стоковый FPS в районе 60, а не для того, чтобы игра которая не тянет резко заработала
@@SklaysonДа, а вот Хуанг почему-то так не думает видимо. Какого х7я тогда он презентует карту, где у него 28 ФПС у 5090 превращается в 240 ФПС? Говорит о приросте производительности и т.д. 5070 на уровне 4090, но только с DLSS 4, а в нативе она оказывается сильно хуже, соответственно и DLSS 4 с мультигенерацией не имеет смысл использовать (потому что нужна хоть какая-то нативная производительность). Тогда получается что 5070 сильно слабее 4090
@@SklaysonНу, а Хуанг говорит, что 5070 = 4090, при этом в нативе она абсолютно точно не 4090 даже близко, а генератор имеет смысл использовать только при хорошей нативной производительности, соответственно 5070 по итогу даже близко не настолько классная
Хз зачем обсуждать многопоточность нейронки и фиговый листок в виде DLSS4 который по факту, как и gsync, во многих играх корректно не работает с условием того, что все игры делаются не под среднего пользователя, а под бенчмарк-машинку за 100500$ + ко всему драйвера полное говно... Пусть потом производители игр не орут и пиратстве =)
Мы уже упираемся в технологический процесс. Нативного разрешения в новых играх не ждите больше нигде, особенно в разрешениях выше 1440р. Нвидиа правильно делают ставку на алгоритмы и нейронные сети, уже вариантов других нет
@@SelectFrom в смысле нативку не ждать ? Нативка никуда не денется, вне зависимости о разрешения =) Я всего лишь про то, что ввиду отсталости так сказать в "оптимизации продукции выпускаемой на рынок", ты можешь покупать хоть 2-е 5090 - толку от этого будет ровно столько-же, как ты купишь туже 4090. Просто натив показывает то, что есть, а не то, что может быть да ещё и зависит не только от видеоекарты, но и от остального железа... и ещё кучи нюансов. Проходили это уже и не раз, как с 1050 так и с 3060, так и с 4ххх линейкой, яко бы замещающей 3ххх линейку (правда рост производительности в целом на 5%, а цену по началу задрали на 30%, но об это, почему-то, все резко забыли и как того-же Хуанга ругали тоже забыли).
@@Zanchi879 возьмите любой "современный" ММОРПГ-проект. Там и в половине dlss не задействован, а gsync работает криво. Почему хотите скажу ? Потому, что до сих почти все новинки делаются на старых движках уровня UE3 которые не поддерживают технологию как dlss так и gsync. Все новые игры на уровне UE4-5 тупо не оптимизированы. Эти движки как были бенчмарком для видях так ими и остались, а люди как не умеют с ними работать так и по сей день не научились, и это самая главная причина почему игры на этих движках выходят не оптимизированными. На стендах показывают красоту и графику, а ставишь на рабочий пк - у тебя статеры и фризы. Проходили всё это и не раз.
я конечно всё понимаю, но я вполне осознанно брал 4060, и играл в алана вейка второго, даже лучи включал, и мне очень понравилось даже, можете называть меня как хотите, но посмотрев на 4060ти с 16гб, и заметил что вообще ни на что не влияет, поэтому ваши слезы это хрень собачья
Объяснение простое. Почему хорошо иметь много видео памяти? При заполнении всего объёма и если придётся подгружать что-то во время игры, ты получишь не то что статер, а постоянное падение производительности, ибо, по узкой шине, придётся гонять приличный массив данных. В любом другом случае, падения замечено не будет.
@@Basmurd это здорово иметь много памяти согласен, но база это чип и технологии которые в нем. мне вспоминаются времена когда у меня был gt9800 и мне говорили вот ты лох у тебя 512мб памяти, а игры у меня шли лучше и тормозили меньше чем у тех у кого был 1гб или 1.5гб, память это классно, но это ныть по этому поводу не нужно, 8гб памяти всё еще хватает и будет хватать долго, чтобы вы поняли, примерно столько же сколько прожила 1050 со своими 2-4гб памяти, и чем больше памяти тем дольше будет служить карта, потому что основная масса людей сидит смотрит в 1080p, эти ваши 2к 4к, ну вообще не уперлись честно говоря, это такая же разница как между 144гц и 240гц, а вот переход с просто 720p на 1080p был ощутим, как с 60гц на 144гц.
@@RustaveLСлушай, лучше разберись в теме, прежде чем писать подобное. Знаешь что такое mprt блюр? В сети много информации на этот счет, с детальным показом того как все это дело выглядит. 144 гц это 7 мс мпрт, 240 гц это 4 мс. На 240 гцах ты получаешь на 43% более четко изображение в движении. То есть на 1000 пикселях в секунду на 144 гцах у тебя 7 пикселей блюра движения, а на 240 гцах 4 пикселя блюра движения. И это ощутимая разница, сразу воспринимаемая глазом. Если конечно панельки медленные, то отклик может сузить разницу, но при хорошем респонс тайме все сразу и сильно видно. Это неоспариваемо, ровно так же как и на оспариваемы законы физики. Разница 2к и 1080 очень заметная, но по четкости тут все зависит от плотности пикселей. 1080 на ноутбуке по плотности пикселей лучше 4к монитора, но 4к покажет больше деталей картинки так как больше пикселей.
@samurai-operative8017 я как раз ждал пока ты начнешь мне на цифрах доказывать, а теперь иди в днс или любое другое место с мониторами, и пару дней зови людей с улицы и показывай им моники, а потом попробуй продать, удивишься что в твою религию про 4 мс и 7 мс никто не верит, та же самая история с rtx, до сих пор люди говорят что без него лучше, но суть остается той же, без рейтрейсинга сегодня не делают игры, разница только в рейтрейсинге реального времени или запеченого заранее. и тоже самое про объем видеопамяти. пока движок игры не просит больше условных 6-8гб, повышать объем памяти не будут, потому что зачем, ради тех избранных как автор видоса которому палец в рот не клади, дай еще гигабайтов?
@RustaveL Религию?) То есть явление имеющее прямое отношение с физикой это религия?) Фигею с тебя. Не знаю с чего ты приводишь этот бред про днс. Ты усомнился в разнице, я тебе пояснил про нее, плевать мне там как это продают(да и то пример твой реально используют при показах мониторов с высокой герцовкой или стробом), тем более ты сам же приводишь разницу 60 и 144 гц где 57% разница в mprt и плавности. 43% меньше, но не настолько чтоб это перестало быть тоже разительной разницей.
Круто конечно, но чувствую что видео сделано генератором кадров, явно фейк какой-то!
По твоим комментариям можно определять адекватные видео
Спасибо за видиво. Кстати, будет ли обзор на длсс 3 и 4 на примере сталкер 2?)
😂
всем нубам нужно с детсада или начальной школы просмотр этого как домашнее задание. что бы не писали дичь про какую то настоящую и не настоящую графику.
Ну и нахрена это всё? В игре если не рассматривать, всё равно ничего не видно. Тупо чтобы железо впарить.
а когда 5060 будет?, у меня S3 Trio64V2/DX PCI 1MB хочу проапгрейдится
Ха-ха-ха я нашёл тебя пришелец из 98 😂
У меня когда то такая же была на 512 КБ, увеличивал до 1 мб
Случайно увидел в рекомендациях это видео. Просто находка для меня! Спасибо за такое хорошее объяснение 😊 Подписался
Спасибо,очень круто! Этот канал прямо находка!У Вас талант объяснять,просмотрел на одном дыхании.
Позвольте вопрос: нейронная компрессия и декомпрессия текстур и rtx Mega Geometry будут работать на сороковой линейке карт?
спасибо! По поводу нейронного сжатия текстур пока непонятно. По логике должно работать везде на всех RTX, иначе нафига это всё. Nvidia сделали аппаратные блоки ускорения нейронок первые, поэтому получают гигантский профит сейчас от этого, а то время как у AMD сейчас будет первое поколение видеокарт с этими блоками, поэтому и FSR 4 будет работать только на них. Но nvidia - это nvidia и вполне могут сделать софт-лок на 50ю серию. Надеюсь, этого не будет
@@SelectFromну они же официально заявили, что на 40 серии карт все эти новые фичи тоже будут работать, за исключением мультигенератора....
@@SelectFrom в RX 7000 есть аппаратные блоки ИИ. Только почему то амд сделала фср 4 только для 9000 серии. Они даже инструментарий выпускали для работы с аппаратными блоками ии в 7000 серии
Отлично гляну, спасибо большое за выпуск 👌
Всех благ и тёплых эмоций ближнему кругу ❤
Бро, ты просто красавчик, на столько четко и понятно все разжевал, слов нет лайкос, подписка!
Благодарочка за информацию, всё доступно на сколько это возможно, не пойму почему подписчиков так мало?
Спасибо за познавательный видос!
Посмотрел внимательно, некоторые моменты персматривал, но так и не понял, а какая разница аппратная между 4й и 5ой серией? Я не особо в этом разбираюсь, как потребитель. Сейчас у меня 4080s, получается, что в5й серии просто програмное усиление? Как бы исскуственное?
Для себя пока не вижу смысла в переходе со своей ВК. Но это мое имхо, не разбираующегося.
У вас отличная карта, переходить на 50ю линейку смысла нет. Пользуйтесь с удовольствием ещё года 2-4. Отличия в новых картах минорные по сути, +15-20 процентов честной производительности в лучшем случае по каждому тиру карт в линейке и большой прирост по ускорению нейронных сетей. Насколько большой, покажет время и тесты. Переход тем более бессмысленнен, из-за того же объёма памяти и обновлении DLSS на всех картах серии RTX
@SelectFrom Спасибо.
Я вообще стоматолог, но про нейронки и генерацию кадров было интересно.
Импланты рискованно ставить, и если ставить то чего производства???
Не пойму, почему так мало подписчиков.. человек очень доходчиво даёт важнейшую инфу!
потому что матчасть тяжело понимать даже в лёгком виде.
гораздо удобнее ненавидеть нвидию потому что так модно.
и понимать ничего ни в чём не надо - сиди себе и пиши гневные коменты про наепалово от куртки.
Всё, ты в потоке, ты в струе
@@PhilosophicalSock пусть Хуан выпускает нормальные карты, а не это обрубленное говно, даже 5090 не тянет с лучами в 4К разрешении, максимум 40 фпс выдает
Большой ли прироста производительности будет в RT играх между 4080 и 5080? (без учёта super resolution, FG)
20% прироста
Судя по информации от NVIDIA, RT блоки обрабатывают вдвое больше треугольников на такт по сравнению с Ada Lovelace. По трассировке прирост хороший получается, но общая производительность GPU около 20 процентов по тестам. Также большой прирост по нейронкам должен быть
@@SelectFrom Ну если судить по тестам в фар крае 6 и плагтейл 2, то прирост 30-45%, но там лучи не такие тяжелые, интересно посмотреть на прирост в трассировке пути, например, в вуконге, где куча геометрии из-за растительности.
@@SelectFrom такое ощущение что гп могут больше и рт ядра сдерживает или узкие места в гп архитектуре или больше всего платформа пк
Был на стриме, но все равно посмотрел видео чтобы закрепить)
спасибо!
Так в итоге абсолютно все новшества, кроме мультигенератора, будут в сороковой линейке?
Да, и более того, во всех RTX
Спасибо большое за ролик, за анализ)
Что думаешь о технологии ue mega lights которая повышает фпс в сложных ценах с фулл рей трейсингом до 2х раз чисто благодаря оптимизации десятков источников освещения не трогая качество? (Также в ue есть технология динамического запекания света также для rt еще вроде с версии 5.2)
Кирилл, очень круто, посмотрел на одном дыхании! После таких видео обычный бэкенд кажется очень скучным, когда люди такие прорывные штуки делают.
Можешь, пожалуйста, посоветовать ресурсы, где на доступном языке так же можно почитать о технологиях? А работа у тебя тоже с нейронками связана?)
Если честно, найти ресурсы, где можно почитать простым и доступным языком ОЧЕНЬ сложно, особенно, на русском языке. Низкоуровневая информация берётся мной и коллегами из документации технологий и SDK на английском и потом доносится зрителям. Если бы было легко найти такую информацию, я бы не делал канал =)
Можешь посмотреть список источников в видео, например, про DLSS, который находится в описании. Причём этот список неполный, а только его часть. Полный список можно увидеть в прошлом ролике, где я его прокручивал в начале видео.
Порой, чтобы сделать одно видео, нужно прочитать десятки разных источников на английском, а то и по несколько раз, чтобы понять, и также с видео, которые я пересматриваю по многу раз, пока не разберусь.
Что касается информации по графическим технологиям в играх, эти знания я накапливал годами, изучая материалы сам. Позже, когда я начал вести канал, я случайно попал в вообщество энтузиастов, в котором мы обмениваемся знаниями - ссылка на него есть в описании (это дискорд сервер). Причём, там есть не только просто любители, но и люди, которые работают в индустрии. Если интересно, присоединяйся туда
Спасибо большое за развернутый ответ, присоединюсь)
@@LeatherVladAU если вдруг не подписан на канал моего коллеги Ильи - GodRay, подпишись на него тоже. Он из нашего сообщества и тоже делает классные видео
Спасибо бро, отличная подача и скоуп правильный. Лайк и подписка. Процветания тебе и каналу.
Спасибо большое за адекватный и подробный разбор!
Очередной крутой и полезный видос,который помог ответить на мои вопросы касательно технологий, вдобавок вдохновляя на дальнейшее изучение
Вот это я понимаю объяснил, так объяснил всё нормально и подробно) Спасибо за видео.
Будешь в будущем разбирать FSR 4?
А есть полная инфа по FSR4?
Да, как только появится информация и тесты об этом
Есть ли вообще смысл обновляться с 4070super?
Я немного иначе понял этот Frame Warp. Мне кажется, он вообще не берет данные от мышки, а работает по положениям внутриигровой камеры текущего кадра и следующего кадра от CPU. Сначала CPU работает над первым кадром, после, этот кадр передается GPU, сохраняется положение камеры в сцене и проц начинает работать над вторым кадром. Когда оба закончили работу - Frame Warp получает второе более актуальное положение камеры из второго кадра от CPU. Дальше высчитывается вектор изменения положения камеры и Frame Warp фотошопит первый кадр. Здесь сокращается задержка только видеокарты. Такая схема сможет учесть особенности поведения мыши и камеры в игре, тряска камеры от получении урона или кинематографичных взрывах, лимит обзора (в катсценах нельзя сильно мотать головой по сторонам), замедление/ускорение, изменение чувствительности при прицеливании и прочие особенности игр. Все просчитывается движком игры и разработчикам не придется сильно заморачиваться над внедрением этой технологии.
Интересно, вероятно что-то из этого. Нвидиа так же в тексте написали, что варп анализирует последние данные с устройств ввода. Так что наверное что-то посередине от вашего видения.
Нет,то что вы описываете это генерация кадров (работаем с промежуточным пока готов второй)
Здесь схема совершенно другая.мы берём инпут игрока и смещаем кадр относительно оси движения мышки без участия игрового движка,а пробелы от этого процесса заполняем нейронкой(есть хорошее видео от 2kliksphilip про фреймворп если интересно)
Таким образом вообще убираем программную задержку как таковую,ибо мы рисуем куски кадра так то вообще без участия движка
@@smail2507 Нет, я описывал не генерацию кадров. Мы не дожидаемся рендера второго кадра, а только его сцену. В момент, когда видеокарта отрендерит первый кадр, процессор сформирует сцену для второго кадра с более актуальным положением камеры. Так же если Frame Warp будет анализировать только движение мыши, минуя игровой движок - возможны рассинхроны и артефакты движения.
Как быть, если в игре ось Y ограничена? И мы не можем поднимать прицел слишком высоко. В случае анализа только по мышке - FrameWarp вылезет за рамки, перерисует кадр с более высоким углом Y и в последствии возможны дергания камеры. Так же как быть с отдачей при стрельбе? Мышку раньше обновляем, а отдачу позже? При учете результатов от движка - движения абсолютно точные. Только визуальные рассинхроны возможны. Начали стрелять, прицел повело вверх, а огня из дула еще нет. Или же получили в голову - нас встряхнуло в этом кадре, а источник урона отобразиться только на след. кадре
@@stakanoff4617 Такое вполне можно реализовать в движке дополнительным функционалом, где когда мышка отправляет новые данные - этот функционал обрабатывает под условия игры и сохраняет как новое положение камеры и тогда задержка будет очень мелкой. Но это требует реализации от разработчиков, в больших играх потребует учета множества факторов и сильно усложнит продвижение технологии. Мне как то больше верится изначальный вариант с полным созданием сцены в CPU - просто и надежно
ваша интерпретация довольно интересная. Насколько я понял, там используется что-то похожее на ваше описание в том числе, потому что иначе зачем им буфер глубины и предыдущие кадры?
Очень все круто. Самое главное, что Курта не обделяет обладателей rtx2000 серии даже. А им уже 6 лет. Взял Амд, в принципе не жалею, работает все ок по драйверам, а вот софт под видеокарты это просто кошмар. Все лагает, глючит, скидывает настройки и не чего не исправляеться. Поэтому, будет возможность, перейду на RTX карту.
что ты врешь фанатье? куртка фреймген от длсс 3 сделал только для 4000 серии, а МФГ только для 5000. Сколько вас фанатов не корми говном с лопаты, всегда будете такими глупенькими фанатиками...
бери 40ю линейку )) она щас в цене сядут конкретно если 5070 будет 100к стоить то 4070ti s будет топ рулей за 80
Софт обычный все в одном приложении, а не в 2-х как на нвидии. + Тоже самое могу написать и про софт нвидии, даже новость была что Nvidia app отнимает производительность и это только одна из последних новостей, так их больше было.
он даже в новых RTX 5000 памятью обделил, а всё равно молятся святой кожаной Куртке
Помню моя первая карта была MX 440 ни одного шейдера не поддерживала))) Как технологи шагнули писец пора обновляться!
Брал 4080 до выхода 50XX серии, для себя не вижу смысла перехода на 50 серию т.к я играю на 2к мониторе и фпс везде покрывает мои 165 герц (Я использую везде и ДЛСС и FG всегда, я платил за эти технологии и работает всё хорошо) посмотрел уже кучу видео и понял что вполне мог дождаться но я ничего и не теряю т.к задел на будущее большой
в целом эта видеокарта и 4к неплохо тянет, тоже обновлять смысла не вижу
@@TolyanS но вот тут уже неправда. 4К везде (!) тянет только 4090, если говорить про ультра настройки. А если уменьшать их, то и многие калькуляторы как бы в некотором смысле "тянут" 4К, что лишает конкретного смысла фразу "тянуть 4К"
@@PhilosophicalSock не попадалось такой игры (за исключением коряво оптимизированных), где мне пришлось бы снижать с ультров 4к, разумеется всегда использую dlss и fg
@@TolyanS КП2077 оптимизирован отлично. Как и Алан 2, например. Но я сильно сомневаюсь, что ты выкручиваешь там трассировку на максимум и всё на ультры. Даже на 4090 у меня местами управление становится вязким из-за слишком низкого базового фпс. Некомфортно играть. И это на Баланс пресете апскейла, на Качестве вообще неиграбельно. Скручивать на самый низкий Перфоманс пресет видится зашкварным. И опять же, самый тухлый режим апскейла равносилен сильному снижению настроек, имхо. Всё же артефакты заметны
@ если игра даже на 4090 на ультра неиграбельна, я не считаю её оптимизированной. Ведь тогда смысла в мощной видеокарте нет, если везде лагает. Но это моё мнение, не настаиваю
Меня лично интересует больше нагрев 5070 тк сейчас играю на palit jetstream 4070 супер , и иногда он долбится под 80 градусов и это я считаю дофига (корпус thermaltake tower 300), если охлады новых карт будут лучше то наверное буду менять , не считаю зазорным добавить 20к , свою карту брал в июле в Ситилинке за 65к, да придется добавить но зато какой результат. Поменял моник на 4к (144гц) и старой карты реально не хватает
В июле за 65к а сейчас они 80к+ стоят
@brotv6558 в 2024 году был ещё мегамаркет с кешбеком, половина Авито была дешёвыми видеокартами завалена... Но увы времена прошли
у тебя какая-то проблема с обдувом или с термопастой или с прижимом охлада. никаких 80 на 4000 серии и близко быть не должно. у меня на 4090 едва ли к 65 редко приближается
@@PhilosophicalSock посоветуй сборку для 2к гейминга. И ещё, стоит ли ждать ртх5060 и брать его? Или подождать пока 50 серия выйдет, а затем как цены упадут на 40ую серию, взять 4070 супер?
@@brotv6558 я не советчик сборок. обстоятельства и финансы у всех разные. есть лишь некоторые факты для подумать: если у 5060 будет 8гб памяти, то её НЕ брать точно. 8Гб уже мусор. я лично в 4К не видел игорей, которым нужно больше 16Гб. Но если ты любитель наворачивать моды с 8К текстурками, то тебе может понадобиться 16Гб. 12Гб - самый минимум сегодня.
упадут цены на 4000 или нет - тоже не факт. у нас типа кризис перманентный, санкции и курс деревянного адовый. легко могу представить, что просто барыги задерут цены на новые карты, а старые останутся как есть. 550$ же только на презентации цена и только для амурики. У нас легко превратится в 100к рубасов
По тестам Digital Foundry
При двух сгенерированных кадрах DLSS 4, задержка в среднем около 51 ms
При трех 55.5 ms
При 4 57.3 ms
Так что, всем клоунам, кто говорит, что задержка не увеличивается, скидывайте ссылку на видео, сами найдете оно последнее на канале
Я смотрю DF на постоянной основе, видео смотрел уже
@@SelectFrom а почему в видео об этом не сказали?
@@fx8052 потому что я разбирал саму технологию генерации кадров и как она работает. Про то, что задержка может расти при высоких значениях я не спорю. Другое дело как это будет ощущаться на практике. Кроме того, никто не заставляет включать х4 генерацию, даже одного кадра более, чем достаточно для покрытия возможности большинства высокогерцовых мониторов. Вы смотрите цифры, но нужно пробовать на практике как оно работает.
По своему опыту могу сказать, что генератор имеет смысл при производительности от 45 к\с при игре на геймпаде и при 50-60 к\с на клаво-мыши. Это не умножитель производительности, а инструмент увеличения визуальной плавности при примерном сохранении ощущения от ввода. Если у вас монитор 144 Гц, а игра на хороших настройках графики выдаёт только 50-60 кадров, вы можете получить больше визуальной плавности. Не рассматривайте генератор как умножительно производительности при низкой частоте кадров, это ошибочное мнение, навязанное блогерами, которые не понимают назначение этой технологии. Попробуйте сами в играх как это работает и увидите, что смысл есть. Всё нужно всегда проверять самому. В конце концов, если вам ваш личный опыт скажет, что вам не нравится, всегда можно отключить. Я, например, персонально не люблю некоторые пост эффекты: виньетку, зернистость плёнки и аберрации, поэтому всегда из отключаю
@@SelectFromВот именно. Генератор может превратить 60 кадров в 200+, но он не превратит 10 кадров в 60. 60 кадров это уже комфортный уровень игры. Генератор кадров не поможет условной rtx 5050 или rtx 5060 достигать 60 фпс на высокий настройках
Четко
не один здравомысляший человек не начнет продовать свою карту и брать новую из того же сегмента за 14 растиризаторов это чушь реальный прирость а не даунгрейд как и в прошлом покаление есть только у топа 4090 так что схема такая же если вы не шейх но не хотите отдавать за парашу 5090 свои кровные 2000 баксов которые даже скорее всего у вас не целый компьютер нету не то что на одну карту то в любом случии амд опять будет доедать бюджетный рынок за инвидией и их видеокарты как и в прошлый раз выйдут относительно цена качество лучше как и в прошлом сегменте если нет вы в любой момент можете купить инвидиа которые в ходе рыночной конкуренции просядут по цене так что советую просто подождать даже если вы питаете не обосновоную ненавись к амд технологием и принципиально берете зеленых я так сделал взял аналог 4070 s на релизе которая в среднем ниже на 2 кадра на релизе от 70 серии она и сейчас если сравнивать в валюте стоит 4070 s стоит где то почти 700 бачей тем временем карта от красных хуже в среднем на 3 кадра стоит 500 делайте выводы как говорится а на релизе когда они с конкуретными ценами залетели 400 долоров за эту карту отдать был просто подарок я так счастлив был наверно только в дестве так что не давайте вонючим карпаратам нажится на псевдо некст гене и думайте что вы покупаете и проверяйте сравнивайте и тд
Я об этом и говорю, что с 40й серии переходить смысла почти нет. Всё прекрасно будет работать на этих картах ещё года 2-4
Спасибо, за видео.
Я, правильно понимаю, что reflex v2.0 может быть наоборот вреден для онлайн-баталий? Ведь положение оппонента и его задержка ,относительно сервера, нам неизвестна(чтобы не было ситуации, когда ты, вроде бы первым атакуешь противника(стоящая фигура), а на самом деле он будет лежать и все уйдёт в молоко(время будет потеряно).
reflex 2 был разработан и протестирован e-sports командой nvidia. Думаю, они знают, что делают и reflex 2 будет отлично работать. В конце концов, его работу показывали именно в мультиплеерной игре Finals
@@SelectFrom Не сомневаюсь: команда профессионалов знает, что делает. Мне интересно: как это будет выглядеть после релиза?Т.к. в моем понимании reflex 2.0- система, которая работает на "опережение", а с учётом нового генератора кадров, с 3 нарисованными кадрами, вместо 1, как сервер должен на это реагировать, исходя из цикла(запрос-обработка-обновление-синхронизация)? Ведь каждый кадр даёт информацию о местоположении и направлении камеры. Больше кадров- больше задержка, я так это вижу.
На днях начал перепроходить Ryse: Son of Rome- игра 2013г. Без всяких rtx разработчики сделали,на мой взгляд, отличную картинку, почему сейчас никто не соблюдает баланс картинки/требования к пк? Разработчики этой игры урезали полигоны на моделях, чтобы на Xbox one пошла. Но игра выглядит сочнее, более поздних игр.
Не получится так, ты должен понимать что речь идет о мс а анимации проигрываются десятки мс.
Даже если алгоритм ошибся он быстро скорректируется.
@@You2Ber42 Я не специалист в этом вопросе(просто пытаюсь для себя разобраться). В видео автор говорит, что движок должен в т.ч. брать информацию из предыдущих кадров. Если, условно играет 2 команды в КС и у каждого игрока будет включен новый фреймген, то reflex 2.0 будет брать информацию из генерированных кадров? А их получается 75%, от общего числа(если на 1 реальный - 3 рисованных), у каждого игрока, сами игроки при этом не знают : в какой момент времени на экране проскочит реальный кадр- для них картина целостная. Мне вот это не ясно: сервер будет обрабатывать 75% информации нарисованной каждым из участников- не великовата ли будет погрешность, даже с учетом времени на корректировку?
@@KirBelGen Пока по поводу реального поведения в играх сложно что=то сказать. Надо ждать тестов и смотреть там. Графики от маркетологов всегда и всё приукрашивают, поэтому только реальные тесты
Вот эти ненужные технологии, люди давайте отрицать технологии и прогресс вместе 👭
Опа
Давайте радоваться "технологиям" ака фейковым кадрам вместо нормального прироста за поколение. Где прогресс-то ты увидел? В чистой производительности это провал. 5090 четверть цены от 4090 за 30% прироста вкупе с ростом тдп почти в полтора раза. Чуть ли не первый раз, когда новое поколение не отправляет отдыхать старое. Особенно, если сравнивать с 4000 супер линейкой. 5090 спокойно могла выходить под названием 4090 супер за те-же 2к зелени и ничего бы не изменилось. Православные блогерки, как были рабами Куртки до санкций, так и остались. Уже даже не за рекламные бабки зелённое фуфло втюхивают. Чисто за идею.
ua-cam.com/video/rlV7Ynd-g94/v-deo.htmlsi=FugaCCJ2aC7s3_Uh
Где новые видео, гундос?
@@Protector1rkчто плохого в "фейковых" кадрах?
@@Protector1rk вась, а ты лоб в лоб "фейковый" кадр от "настоящего" отличишь?
Кирилл ты на стриме в демках показывал демки аппаратного расчета для прозрачных текстур и тп и аппаратну реорганизацию шейдеров. Демки интересно где взять и потестить интересно на 3000 серии. с переотражениями там тоже прирост будет при вкл выкл ser., так как у тебя там галки вкл выкл сама апи а не выбор програмно или железно
Ссылки скидывали у нас в Discord
drive.google.com/file/d/1YuFe5ZvUdmPHywpF_wLw3C6lt6W0oYk8/view
github.com/NVIDIAGameWorks/RTX-Path-Tracing
Спасибо за ролик. Комментарий для продвижения канала.
Если они реально смогут побороть гостинг, то это будет, конечно круто и уберёт кучу проблем. Аааа еееесли, дай бог, DLL и вправду не придётся качать и автоматом будут подтягиваться новые версии DLSS, ну условным скриптиком самой Nvidia App, которая будет понимать, что ага запустилась игра с такой-то вот версией DLSS, она старая и будет вместо неё использовать новую из библеотеки - это внатуре будет круто
здорово, что они не забыли людей у которых ртхы предыдущих линеек
По поводу рефлекса, ничего такого как в презентации он не делает, это древняя настройка пререндера кадров, по умолчанию отрисовываются 3 кадра, в настройках панели нвидия можно установить 1 кадр или 0, что устраняет инпут лаг, в какойто момент кажется в 300-х драйверах нвидия эту настройку убрала, хотя пользователи просили и бунтовали, а теперь они выкатили это как новую технологию, это просто обман пользователей выдавая простую настройку за новую технологию.
Привет! Спасибо, отличный разбор - для игр подожду 5080 ti. Берём сейчас напрямую из США или Китая с Тайванем - получается дешевле чем в маркетплейсах. Asus Apex x870E от 90 до 100 тысяч. Придётся походу в плане центрального процессора пересаживаться на AMD, но вот опять же по тестам в 4К - всё не так однозначно. Лежит уже один SSD Intel Optane под работу, возьму ещё один под систему - на AMD они работают так же, если я не ошибаюсь?
Почему зажали память? Будут версии TI к концу года и SUPER так же скорее всего появиться чуть позже.
Память зажали для уменьшения жизненного цикла и запланированного устаревания и только для этого. Других причин нет, ибо память дешёвая сейчас
@@SelectFrom Ну Хуангу три года надо продавать 50-ую линейку. Возможность появления 5080 ti с 20 гб видеопамяти не исключаю=)
@@deymas3221 такое вполне вероятно, да
@@deymas3221 вариаций там вообще можно наклепать:
5080 супер, 256 шина, 24 гб памяти 1000$
5080 ти, 320 шина, 20 гб памяти , 1100$
5080 ти супер, 384 шина, 24 гб памяти 1200$
Такая вот ситуация в капиталистической конкуренции в условиях монополии.
Одни делают видяхи устаревающими быстрее по памяти, чем по чипу.
другие выкатывают 20+ гб, которые нахрен не нужны видяхам, скорее устаревающим по чипу и технологиям.
амуде просто нечем больше конкурировать, потому их фанбои обмазываются своими бесполезными гигабайтами
Интересно, будут эти технологии в Switch 2? И как они себя там покажут?
В сыче процессор на архитектуре 30 серии, апскеил будет максимум.
на свиче может не быть разве что MFG. Всё остальное будет. Для мобилки не нужно больше 120 фпс и не нужен минимальный отклик.
значит, там будет работать отлично с генерацией кадров
если там будет чип RTX серии, а об этом уже известно, то как минимум DLSS SR должен быть на месте
Автор смотрит Самый Сок ? Мое почтение 🎩
Подскажите пожалуйста, у меня друг ждёт дискретную видеокарту RTX 50 на 60, а я жду дискретную видеокарту RTX 50 на 70 или лучше дождаться Radeon RX 90 на 70, но у нас двоих мониторы с 1920x1080 разрешением, 144 герцами у меня и 280 у друга, плюс у нас есть G-Sync, так вот вопрос, нам надолго хватит этих видеокарт, для одиночных сюжетных игр?
Если на карты что уже вышли и можно делать какие то прогнозы то на новые карточки тестов которых даже нет делать прогнозы вилами по воде но в фул хд 5060 будет всеми правдами и не правдами 4 года выдавать 60 кадров за редкими исключениями (если игра не оптимизирована и там не будет длсс) 5070 будет примерно на 60% лучше потому не меньше того же срока.А на рх9070 очень интересно посмотреть тесты так как амд менее предсказуемые.
Брачо, бери 5070, для фуллХД 12ГБ будет впритык, а 5060 вполне себе может выйти с 8ГБ видеопамяти, тогда не все игры сможешь спокойно запускать
@@Renidazzis5070 для фулхд в привык? Это шутка?
Лох не исправим
@@grimoire_levi Сижу на 4070 ti super, в 2к разрешении Индиана Джонс жрёт 15.5ГБ видеопамяти. Норм играем?
слов нет какая длсс 4 имба, разительный отрыв в качестве от 3 версии, так еще и доступен на 20rtx, без понятия зачем нужны теперь карты от конкурентов, 4й длсс = натив
не не не, ты чо, это ж фальшивые кадры, скам и наепалово от куртки! весь ютуб завален таким нытьём.
и только что посмотрел первый взгляд на FSR4 - все пишут "ого как круто вау, уже хочу".
двойные стандарты и конченные хейтеры нвидии. сейчас модно ненавидеть зелень, даже если будешь выглядеть полным идиотом
Ну смотря что ты подразумиваешь под нативом. И старый апскейлер лучше натива с плохим таа.
Такая имба, что единственный пример на киберпанке сделан в темень и даже там можно увидеть разницу в четкости.
Насколько он шакалит картинку можно будет оценить только после выхода, но я сомневаюсь что в ближайшее время генерация кадров приблизится по качеству к нативу. Наш таймлайн проклят и упор сделан на другое, а некоторые ведомые и неприхотливые игроки уже настолько привыкли к мылу и лесенкам от длсс, что готовы своим копиумом оправдывать это технологию до посинения.
Ну ок, текстуры в латентное пространство переведут. Потом шейдер будет обращаться к текстуре и она в реальном времени будет сетью декодером обрабатываться и отдавать в шейдер данные? Честно говоря сомнительно. Обычно энкодеры для таких абстрактных вещей дллжны быть довольно большими, чтобы сжатие было адекватное. Декодеры обычно сопоставимых размеров, хотя в теории они конечно могли их сделать очень мелкими... Звучит как фантастика пока для меня.
Потому что чтобы развернуть латентное пространство обратно в исходное - нужно по сути еще кучу изображений промежуточных сгенерить.. даже если нейронка маленькая, все равно куча данных в промежутке генерится
Да, мне тоже пока кажется этот момент немного странным, потому что эта декомпрессия текстур будет отнимать время GPU. Пока не увижу как это работает в реале, мой скепсис останется при мне
Что то ты про рефлекс не то рассказал. А так норм для обзора.
Допустим на расчет кадра тратится 3мс. А на ортрисовку 12мс.
По рефлексу главное отличие в том что без рефлекса новый кадр начинает просчитываться сразу после окончания просчета прошлого. А потом когда он готов а видеокарта еще прошлый рисует мы ждем 12-3=9мс. И когда видеокарта закончила рисовать кадр она достает из очереди тот кадр который мы сделали 9мс назад. Т.е. он уже на 9мс отстает от того что есть в момент начала рисования кадра, а плюс еще сам кадр будет рисоваться 12.
Рефлекс запрещает за ранее готовить кадры, т.е. когда кадр готов и передан видеокарте процессор не начинает готовить новый, а ждет пока работа видеокарты будет близка к завершению, зная что процессору нужно 3мс игра начнет готовить кадр через 8мс после предыдущего, и таким образом отставание кадра от модели будет не 9мс а 3мс.
нужно ждать реальных тестов. Циферки на слайдах у nvidia, как и у любых других производителей железа, больше нерелеватны
Лечим от длсс по фотографиям😮
@SelectFrom Только что наткнулся на ваш канал. Просто ТОП пояснения за техническую составляющую.
Но сколько же здесь клоунов в комментах просто ужас, настолько нелепых теоретиков(постом выше коммент), продолжающих рассуждать о том как работает генерация кадров, когда прошёл 1 год спустя релиза в массы, где уже было всё рассказано и показано всеми.
Это говорит о том, что никто из выше отписавшихся не юзал генерацию кадров, только чешут языком и о том, какая она фейковая и никому не нужна.
Пересказывают чужие мысли других ютуберов выдавая за свои и так на каждом канале.......
ЛОЛ.
Запустил на максимуме ведьмак 3 в QHD, без dlss
итог:
1) ~45фпс - (задержка ~110мс) - картинка дерготня, дичайший инпут лаг
2) ~45фпс - (+ рефлекс задержка ~40-50мс) - картинка дерготня, обычный инпут лаг
3) ~65фпс - (DLSS FG + рефлекс задержка ~60-70мс) - плавная картинка, обычный инпут лаг
Играть когда базовый фпс 45-50(и включить генерацию кадров) вполне можно ничего страшного не случилось, зато какая плавность появилась.
А разница в инпут лаге 50вс60 по среднему значению не заметна в ведьмаке
Киберпанк трассировка пути, 1080p + dlssq
1) ~80фпс - (задержка ~60-70мс) - картинка не ультра плавная, дичайший инпут лаг - ощущается как 110+ в ведьмаке
2) ~80фпс - (+ рефлекс задержка ~25мс) - картинка не ультра плавная, низкий инпут лаг,
3) ~120фпс - (DLSS FG + рефлекс задержка ~35мс) - ультра плавная картинка, обычный инпут лаг, никакой разницы
Разница в инпут лаге 25вс35 по среднему значению не заметна в киберпанке.
Это я вообще к чему, отключите нафиг ваше рефлексы и играйте без них, даже с генерацией кадров + рефлекс = задержка в 2 раза меньше чем без данных технологий. Это же по вашему никак не мешает вам играть. ЛОЛ
Комментаторы, они на то и есть комментаторы, они коментят, а не тестируют или наблюдают, что есть в реальности.
Просто играя в игры и двигаясь по локации у вас везде будет разная задержка,(не путать с кадровой частотой), вы в двух местах сможете найти задержку
в ~25мс и ~35мс с одинаковым фпс.
Достаточно просто включить оверлей нвидии и посмотреть на задержку. Но что-то комментаторы не ноют об этой, разной задержке в разных локах.
Потому что они не знают о ней (привет плацебо), а тут им нвидия в лицо тыкнула, что есть легкое повышение в задержке и тут они все прозрели. И им теперь эта задержка стала важна. (5 минут назад, о ней даже не подозревали)
Одно дело когда люди просто не знают. То такие люди спрашивают про то как работает технология. А другие сразу имеют мнение, что она никому не нужна.
Я попробовал.
Рыбак рыбака видит издалека. 95% орущих что генерация кадров фигня - недалекие люди, которые даже не тестировали эту технологию.
Один раз попробуешь её потом будешь краснеть, что за глупости в интернете написал.
Больше 15 лет было по кайфу чтобы фпс был около 100, когда падал до 60-70 я менял видяху.
Теперь можно будет менять когда станет выдавать меньше 40-50 кадров без генерации. Получить плавность высокогерцового моника ценой в 5-10миллисекунд, когда и так уже в 2раза срезали задержку с помощью рефлекса - ноу проблем.
Видео-память ограничивают, в первую очередь, чтобы заламывать цены за профессиональные решения для нейросетей, где vram много.
Почему никто не учитывает стоимость новой видеопамяти 7 версии , ее скорость по сравнению с 6.... Прокачали ведь сильно) когда вывели ddr5 для процессора все ныли дорого и тд, а сейчас маст хэв если собираешь новую систему ,, глупо устаревшую ddr4 ставить, нвидиа прокачала 5 серию карт по скорости памяти и по производительности, да зажали обьем памяти но остальное то не так и плохо
крутое видео красава
Эх. А на стриме несколько часов заняло
там много вопросов задают, нужно отвечать, иначе а зачем стрим 🙂
Топ.
Спасибо за выпуск.
Смотря на системы и подсистемы всего и свя для генерации и предсказанию, то получается сложная система... НЕУЖЕЛИ ЭТО ИСПОЛЬЗУЕТ МЕНЬШИЕ РЕСУРСЫ чем голая производительность....😵💫
Разрыв восприятия какой-то 🙃😉🤗
невозможно бесконечно наращивать "голую производительность" на кремниевой электронике. физика не позволяет.
всё, ответ настолько простой
Да, нейронные манипуляции по созданию изображений на основе других изображений эффективнее и быстрее, чем рендер кадра, причём в разы
THNX
Прогресс не стоит на месте и это радует!
К сожалению, это радует только очень узкий круг людей, которые хоть что-то понимают в матчасти.
Попробуй почитать коменты на почти любом канале - утонешь в говне от идиотов, для которых нейросети - чёрная магия и обман.
И их примерно 99.5%
Да и двойные стандарты выкручены на максимум. нвидию модно ненавидеть за любой шаг. Когда амуде делает то же самое - или радуются или молчат
На бумаге все интересно но все нужно щупать. Ждемс.
С памятью реально беда. Думал покупать 5070 для qhd, но 12гб это калл, лютый калл.
Запланированное устаревание. Нвидиа не хочет, чтобы люди подолгу засиживались на картах. Единственные модели адекватные - 5070Ti для 1440р и 5060Ti для 1080р
@@SelectFrom фулл хд в 2025 еще и на карте за 400-450$ звучит смешно
Пока 12ГБ для игр в QHD хватает, даже для макс. настроек и генератора. Разве что Индиана Джонс вылезает за эти рамки с его неадекватно раздутой буферизицией, да и то только с активным PT.
Чем больше объем памяти на банке тем меньше разрядность шины
Закрыл видео после:
>550$ адекватная цена
Учитывая что из-за такой цены Intel и AMD пришлось переносить презентацию своих карточек, видимо действительно адекватная.
Доллар обесценивается, а другая валюта по отношению к доллару обесценивается ещё быстрее.
Вполне себе норм цена, учитывая, что видеокарту ты берешь МИНИМУМ на 2 года, но т.к. каждое поколение менять смысла нет, то на 4 года.
А если ещё взять во внимание контекст сегодняшнего дня, то можно и все 6 лет сидеть, а то и больше.
У меня 3080, вот до сих пор все тянет на ультра в 1080р., даже в лучах практически никогда себе не отказываю, хотя уже на 2 поколения отстаёт.
Ну и не понимаю эти возмущения, за последние лет 5 у нас недвижка подорожала раза 2, автомобили вообще молчу, даже базовые вещи, типа продуктов 50-200% стоимости нарастили, а как видеокарты подорожали на 10-20% - ахтунг!!!
@@chainedguy 5070 на старте дешевле 4070 стоит (549 против 599 долларов) так что они даже скинули ценник на неё.
Более менее
@@chainedguyзначит самое время продавать квартиры, так как они подорожали, брать видяхи, так как они не сильно подорожали, и майнить биток!)
4070-550 usd на релизе и стоила
Часть блогеров уже отметили, что сравнение с начальными версиями, а не супер, является тоже манипуляцией, потому что на фоне супер версий по цене и спецификациям новые карты выглядят так себе. И фраза "5080 дешевле чем в прошлом поколении" это чушь полная, её следует сравнивать с супер версией, где у них паритет по цене.
если сравнивать с Super версиями, то да, но мы берём вот рассматриваем эквивалентные модели. Зарелизят суперы, будем их сравнивать, а пока смотрим производительность поделей одинакового уровня
@SelectFrom Ты прикалываешься? Сравнивать надо актуальных конкурентов. Конкурентами для 50 серии являются суперки, а не обычные версии
@@leo58355 вы, наверное, посмотрели обзор автора Мой компьютер. Да, я тоже вчера его смотрел, но это его мнение, а это моё мнение и они могут не совпадать. Мы же не сравнивали раньше, допустим, 1080 и 980ti или 980 и 780Ti. Ti версии обычно выпускали через несколько месяцев, а то и год, поэтому это не совсем корректно так сравнивать. Нужно сравнивать что было на релизе 2 года назад и сейчас. Конечно, если мы берём улучшенные карты, прогресс вообще как будто на месте топчется, но относительно эквивалентных моделей всё вполне логично: +20-30 процентов общей производительности как и до этого было в большинстве поколений. Другое дело, что в этот раз упор делается на нейронные сети уж слишком сильно, но таков уж тренд сейчас
@@SelectFrom Не только его, ещё есть как минимум вот этот видос от англоязычного блогера ua-cam.com/video/rlV7Ynd-g94/v-deo.html
В целом не имеет значения что и когда выпущено, если ti версии ближе по цене - значит сравниваем их. В данном случае суперки не только прибавили в производительности - они ещё и цену скинули, так что Хуанг просто выпустил конкурентов с идентичной ценой, которые слабо превосходят суперки. Если мы сравним 50 серию и суперки - разница без учёта генератора будет 10-15%, кроме 5090 конечно, которая при этом нарастила и свою цену, так что сравнение со старыми версиями это очередной маркетинг от Хуанга.
@@leo58355 в этом есть доля правды, в целом
Все таки молодцы Нвидиа, что запихали улучшения и в 20 и 30 серию, помню, в 2015 году брал 980gtx (лучшая карта того времени) и тогда не мог играть в фулл хд и сглаживании 4x в 60фпс, а сейчас средняя 5070 тянет все и вся (жаль что 12гб)
У самого 4080s пока не меняю
Именно. Они абсолютно правильно сделали, что подсуетились раньше всех, потому что AMD теперь приходится делать только первую итерацию аппаратного ускорения нейронок, в то время как у нвидиа это уже 4е поколение карт, из-за чего все нейронные фишки можно запускать на картах шестилетней давности
Чел говорит 5060 для бомжей. Ты в каком мире живешь? Какие самые популярные и массовые карты нвидиа за последнее десятилетие? 1060\2060\3060\4060 и так далее. Ничего не изменится и в этот раз. rtx5060 будут раскупать быстрее любой другой модели
Популярность карты не делает ее хорошей. Если брать надолго, то 5070 и особенно 5070 Ti будут более эффективным вложением денег.
"The more you buy, the more you save"
Это я говорю типа от лица NVIDIA, а не от себя. Просто 8ГБ памяти = не покупайте карту, вот так это можно интерпретировать
А пожалуй по меняю свою 3070 на 5080, а то 8г очень мало для 2к😢
надо было брать 3060 😉
Обзоров подожди хотя бы в конце января, начале февраля
Мож через пол года супер версию сразу возьмёшь? С 16 гб
27:53 получается Super Resolution на transformer будет работать хуже на прошлых поколениях?
Не, одинаково
Возможно, будет работать совсем чутка медленнее, но это надо проверять на практике. Тем не менее, работать всё будет в полном объёме на всех RTX
Скорее всего будет зависеть от поколения и количества тензорных ядер. Чем их меньше и чем они старше, тем хуже будет буст от включения DLSS. Но вряд ли разница будет большая, даже между 2060 и 4090.
5060Ti будет топ на 16ГБ
длсс генерация кадров в потоковом видео в браузере при просмотре фильмов и тп по нажатию 1 кнопки и возможность переработки видео и анимации в процесе производства аниме к примеру сразу в 60 кадров без артефактов
Аплодирую стоя, случайно наткнулся на канал, жду 5080 что бы обновиться с 4080, очень хочется пощупать новый генератор и перепройти Киберпанк с Патч трейсингом наконец то в 4к, со старым генератором пройдены все интересующие меня одиночные игры двух последних лет!
Только не "патч", а "паф" (path) трейсинг
@PhilosophicalSock да знаю, написал, что бы большинство поняло
интересно будет посмотреть на реальные цены, как там 5080 будет выглядеть относительно 4090. Может быть выгодно продать старушку и взять новое. Или наоборот окажется лучше б\ушная 4090. Всё же 240 фпс нужно только если у тебя такой нереальный 4К монитор. Что вряд ли, учитывая 4080 в компе
@@PhilosophicalSock почему бы и нет? Более качественный моник в плане потребления контента даст больше, чем 4090.
@@dead_locked более качественный моник может стоить как целая 4080 и выше. А "раскрыть" его высокую герцовку в 4К сможет только новое поколение с новым генератором. В принципе, если деньги есть, то вопрос отпадает
Работаю на ноутах и если ты используешь Блендер, Синема 4Д или, упаси господь, Гудини, при восьми гигах, это сразу смерть, при не самом выдающемся выходном визуале. Куртка, в очередной раз, плевать хотел на пользователей. Кто-то скажет, что работай на ПК, но, лично в моём случае, не реализуемо совсем.
Как вариант дешманский ноут + мощный пк с удаленным доступом. Моделить можно на любом ноуте, собрать тяжелую сцену, просчитать симуляции/рендер уже на мощном пк.
Абсолютно согласен. У меня девушка - 3D дизайнер интерьеров. Всякие Lumion выжирают видеопамять только в путь, поэтому да, это проблема
Нет серверов которых можно было бы арендовать для таких целей?
@@brotv6558 вопросом не задавался, но думаю, что есть. Должны быть, по крайней мере. Много монтажу на ходу и в пути, там эта аренда нифига не поможет.
20 кадров по факту, а не экране 250 на кого это рассчитано...
Чем меньше нанометры-тем сложнее пихать мощн. оборудование в тоже пространство на карточке.Это не может длится бесконечно..Меньше..меньше...Наступил порог уменьшения...Критичный.Именно поэтому перешли на технологии...Выбора нет...Реальность и возможности.Хуангу респект что он заранее это предвидел..
Любое сжатие текстур это ухудшение качества, с таким же успехом ты можешь поставить качество на средние и играть без всяких сжатий, но качества епик и ультра тебе не видать как своих ушей
Именно. Мы с коллегами говорим об этом уже не первый год. Новые техпроцессы всё сложнее и дороже для освоения, прогресс производства чипов замедляется
@@SelectFrom а что сложно было добавить памяти и сделать шину 190 бит для карты 5060? Это что нереально сложная задача?
@@СергейЮрьевич-ж6лТогда надо было бы память добавлять. Шина складывается из количества контроллеров памяти и чипов. В 4060, например, 4 чипа по 2 гигабайта, каждый требует шину 32 бита для подключения. 32х4=128.
@@SelectFrom так об этом и речь, что можно было сделать хотя бы 10 гбайт и шину 160 бит, как это сделал Интел, тогда 5060 дала бы прирост в играх. Но нет Хуан привык с говна пенку собирать, это перевыпуск 4060 и прирост на уровне погрешности
Да все верно самая адекватная 5070 TI.. но опять же если можно добавить то 5080... две карты для квада... 12 гигова деньги на ветер
AMD с Intel явно напряглись там у себя
это ещё мягко сказано, я думаю...
подскажи как сделать такие же круглые вкладки как у тебя в хроме)
Это просто тема для браузера установлена. Можете посмотреть в магазине расширений Google
@ а можно название пожалуйста) сложно будет найти думаю
@tishaqqe8198 тема называется
Dark Theme for Google Chrome
Вот ссылка
chromewebstore.google.com/detail/dark-theme-for-google-chr/annfbnbieaamhaimclajlajpijgkdblo?pli=1
@@SelectFrom а как вы сделали вкладки круглыми? у меня просто после установки темы они все равно остаются лишь слегка скругленными как они есть по дефолту
@tishaqqe8198 хм, не знаю Я только эту тему установил и всё. Сегодня проверил на другом аккаунте - там тоже заработало
думал обновлять 4080 на 5090, но видимо лучше подождать 6000
на 4090 можно спокойно сидеть ещё 2-4 года. С ней всё будет отлично. Карта очень производительная, памяти дофига - а что ещё нужно? Многокадровый генератор не особо нужен
Если ты в 2к гамаешь, то и правда можно не рыпаться. 100+ фпс достаточно для комфорта.
Самый большой смысл от новой линейки для олигархов с 4К@240 гц мониторами и выше
Зачем нам ваши rtx, которые сжирают половину фепасов? Да, качество получше, чем с классическеми методами. Но не в 2 раза. Можешь объяснить, зачем оно игрокам?
затем, что это единственный путь для дальнейшего прогресса.
ничего лучше в графике не существует. миллионы растровых костылей отправятся на свалку истории. И это замечательно
А почему бы и нет, если железо позволяет
Очень классное, подробное и качественное видео! До этого посмотрел видео про новые карточки и автор там просто всё видео поносил новые карточки за DLSS и Frame Gen. Хотя это не проблема новых карточек от Nvidia, у них есть много других проблем как с тем же объёмом памяти и энергоэффективностью (температурами). Конечно я понимаю негодование многих людей по поводу этих технологий, но и многие не задумываются что сейчас в наше время мы столкнулись с проблемой, точнее разработчики игры, что требование к играм всё растёт и растёт по графике, геймплею и т.д. А времени и срока на их создания толком не увеличиваются, из-за чего у многих не остаётся времени оптимизировать свой проект. Так что эти технологии очень помогают разработчикам. + А многие не видели сравнение DLSS и любого другого традиционного сглаживания, например TAA. Ведь там во многих случаях DLSS выигрывает по качеству картинки и плюсом поднимает fps. Про Frame Gen. жалобы идут что там появляется огромный импутлаг и управление становится вязким и не приятным. Я не могу сказать насколько он меняет ощущения от геймплея, но смотря и слушая разных блогеров я могу сделать вывод что для обычного рядового геймера не будет никакой разници в ощущениях игры с генератором кадров или без него, но при этом он получает ещё + fps. Единственно разницу вероятно заметят только киберспортсмены которым важны каждые 0,01 секунда. Но они и играют только в те игры где с оптимизацией нет проблем и там спокойно можно выключить эти технологии и получать 300-500+ fps. Так что мне честно трудно понять причины негодования многих людей по поводу технологий. Технологии всегда двигают прогресс и делают хорошо, а проблемы с видеопамятью, энергоэффективностью/нагревом, ценой (Ну могли бы сделать чуть дешевле) и т.д. Это реальные проблемы на которые нужно указывать и за которые нужно ругать компанию Nvidia, но если у вас есть доводы против этих технологий, пишите сюда в комментариях я с радостью посмотрю и отвечу ^^
А также есть же уже новые карточки от AMD 9000-й серии которые уже достигли производительности 4000-й серии и стоят в два раза дешевле. Так что вероятно AMD сейчас победила и взяла лидерство в процессорах (А я в них всегда верил и поддерживал), и сейчас начнёт улучшать свои карточки и брать всё больший и больший кусок рынка видеокарт и давить на Nvidia тем самым снова заставив делать карточки лучше и с меньшим количеством проблем. Хотя как по мне AMD бы улучшить свои карты в рабочих задачах сделав бы их хотябы такими же как у Nvidia и уже они станут в разы популярнее. + Ещё не забываем про тёмную лошадку в видеокартах Intel, который вроде бы тоже неплохо вошёл. Так что ещё посмотрим и увидим)
1. да что ты вообще несёшь? откуда инфа про энергоэфективность и температуры новых карт? ни одного теста не было.
2. жалобы на инпут лаг идут только от идиотов, которые сами его не пробовали или не способны понять, что им говорят - для FG желательно иметь 60 базовых фпс.
идиоты всё пытаются выставить как проблему то, что из 20 фпс им не делают 120 идеальных с задержкой как у 120 фпс. А это чушь собачья. Такого никто никогда и не обещал
3. киберкотлеты играют в такие игры, где и так 300+ фпс, им не нужны никакие генераторы. им нужен только Reflex
4. негодование людей исключительно от их собственной тупости и неспособности понять инфу, которую им даёт нвидия. нейросети - вообще для 99% аудитории являются какой-то чёрной магией и обманом. А на самом деле просто мозгов не хватает понять, как это всё работает
5. нет ещё никаких новых карт от амд и откуда инфа, что они достигли 4000 серии и откуда инфа про цены? господи, да что ты опять несёшь.. ни одно теста, никакой инфы не было, они даже не представлены официально
@@PhilosophicalSock Смотри, с 2 и 3 Я полностью согласен и про это я и писал в своём сообщении, тут ок)
В первом про энергоэффективность и температуры, уже есть в интернете информация о TDP (потреблении энергии) видеокарт 50-й серии, где например 5090 потребляет будет потреблять 575W, что на 125W больше чем у 4090, а тут уже исходя из потребления энергии и ещё больших размеров системы охлаждения и самих карт в сравнении с 40-й серией можно сделать вывод о высоких температурах.
Насчёт новых карт от AMD уже появляется информация про эти карточки из сливов, а точнее их тесты где и видны показатель что RX 9070 по мощности сравнима с 4080 super (но без апскейлеров и генераторов кадра, чистая производительность) а цена, тут честно скажу могу согласится что цена может быть не достоверной, но во многих источниках указывается цена в 500$, тогда как 4080 super стоит 1000$
Задержка 240 мс по монитору а не мышке тебе кайфик будет так играть в игры? Я когда в сталкер с Фг играл выброситься в окно хотел хоть к меня было 120-180 фпс а там в 4 раза больше задержка
@arasik2474Я не могу сказать имеется ли значительная задержка с Frame Generator или нет, так как сам лично не могу протестировать и я говорю лишь беря за основу того, что говорят другие люди и на основе информации от Nvidia. Если у тебя без Frame Generator меньше 60 fps то с большой вероятностью и в правду будет большая задержка, но если у тебя с этим всё нормально, то не могу сказать где проблема и вероятно в данном случае Frame Generator и в правду будет делать только хуже и будет лучше только с DLSS.
Но в целом я смотрел и слушал разных блогеров, стримеров, спрашивал знакомых и у них толком проблем не было и в итоге они получали красивую плавную картинку)
Но я точно не знаю, говорю на основе информации и мнению других людей.
Итоги презентации: нормально памяти только в 5090, ноуты с 5070 Ti от 150к *минимум*, придумать последний пункт при помощи нейросети...
С каких пор 8гб видеопамяти не хватает? Сейчас же если настоящих кадров не хватает то длсс помогает, для многих игр достаточно и ноутбучной rtx 3060
8ГБ памяти не хватает уже даже в 1080р. Я владелец RTX 4060 Laptop, там эта проблема всплывает уже во многих играх
@SelectFrom хмм, странно, в тестах ноутбука lenovo legion 5 pro с ryzen 7 5800u rtx 3060 он хорошо тянул многие современные игры в 1080р на максималках, в некоторые игр и в 1440р получалось с хорошим фпс играть, у rtx 3060 вроде как раз 8 гб, возможно в самом ноутбуке проблема с раскрытием мощи и как вариант если не хватает есть длсс и фср
@@raven169 если снижать разрешение карт теней и разрешение текстур, уместить то можно игру в 8ГБ, но это всё чаще приходится делать в играх. Это плохо. Постоянно приходится сидеть и думать над настройками и использованием генератора кадров, потому что его включение забирает видеопамять, которой и так нет
Именно апскеил DLSS 4 это очень интересная штука
Генерация кадров абсолютна бесполезна, скорее вредна
Генератор имеет смысл при производительности от 45 к\с при игре на геймпаде и при 50-60 к\с на клаво-мыши. Генератор нужен, чтобы покрыть возможности мониторов с высокой частотой развертки. Это не умножитель производительности, а инструмент увеличения визуальной плавности при сохранении ощущения от ввода. Если у вас монитор 144 Гц, а игра на хороших настройках графики выдаёт только 50-60 кадров, вы можете получмить больше визуальной плавности. Не рассматривайте генератор как умножительно производительности при низкой частоте кадров, это ошибочное мнение, навязанное блогерами, которые не понимают назначение этой технологии. Попробуйте сами в играх как это работает и увидите, что смысл есть. Всё нужно всегда проверять самому. В конце концов, если вам ваш личный опыт скажет, что вам не нравится, всегда можно отключить. Я, например, персонально не люблю некоторые пост эффекты: виньетку, зернистость плёнки и аберрации, поэтому всегда из отключаю
@@SelectFrom
Как вы думаете
Вот было 100 FPS и общая задержка 40ms
Включили генерацию кадров, FPS увеличился (не важно на сколько), задержка стала 50ms
Какому число FPS стала соответствовать задержка при включенной генерации?
Ведь кажется, что задержка соответствует на 25% меньшему числу FPS, ведь задержка возросла на эти 25%, но это вообще не так
Общая задержка в 40ms на то и общая, что учитывает абсолютно все, и мышку, и монитор и тп
В реальности, задержка именно обработки кадров возросла примерно на 50-100%, а значит 100 fps, именно по задержке обработки кадров, превратились в 50-66 fps, хоть и нарисовано 200 fps
Именно поэтому, когда при 30 fps, включаешь генерацию, играть становить не возможно, будто там 15-20 fps, если не меньше, что на самом деле так и есть по задержке
А вот почему я так думаю
Когда видеокарта генерирует кадры, ей нужно сначала обработать последний кадр, после чего сгенерировать промежуточный, и только после этого показать последний настоящий кадр
Если учитывать, что сгенерированный кадр находится ровно по середине последних двух реальных кадров, то задержка увеличится в половину обработки одного кадра, то есть если один кадр обрабатывался 10ms, а сгенерированный по середине, задержка до появления последнего реального кадра возрастет на 5ms, и это не учитывая время на генерацию кадра
Можете посмотреть видео на i2hard "Артефакты, задержки и много ФПС. - Изучаем и тестируем DLSS 3"
Там они тестировали общую задержку
Для пример, время обработки кадра в Starfield 10ms, общая задержка 36ms, а общая задержка с генерацией 45ms
Если 10ms ушли на обработку кадров, а остальные 26ms ушли на прочее, значит еще 9ms ушли на генерацию, не так ли?
Так как после этого можно утверждать, что задержка обработки кадров возрастает не значительно, если фактически она возрастает почти в 2 раза?
@@fx8052 я смотрю i2hard и помню это видео. Сейчас ещё раз зашёл перепроверить. Проблема в том, что там, где вы видите сильный рост задержки - это тесты с упором в CPU, чего при нормальной игре у пользователя никогда не будет при нормальном сценарии. А вот если вы в этом же видео вы найдёте сценарий упора в GPU, что как раз и происходит при игре у среднестатистического пользователя, вы увидите, что проблемы с задержкой такой уже нет. За счёт Reflex задержка снижается, но потом чуть чуть вырастает от включения генератора.
Да, бывают сломанные игры, где отдельные технологии могут работать плохо, но в большинстве игр всё будет нормально работать. Проблема не в генераторе, а в имплементации в конкретной игре. Единственное, что скажу - тестируйте всё сами. Если вам нравится эффект, который даёт настройка, оставляйте и играйте с ним; если же нет, выключаете и забываете про неё. Всё просто
У кого нет часа времени, в двух словах пересказываю "5000 серия туфта, продолжайте дальше сидеть на 4000/3000/2000 серии". Шейдерной мощности прибавлено мало, а значит фпсиков будет мало, обновляться смысла нет. Ввели абсолютно не нужный мульти фрейм ген х4, который до 60 кадров не включишь ибо будет инпутлаг большой, а после 100 фпс он уже и не нужен и так все гладко! По сути более менее использовать можно ФГ 4000 серии х2 где дает, а х3-х4 бесполезен. Все основные улучшения завезли во все серии в виде улучшенного ДЛСС, РР, Рефлекса.
Условная 5080 в нативе будет +- выдавать те же 15 фпс в киберпанке на ультрах с трассировкой пути, что и ваша старая 4080. А сотворить, что то вменяемое с мульти фрейм геном х4 вы не сможете. Ну будет показывать у вас 60 кадров, а задержка ввода будет как при 10 кадрах - оно вам надо? Нет. Ну включите вы ДЛСС на производительность и получите 1080р пережеванное ДЛССом в 4к ваши, ну будет у вас 35 фпс без мульти фрейм гена, а с х4 у вас будет 150 фпс, но при этом задержка ввода у вас будет как при 25 фпс. Оно вам надо эти 150 фпс? Нет! Поэтому без повышения нативной производительности, все эти фреймгены никак не работают. У них очень ограниченный диапазон применения от 60 до 100 кадров. Ниже 60 фпс вы получаете ужасную задержку, а выше 100 оно вам и не надо ибо и так все хорошо у вас. А так как 5000 линейка имеет очень слабый буст по грубой силе, то и смысла ее покупать нет.
Во-первых то, что выше 100 фпс не надо - это уже пиздёж и неправда, чем больше фпс - тем один хуй плавнее, у меня 165 ГЦ моник и 165 ФПС намного приятнее, чем 100, и это ощущается сильно. Во-вторых если у тебя 35 ФПС в 4К на 5080, то КТО тебе мешает настроить игру, например понизь качество самой трассировки, или снизь некоторые настройки графики, выжми хотя бы 50 "нативных" ФПС и включай Мультигенерацию, и всё, ноль проблем. Задержку никакую ты не почувствуешь в Сингл игре. Технология революционая и дико важная для высокогерцовых мониторов, теперь обладатели 240 ГЦ мониторов смогут не только в низкографеновое онлайн-дрочево играть в 240 фпс, но и в новые красивые сингл игры, даже с трассировкой, это чудо просто, такого без технологий не достичь. Ну а про так называемый "Натив" всё, забудь, он уже на свалке истории. Уже упор идёт в "нативную" производительность и нанометры, будущее за технологиями типа Мультигенерации и ДЛСС.
Есть там преимущества в различных добавленных аппратных блоках для некоторых спецэффектов, но с большим Но, всё это требует подержки игроделами. Они или тупы или ленивы или не хотят так как новых карт мало ятоб под них делать, и тогда надо если это возможно включать это в настройки вкл выкл. Нвидиа старается а игроделы инцелы как делали логодромы статерные так и продолжают. Ну вот поставят себе 5090 и запустят сайлент хил 2 и также лагать будет, статерить.😊
Вот когда нвидиа наконец выпустит именно игровые компы где цп озу врам гпу связаны по уму на скоростных шинах. А щас это лохотрон эти пк платформы
@@costea. что это за "различных добавленных аппратных блоках для некоторых спецэффектов"? Ты походу не о том вообще говоришь. Какие еще "спец. эффекты"? Будет из оружия не просто пламя от выстрела вылетать, а еще и конфетти? И что за "добавление аппаратных блоков", для этих "спец. эффектов". Сам придумал? Архитектурно 5000 серия линейки видеокарт, это копия 4000 серии и никаких новых блоков там не добавили.
Иди ищи таблицы по tflops. Там походу буст за счёт памяти будет и слегка насыпных cuda ,в расчет 5090 не берём .Ребрендинг относительно линейки super 5-10 процентов
Че тут 50 минут мусолить, 5090 на десяток, ну от силы 20 процентов быстрее 4090. Вот и весь итог презентации. Расходимся.
во-первых, 4090 и так тянет что угодно в 100+ фпс. можно оставаться на ней
во-вторых, таки нет. MFG будет в каждой первой большой игре. И если у тебя монитор на 144+ гц, то это нехилый такой буст, даже не считая 20% отрыва в базе
Так тут и разбор технологий
По слайдам в фарике 6 и плагтейл 2 5090 быстрее 4090 на 30-45%, какие еще 20%?
При 30 ФПС, генератор кадров не работает адекватно. Фризит, дергает, и лагает. А при 60 как бы уже и не требуется. В целом от 60 и выше разницы не вижу
На 60 fps имеет смысл, чтобы покрыть возможности мониторов с высокой частотой развертки. Генератор кадров - это не умножитель производительности, а инструмент увеличения визуальной плавности при сохранении ощущения от ввода
ничего не фризит, не дёргает и не лагает. лично крутил на киберпунке с базовыми 20-25 фпс.
А при 60 ещё как требуется и отлично работает для достижения 120
лучше подождать амд и взять его если ты не собираешся брать 5090
Rtx 5070 тоже существует, к тому же амд даже не представила свои новые карты.
Зачем вся эта муть? Зачем все эти фэйк сглаживания/улучшения/кадры? Почему нельзя просто убрать всю нейромуть и максимально заняться разработкой хороших отражений?
потому что мы упирается в возможности кремния. Новые тех процессы очень сложные и дорогие а на 1 нм мы достигнем эффекта туннелирования в кремнии, поэтому нужно улучшать производительность алгоритмами. Забудьте про нативное разрешение выше 1440р в современных играх
@SelectFrom я хочу FHD с настоящими отражениями и нормальной графикой, с графикой хотябы уровня сталкера первого. Разве я много прошу?
Автор понять ,не может ,что нам продают технологии, а не мощные видео карты
по сути они как всегда на 10% мощней 400 линейки
RTX1080 хватило на 10 лет
300 вышла горячая и прожорливая ,400 холодная и 10-15% мощней , 500-просто умеет рисовать мыло
Нам продают технологии, так и есть, потому что мы упирается в возможности кремния. Новые тех процессы очень сложные и дорогие а на 1 нм мы достигнем эффекта туннелирования в кремнии, поэтому нужно улучшать производительность алгоритмами. Забудьте про нативное разрешение выше 1440р в современных играх
@@SelectFrom вот сейчас даже поражаюсь твоей выдержке. откровенному идиоту пытаться что-то объяснять.
таких миллионы. "мыло, обман, хуанг козёл, пук пук среньк".
Респект тебе и соболезнования одновременно
4060 это фул хд, 8гб хватает
Уже во многих играх не хватает. Я владелец ноута с 4060, много где приходится снижать настройки, чтобы не было фризов
@SelectFrom в сталкер 2 на эпике в нативе с генератором 60-80 фпс без просадок, в 2к ла согласен не тянет.
щас ещё длсс 4 завезут, патч с оптимизацией выкотят и в 2к будет комфортно, поэтому решил 6000 подождать не менять, но реальные тесты и цены прояснят ситуацию.
по началу и 4060 хейтили все кому не лень, а когда поняли что генератор имба за свои деньги позатыкались.
Я не фанат, ну ааждый раз ною и унылым голосов вещаю школьникам....
Нвидиа дает вам 4к 240фпс или 8к 120фпс люди 4к 60фпс лучше… 8к в режиме длсс ультра перфоманс выглядит четче чем 4к таа и почти такая как 4к длаа но при это в 2 раза выше фпс, люди 30мс в одиночной игре это ужасно как так можно играть, черт возьми в отличной игре те 30мс не страшны если вы не кибер котлета, а в онлайн играх и так на 4090 от й440п средние до 4к высокие фпс от 300 до 500+ в фортнайт,волорант, апекс, колда 6 и тп
Нет нет нет. Фальшивые кадры от нвидии = нам такое наепалово не надо!!11
Вот амуде показала с утра первый взгляд на FSR4 - совсем другое дело.
Там и фальшивые кадры как настоящие, и задержек нет, и артефактов, просто каеф!
и никакого наепалова (весь ютуб завален такими коментами)
@ фсо всех был хуже длсс и задержку добовлял, и деталей и четкость заметно хуже чем в длсс, у них нет ии и внутри видеокарт нет нечего чтобы отвечала за стобильный результат, амд как был для нативного бюджетного гейминга как и остался
@@MakarPirog FSR4 может оказаться и правда неплохим. Посмотрим. Я тут про что главное говорю - про двойные стандарты. амуде благодарят за то же самое, за что ненавидят нвидию. И так повально, 99% коментов одинаковые
@ нвидиа 90% занимает всего ai по продажам и инновациям в мире, да и фср 4 будет ии блоки как в длсс видеокартах нвидиа, ну эти ии блоки будут сильно хуже
@ амд король нативного разрешения без Ии до 800$, для меня для онлайн игр цена фпс за амд, но фср 4 будет всё же хуже длсс 3 не говоря о длсс 4 где блоков стало в 4 раза лучше в 5090 чем у 4090
Опять говнокарты, шины порезаны, памяти мало, на 5090 заоблачная цена, ее реальная цена в розницу 600 долларов, достаточно включить лучи на 5090 и она сразу обделается в 4К разрешении, потому что для лучей нужно делать двухчиповые карты, а не эту парашу
Чел ты...
@@paulgauguin7730 а что не так? Мы имеем дело с монополистом Нвидиа, а конкуренты АМД и Интел для галочки только
Не нужно ! Не нужно нам это ваше нейронное г. Дайте нативу людям !
Нативу! И чтобы без всяких там сглаживаний и прочей порчи натива! Только хардкор!
Не надо натив. Только SSAA 4X
натива кончилась. больше её не будет.
Забудь, это уже прошлое. Ему место на свалке истории.
Нативно это не пиксельное изображение и не плоское а подключение через затылок к мозгу. Жди или выпей синию таблетку
5070 отличная на замену 4070...
жизненный цикл маленький у 5070. На 4070 сидеть можно ещё года 2 спокойно. 20% прироста не стоят перехода сейчас, но решать вам
12гб памяти это калл, минимум 16, а лучше 24 засунули, на 5+ лет хватило бы.
Обьесняю крч посмотрим как это будет работать но все же в играх с точки зрения движка который кодили все работуют на одном принципе типо есть основная петлся в которой впихнута два метода один апдейт второй рендер и как часто это петля обновляется и есть твой фпс апдейт следит за инпутом игрока и любыми обьектами которые должны обновлятся а рендер рисует обновленые обьекты на экране допустим каждый кадр метод апдейт смотрит что бы игрок подвинул мышку как только игрок двигает мышку на определеное расстояние которое умножено на сенсу в движке метод аппдейт одновляет позицию камеры игрока а метод рендер рисует новый кадр для этого аппдейт выполняется первым перед рендером первый с физической точки зрения игрок подвинул мышку это инфа пошла обрабатоватся процесором и оболочкой тоесть системой виндовс передалась в игру игра обновила позицию камеры кадр отресовался показывая игроку где сейчас его камера первая версия рефлекшана срезала путь и направляла позицию мышки сразу к процесу просчета пропуская оппаратную оболочку и процессор новый же как он обьеснят человек двигает мышью в процесор попала инфа о том на какое растояние подвинулась мышка еше до того как петля игры успел отресовать несколько промежуточных кадров что бы полностью подвинуть мышь процесор берет промежуточный кадр и по инфе куда игрок подвинет мышь с процессора двигает кадр до того как все кадры отрисовались на экране прямо на промежуточном кадре что создает пустое петно в кадре в зависимости куда был сдвинут кадр которое дорисовывает на основе разнх каналов кадра простенький аи алгоритм надеюсь все поняли
ну да звучит хайпово тут не поспоришь но так чисто фича для киберспорта
не все и не всегда движки прям полностью работают иммено только на апдейте и на рендер петле ведь когда апдейте игровых обьектов привязан к фпс это иногда порождает неожидоное поведение в случии если у индивида очень большой фпс но конкретно инпут от пользывателся подругому работать впринципе не может писать для огромного возможного инпута отдельный поток и опропадывать его когда инпут должен быть постояный ну это откровено говоря маразм как с технической так и с стороны исполнения всего данного марофета и да иммено из за этого фундаментального принципа построения движков так много игр имеют смешные баги типо как огромную скорость передвежения и впринципе игры когда игра пробивает лимит по кадрам в помешении в фаллаут 4 или увелечиный урон от подения в дарк соулсе ведь програма не понимает такоей концепции как время а если с каждым кадром менятеся какое то значение в апдейте то изменение этого значение на прямую зависти от этого самого апдейта и программа допишь игра воспринимает один кадр как одну еденицу времени в которой обьект или какоето значение должно изменится но так как для разного компьютера вермя кадра разное получаем забавные баги
и не кто такие баги не пофиксит скорее всего ибо эти два метода поевились скорее всего еше задолго до разработки самой игры движок скорее всего начинался с этих двух методов и основной петли и тут как говорится если поменять что то это считай что вытянуть дженгу в низу перамиды на которой все держется и мало того что придется переписывать всю игру еше и движок условной бифесды которому 100 лет в обед где уже не кто и не помнит что на что положил спутся 20 с чем то лет модификации короче можно очень много чего сломать о сушествования чего ты даже не подазривал
Чел. Знаки препинания придумали больше 2000 лет назад.
Печально, что теперь ФПС это просто цифра, ии может хоть 200 нарисовать, хоть 1000
ничего печального в этом нет. Единственное что важно - как глаз видит картинку и как рука чувствует отклик. Всё
Я хочу порнуху смотреть 8К 200 фпс. Что брать ?
Жену.
Кому жто нах все нужно
не советую гнатся за генератором кадров потом пожелеете и даже не слушайте людей которые пытаются докозать вам обратное это враньё откровеное я наблюдал столько покалений как они эволюционировали и даже если вы посмотрели видео где умные с виду дядьки сравнивают картинку с апскейлом и генератором в статике или при большом фпсе я вам как человек который сьел на этом дерьме собаку как только ваш фпс упадет ниже 40 гостинги рассыпание картинки в движении а учитывая сколько шас обьектах в современых играх гостинг приведет вас к тому что без таблеток от головной боли вы не сможете играть в игру с ним так же если у вас малый или не дай бог не стабильный фпс в динамике при движениях обьектов или камеры вы в каждой игре будете наблюдать как сильно разлетается ваша картинка и приврашается в кашу и это фундаментальная проблема этих технологий ибо на каждой ее версии когда либо существовашей он сушествует как у амд так и нвидия у амд работает хуже но честно говоря насрав чуть больше или чуть меньше от этого оно слаше не станет так что максимум этой технологии если у вас и так стабильный высокий фпс без дергаюшегося графика времени кадра это подогнать его под герцовку своего монитора что наблюдать более плавную картинку в пративном случии вообше забудте про нее
Без знаков препинания, твой поток сознания читать невозможно.
Ну так генератор сделан для высокочастотных мониторов, когда у тебя стоковый FPS в районе 60, а не для того, чтобы игра которая не тянет резко заработала
@@SklaysonДа, а вот Хуанг почему-то так не думает видимо. Какого х7я тогда он презентует карту, где у него 28 ФПС у 5090 превращается в 240 ФПС? Говорит о приросте производительности и т.д. 5070 на уровне 4090, но только с DLSS 4, а в нативе она оказывается сильно хуже, соответственно и DLSS 4 с мультигенерацией не имеет смысл использовать (потому что нужна хоть какая-то нативная производительность). Тогда получается что 5070 сильно слабее 4090
@@SklaysonНу, а Хуанг говорит, что 5070 = 4090, при этом в нативе она абсолютно точно не 4090 даже близко, а генератор имеет смысл использовать только при хорошей нативной производительности, соответственно 5070 по итогу даже близко не настолько классная
@@Renidazzis Ну это да. Надо ждать тестов
Хз зачем обсуждать многопоточность нейронки и фиговый листок в виде DLSS4 который по факту, как и gsync, во многих играх корректно не работает с условием того, что все игры делаются не под среднего пользователя, а под бенчмарк-машинку за 100500$ + ко всему драйвера полное говно...
Пусть потом производители игр не орут и пиратстве =)
Мы уже упираемся в технологический процесс. Нативного разрешения в новых играх не ждите больше нигде, особенно в разрешениях выше 1440р. Нвидиа правильно делают ставку на алгоритмы и нейронные сети, уже вариантов других нет
Возможно ты и мир живет в разных мирах, если у тебя q sync и длсс не корректно работает в.. во многих играх (как ты интересное сказал)
Жесть. Какая же мусорная каша в голове
@@SelectFrom в смысле нативку не ждать ? Нативка никуда не денется, вне зависимости о разрешения =) Я всего лишь про то, что ввиду отсталости так сказать в "оптимизации продукции выпускаемой на рынок", ты можешь покупать хоть 2-е 5090 - толку от этого будет ровно столько-же, как ты купишь туже 4090. Просто натив показывает то, что есть, а не то, что может быть да ещё и зависит не только от видеоекарты, но и от остального железа... и ещё кучи нюансов. Проходили это уже и не раз, как с 1050 так и с 3060, так и с 4ххх линейкой, яко бы замещающей 3ххх линейку (правда рост производительности в целом на 5%, а цену по началу задрали на 30%, но об это, почему-то, все резко забыли и как того-же Хуанга ругали тоже забыли).
@@Zanchi879 возьмите любой "современный" ММОРПГ-проект. Там и в половине dlss не задействован, а gsync работает криво. Почему хотите скажу ? Потому, что до сих почти все новинки делаются на старых движках уровня UE3 которые не поддерживают технологию как dlss так и gsync. Все новые игры на уровне UE4-5 тупо не оптимизированы. Эти движки как были бенчмарком для видях так ими и остались, а люди как не умеют с ними работать так и по сей день не научились, и это самая главная причина почему игры на этих движках выходят не оптимизированными. На стендах показывают красоту и графику, а ставишь на рабочий пк - у тебя статеры и фризы. Проходили всё это и не раз.
я конечно всё понимаю, но я вполне осознанно брал 4060, и играл в алана вейка второго, даже лучи включал, и мне очень понравилось даже, можете называть меня как хотите, но посмотрев на 4060ти с 16гб, и заметил что вообще ни на что не влияет, поэтому ваши слезы это хрень собачья
Объяснение простое. Почему хорошо иметь много видео памяти? При заполнении всего объёма и если придётся подгружать что-то во время игры, ты получишь не то что статер, а постоянное падение производительности, ибо, по узкой шине, придётся гонять приличный массив данных. В любом другом случае, падения замечено не будет.
@@Basmurd это здорово иметь много памяти согласен, но база это чип и технологии которые в нем. мне вспоминаются времена когда у меня был gt9800 и мне говорили вот ты лох у тебя 512мб памяти, а игры у меня шли лучше и тормозили меньше чем у тех у кого был 1гб или 1.5гб, память это классно, но это ныть по этому поводу не нужно, 8гб памяти всё еще хватает и будет хватать долго, чтобы вы поняли, примерно столько же сколько прожила 1050 со своими 2-4гб памяти, и чем больше памяти тем дольше будет служить карта, потому что основная масса людей сидит смотрит в 1080p, эти ваши 2к 4к, ну вообще не уперлись честно говоря, это такая же разница как между 144гц и 240гц, а вот переход с просто 720p на 1080p был ощутим, как с 60гц на 144гц.
@@RustaveLСлушай, лучше разберись в теме, прежде чем писать подобное. Знаешь что такое mprt блюр? В сети много информации на этот счет, с детальным показом того как все это дело выглядит. 144 гц это 7 мс мпрт, 240 гц это 4 мс. На 240 гцах ты получаешь на 43% более четко изображение в движении. То есть на 1000 пикселях в секунду на 144 гцах у тебя 7 пикселей блюра движения, а на 240 гцах 4 пикселя блюра движения. И это ощутимая разница, сразу воспринимаемая глазом. Если конечно панельки медленные, то отклик может сузить разницу, но при хорошем респонс тайме все сразу и сильно видно. Это неоспариваемо, ровно так же как и на оспариваемы законы физики. Разница 2к и 1080 очень заметная, но по четкости тут все зависит от плотности пикселей. 1080 на ноутбуке по плотности пикселей лучше 4к монитора, но 4к покажет больше деталей картинки так как больше пикселей.
@samurai-operative8017 я как раз ждал пока ты начнешь мне на цифрах доказывать, а теперь иди в днс или любое другое место с мониторами, и пару дней зови людей с улицы и показывай им моники, а потом попробуй продать, удивишься что в твою религию про 4 мс и 7 мс никто не верит, та же самая история с rtx, до сих пор люди говорят что без него лучше, но суть остается той же, без рейтрейсинга сегодня не делают игры, разница только в рейтрейсинге реального времени или запеченого заранее. и тоже самое про объем видеопамяти. пока движок игры не просит больше условных 6-8гб, повышать объем памяти не будут, потому что зачем, ради тех избранных как автор видоса которому палец в рот не клади, дай еще гигабайтов?
@RustaveL Религию?) То есть явление имеющее прямое отношение с физикой это религия?) Фигею с тебя. Не знаю с чего ты приводишь этот бред про днс. Ты усомнился в разнице, я тебе пояснил про нее, плевать мне там как это продают(да и то пример твой реально используют при показах мониторов с высокой герцовкой или стробом), тем более ты сам же приводишь разницу 60 и 144 гц где 57% разница в mprt и плавности. 43% меньше, но не настолько чтоб это перестало быть тоже разительной разницей.