2:33 Ну только вроде как новые тензорные ядра не удвоили, а учетвирили производительность. В амперах тензорное ядро может выполнять 256 FMA операций FP16/FP32 за такт, а в Тьюринге - 64. Поэтому при падении числа ядер в двое, учитывая учетверение производительности - производительность вырастает вдвое.
4:44 ну тут тоже ещё надо тестов подождать. Так как nvidia вернулась в SM модулях обратно к большему числу исполнительных устройств на один комплект обвязки ядер (ядер стало больше, а планировщиков и т.д. на SM модуль осталось прежнее число, практически как это было в Паскалях, то есть до Тьюрингов). Это делает микроархитектуру более "неповоротливой".
Слабенькое видео, также сравнивают плотность на совершенно разных архитектурах, есть же чип Ампер А100 и при сравнении с ним оказывается плотность Самсунга значительно ниже.
@@rintic13 , ну почему сразу слабое. Просто количество информации ограничено. Мы не знаем насколько отличаются кристаллы для серверного Ампера от того, что в 3090. Мы знаем, что для игровых Амперов nvidia считает CUDA ядра по другому. Насколько серьёзны отличия по транзисторному бюджету замена FP64 на пары FP32? Есть ли эти отличия вовсе мы тоже не знаем. Так что даже при желании сделать исчерпывающее видео сделать нельзя, так как для этого нет данных.
@@PC-01 информация про производительность тензорных ядер была озвучена, плотность размещения транзисторов старшего брата А100 известна, FP64 занимают не так много места и не окажут заметного влияния на общую плотность. А сравнивать плотность на основании сравнения двух совершенно разных архитектур наихудшее решение.
Единственный канал которому доверяю и буду смотреть тесты новых видеокарт и процессоров
Отлично зашёл на канал. Спасибо за проделанную работу :)
Подумал-подумал, да и решил все-таки выдать комплемент: Борода - один из немногих, если не единственный, человек из ютуба, ролики которого я смотрю на 1х скорости. На остальных переключился на 1.25 или 1.5))
Звучит так, будто повышенная скорость - проявление неуважения, однако зачастую это лишь желание быстрее получить содержащуюся в видео информацию.
@@OzelotJungle ну, я имел в виду скорее то, что тут поток информации такой, что я не осиливаю на ускорени -_- особенно когда нужно успеть информацию на экране разглядеть, а не просто вполуха слушать.
у него оптимальный баланс инфы и отсебятины
невероятно бесят некоторые самовлюбленные авторы каналов где на крупицу пользы бочка пустозвонства
9:57 На фото видно 2 свободных места под чипы памяти. Там находятся 10 чипов по 1гб и я уверен на 100%, что скоро выйдет 3080s или 3080ti с 12гб видеопамяти.
На офф сайте микрон легко найти .pdf gddr6x_pam4 ...
Там синим по белому пишут про удвоение плотности этого типа памяти в начале следующего года.
upd. нету там этого "Next year, however, Micron plans to double the density to 16Gb" хз почему так подумал слишком много инфы лезет после презентации. Но это не отменянт того что .пдф интересен тому кто хочет хоть немного разобраться и посчитать.
@@neackrisranga633 плотности (density). Сейчас 8gb будет ещё и 16, хотя в статье есть и оговорки по поводу наращивания.
Очень информативный выпуск! Спасибо!
3090, 3080 это конечно хорошо, но вот карману (чтоб без напряга) куда интереснее посмотреть оценку 3070.
Спасибо за видео!
Не мечтай. Амазон попытался заранее начать продавать карты и установил цены в два раза дороже анонсированных, те 3080 стоит 1200$. Так что нихера они не будут дешевле.
вроде бы вещи сложные, а у вас с таблицами и примерами все понятно получается
Шикарный канал!Ребята просто молодцы!Спасибо!
Спасибо! , с удовольствием посмотрел ...Вам удачи!!!
Про плотность транзисторов спорное утверждение.
Если взять Nvidia A400 на 7nm TSNC, то получаем 54,2 Млрд на 826мм^2, то есть плотность 65,62 Млн.транз./mm^2, что значительно выше 44,59 Млн.транз./mm^2 у 8nm Samsung
Потому, что очевидно, не корректно сравнивать, по конечно продукту. Ибо разработчик, не использует максимальную плотность, по крайней мере по всей площади кристалла, а только там где необходимо. И плотностью можно пожертвовать, например ради повышения тех же частот. А 8нм самсунг это слега улучшенные 10нм. Так что тех процесс однозначно хуже, отсюда и повышение потребления. Хотя в 20 серии был тухлый тех процесс 12нм(фактически просто переименованный 16нм). Так что могло быть лучше, но имеем то, что имеем.
Не забывай, что нвидка не использует оем тп от tsmc, там кастомный tsmc, как и кастомный тп от самсы, а сравнение в видосе между оемным tsmc, который юзает амуде в своих картах, и кастомным тп самсы. Да и сами цифры в названии тп потеряли весь смысл, теперь можно называть тп хоть 5нм, но при этом в нём будет рандомная плотность, кто в лес, кто по дрова)
@@listoman9365 цифры и изначально не имели смысла - чисто маркетинговый ход потому что частота и количество ядер уже не растут, а перед покупателями нужно чем-то мериться. Потому что техпроцесс не имеет ничего общего с реальными размерами транзисторов. Это лишь размер затвора транзистора, а целый транзистор будет в районе 200 нм. И между 7 и 14 нм разница может быть не в 2 раза, а 5-10%.
Огород. В своё время интел (ещё когда они были на коне со своими 14нм) предлагала перейти на оценку техпроцесса по плотности транзисторов на мм^2, но все забили, потому как да, как писали выше, это больше маркетинговый ход, чем оценка производительности.
@@wptv2977 раньше было проще, а цифра в тп отражала прогресс, но теперь всё через ж, поэтому маркетинговые 7нм могут быть больше каких-нить 10нм)
Простым языком рассказали - спасибо
Круто, круто! С нетерпением ждем тестов!
Как всегда круто, спасибо!
Пришёл за ссылками Ситилинк, а мне тут про какие-то Амперы и Тьюринги затирают
Спасибо ребята за разъяснение, буду сидеть на 1060 пока не сдохну я или карта.:)
@@SeverBum хомяк поспешил ты с 2080с, 3070 будет ее иметь в хвост и гриву. даже в ценовом сегменте. Эх хомяки чтобы без вас делали корпорации.
@@andreic3891 , дурачок , я если надо хоть сейчас возьму её .
Но мне пока хватает с лихвой и 2080 .
И думаю еще надолго .
А вот сможешь ли ты взять её , мамкин прогнозист , это вопрос ))
Спасибо что освещаете подробно процессы работы! Сложно но интересно)👍
Мозго-выносящий выпуск) некоторые отрывки пересматривал, спасибо за такую и информативную презентацию новых 3080
Я купил 2080ти сразу после выхода, почти 2 года назад, и не считаю, что Хуанг меня кинул. Это подстава только для тех, кто долго копил и купил видюху недавно
@@vovan09100 770 поменял на 2070(когда она вышла), вот теперь в раздумьях нужен 3070 или нет )
p.s.киберпанк покажет.
p.p.s. да и нахера менял 770 на 2070 , небыло таких игОр чтоб 770 не тянула... 2070 тупо в "простое" работает, ютубчег глянуть в крусейдеров 3 погонять... , да и все.
@@monowarr9480 ещё многое от разрешения Моника зависит, хотя 2070 тянет 2 к без проблем
Я один заметил, что по производительности на 1 доллар 3080 выгоднее чем 3070? Грубо говоря делим 700 баксов на 30 терафлопс и получаем 23,3 бакса за один терафлопс, умножаем на 20 терафлопс у 3070 и получаем цену в 466 баксов вместо 500. Это при том, что памяти у 3080 на 2 гб больше. Это вообще уникальный случай для рынка видеокарт, когда за дополнительный прирост производительности всегда платишь непропорционально много. А самыми выгодными исходя из соотношения цены и производительности выступали всегда среднебюджетные решения. К слову за 6 терафлопсов и 14 гб памяти 3090 просят доплатить целых мать его 700 баксов! В топ, чтобы бородачи увидели и прокомментировали.
Спасибо Вам большое!! Как приятно слышать - линии питания!!!! Если Вы понимаете о чем я ;)
Спасибо вам за толковые обзоры !!!
Сижу, жду тесты, ласково поглаживая свою, копилку.
Ждем-с!
так же )) сижу без видяхи , сижу и жду когда её пустят в продажу)) пока не могу определиться 3070 или 3080 .
@@gffdjrsheastkygugly буду ждать 9090 суперпремиум ти 100 тирабайт памяти ... одобренна межгалактическим советом рептилоидов и с вручением премии землянам с нижайшим поклоном за то что мы опередили их в скорости развития до этой ступени технологий на 5 миллиардов лет
Вот уже пошла похожая на реальность инфа. 9ти кратный апскейл при рассказе про 8к гейминг - это прекрасно). А вот про охлад смешно, конечно. Горячий воздух с видяхи выкидывать на радиатор охлаждения CPU - гениально
А разве раньше он естественной конвекцией не поднимался вверх до того же цп?
Тут хотя бы половина уводится из корпуса турбиной. Видится мне что не так уж это плохо
@@awkwardquestion8643 отключи вертушки в системнике и понаблюдай за естественной конвекцией. Быть в жарком помещении и пребывать в режиме, когда тебе в рожу дуют феном - не одно и то же. И про турбину - не в одном поколении стояла система охлада, когда весь воздух из-под кожуха видеокарты выкидывался из корпуса турбиной ( а в 3000 серии, если что, турбин нет) и чот ничего хорошего это не приносило. Не нужно изобретать велосипед, обычные радиаторы большой площади, испарительные камеры/тепловые трубки и адекватный обдув вентиляторами прекрасно справляются со своей задачей
Про охлаждение повеселил, как будто раньше так не было. Все карт так работают, кроме как видеокарт с центробежным вентилятором и охлаждением Blower типа (воздуходувка, нагнетательный вентилятор), вот у них горячи воздух выбрасывается наружу, притом берет воздух из корпуса, нагретый от процессора.
Как всегда, большое спасибо за такое подробное видео, ну и ждём тестов новеньких карт!
Отличный разбор! Ждем обзор.
В конце самое крутое
слушаю о 8к, сидя на фулл HD которое устраивает более чем полностью ))
Я думаю обычным людям это и в правду за глаза, а также производительность 3080 избыточна для обычного пользователя и 4 к и 8 к монитор на стол ставить некуда, короче не нужон пока этот 8 к гейминг
@@kylikow в иномарках есть удобство по сравнению с вазом, 4к же по сравнению с 1080р особо ничего и не предоставляет, тем более некоторым, в том числе мне, важен фпс и чтобы глаза не болели от 60гц, а 4к 144гц моники стоят дохера и не оправдывают цену + еще надо платить дохерищу за карту, котрая потянет 4к 144 фпс, поэтому мой выбор эт среднее, тоесть 2к 144гц, и глаза не болят от 60 фпс, и приятная картинка без лестниц
Не знаю как к вам обратиться, и все же спасибо большое за контент! Слушать вас одно удовольствие💥
Ох люблю я смотреть ваши ролики: все по делу и доступно
Жду тестов 3090 и rnda2 или rnda3 от АМД :)
Спасибо вам за обзор.
Спасибо за видео!)
Ребята в конце трек... Подскажите исполнителя...? Второй раз у Хайтековцев слышу и найти не могу...
Топ контент. Главное что очень приятно слушать.
Спасибо бородачи за труды)
Вот что не сделай, всегда кто-то будет недоволен. Спасибо за детальные разборки. Пойду, поищу по ссылкам новые видяхи в Ситилинке!
ну как ты ни крути, обязательно будет какой-нибудь слоу-пок, который купит в последний момент перед падением цен, и естественно будет недоволен)
@@VasyaGo_ интересоваться или спрашивать у тех кто в теме, в данном случае было известно с весны или даже раньше, что новые карты будут уже осенью и будут значительно мощнее, так что никто не торопился.
Ну а так не угадаешь, если не вникать
Бомбическая информация! Спасибо!
Спасибо за хорошее видео и за такие подробные пояснения)
RTX IO и Direct Storage не требует PCIe Gen4 SSD, только NVMe SSD, я читал публикации на сайте Microsoft и NVIDIA.
7:02 четко сказано, что работать будет на PCIe Gen4 (логично ибо карты на нем и платы с Direct Storage будут на нем) а требования RTX IO как раз не в PCIe Gen4 а в Direct Storage, так что ваше заключение никак не противоречит сказанному в ролике.
Будет работать и на PCI-E 3, посмотрите GPUDirect технологию, она почти 1в1, но без сжатия, алгоритм извлечения данных из архива уже реализован на GPU для большого количества методов сжатия.
@@nesfloruty если бы так и было было бы написано о 3 версии, а все остальное ваши фантазии. Нужен именно 4.
@@every_o3436 там ничего такого не написано. Вы вообще с чего это взяли? Если Нвидиа использовала gen4 для иллюстрации технологии это не значит что только с gen4 работать и будет. Не верьте маркетинговым материалам, их делают рекламщики, читайте документацию, её пишут инженеры.
Спасибо за видео)
Спасибо за такую важную работу и разбор темы!
расскажите, про кодирование/декодирование видео. аля NVENC.
что нового для людей работающих с видеоконтентом?
или вообще ничего нет нового?
Он же сказал, что нового нет ни хрена. Какой-то мелкий формат добввился и всё
14:00 А это плохо что 3070 не хотят давать.. а то вот самый важный момент.. будет ли 3070 лучше 2080ти или нет.
Ты сравнил.... Конечно же не будет.... Какой им смысл делать карту за 40-50к производительней флагмана 20-й серии за 1к зелени?
Как всегда Лайк. Смотрю на этом канале только видео с Вашим участием!
Большое спасибо за видео!
Когда все 3070 ждут больше, чем 3090.
@@by_manul ну если щаз большинство сидит на 1060 и т.п. 1660 то логично как бы.
я как прогрессивный человек,в декаду технологий с уменьшающимся тех. процессом и энергопотреблением покупал блок питания(в момент актуальности 10-й серии GF) для пк на 650Watt, и в тот момент всё кричало что дальше требования не будут расти. А "тут вон оно чё Михалыч" теперь блок питания вероятно станет "гирей с кандалами", и судя по спецификациям 3070 выше уже не прыгнешь, да и чёрт с ним. Короче жду 3070 только из-за того что не придётся покупать новый БП.
Вообще 3070 не жду, хотя у самого 1070. Только 3080,там и память gddr6x и её 10Гб. А 8Гб в 3070 имхо уже будет не хватать в будущих играх
Классно! Там. А тут бакс 76₽ и в ближайшие годы по всем текущим в стране событиям укрепится еще.
Спасибо,как всегда всё четко,доступно и без воды.
Приветствую, PRO Hi-Tech
! Что по вашему мнению лучше для видеомонтажа, работы с графикой и игр?
Две видеокарты 3080 или одна 3090? Будет ли в продаже "дорожка" для совместной рабаты двух 3080?Заранее спасибо за ваш ответ)
ошибика 429 "Слишком
частые запросы" - ситилинк сам не хочет чтобы я заходил.
Не заметили, что как только стали в рекламу вкладываться в ситилинке дороже стало, чем в днс. Хотя днс был самым дорогим.
@@internetyoutube644 ну так правильно же делают. дают дорогу конкурентам.
люди видят, что у них дороже, покупают у конкурентов.
таким образом они делают их конкурентов богаче, популярнее, отдают им постоянных клиентов.
чем больше конкуренции - тем здоровее рынок.
для нас же стараются!
а вы не цените.
на самом деле как я и говорил очередная конторка, которой управляют отставшие от жизни недалекие старперы (и это не возраст, а состояние души) .
интернет-магазины не нуждаются в рекламе. в такой рекламе. для успеха нужно быть в поисковых запросах, в маркетах, держать низкие цены и высокий сервис. всë.
если куда и вкладываться - это в выдачу в поисковиках.
все каналы вместе взятые не дадут столько аудитории, как первые страницы поисковиков.
а в маркете еще проще. сделал цены на рубль дешевле, и все покупатели у тебя
но вы им не говорите. а то еще перестанут платить каналу, загнется ещё.
хотя в последнем я сомневаюсь.
уже давно поразадуматься о смене спонсора
Куртка порадовал ценником ! можно теперь махнуть 1080ти на 3080 и не продавать почку )
Аналогичное принял решение но реф в жопу будем ждать подразогнаное от вендоров следующей весной или летом самое время брать а пока и 1080ti потрудится в моем члучае с картой надо будет заменить мать и проц 8( 5 райзен ее не раскроет да и мамка на б 450 уже и сейчас фу
Спасибо, ваши обзоры самые лучшие и технически грамотные. Лайк!
довольно подробно. то, что нужно было рассказать на презентации
Про нейронные сети неправильно сказали, они обучаются даже когда ответ правильный, смотрят насколько сеть с текущими весами была уверена и веса корректируются таким образом, чтобы в следующий раз с такими же данными сеть была более уверена.
А можно узнать, где нейронная сеть хранит свою историю обучения, или при выключении компа все теряется?
@@user-rn8yi2kj6z в файлик можно сохранить веса и конфигурцию, потом с него обратно считать в сеть
@@vladislavgusak2309 Спасибо. а по объему сколько такие файлики могут места занимать?
@@user-rn8yi2kj6z веса это обычные числа, их можно в матрицу загнать, так что не много они весят
Меня вот интересует RTX OI и Microsoft DirectStorage. Задачи - Экстерьерный Архивиз в UE5, сборки сцен из неоптимизированных ассетов (не для интерактива). Пока что все это гипотетические размышления. Потому что оба API находятся в стадии закрытого бета-теста. UE5 будет в бете небось весь последующих год. Так что конечно рановато делать прям однозначные выводы. Но... У этих технологий регулярно фигурирует упоминания конкретно PCI-E 4.0 версии M.2 SSD-шников. Суть технологии что бы SSD общался напрямую с видеокартой, как я понял. Окей. А как же тогда быть Интелу, когда у них всего 16 процессорных PCI линий, то есть 16 линий уходят на видеокарту, а остальные линии подключаются через чипсет (DMI). Правильно ли я понимаю что у AMD в силу того что у них 20 процессорных линий, будет преимущество с этой технологией ? Потому что и видеокарта и SSD будут на одних и тех же линиях без участия чипсета. Как думаете это вообще будет иметь значение ? Или уже есть какая то инфа что у Рокет-Лейка будет 20 PCI-E 4.0 линий ? Разумеется. Я понимаю что можно взять какой нить 3960X с 64 линиями. Но он вместе с самой дешевый материнкой выйдет по стоимости ровно как RTX 3090. Да и это какой то Overkill получится, надеюсь эта технология не потребует собирать RAID0 из четырех PCI-E 4.0 SSD )))
У Intel пока нет PCIE 4.0. К выходу MSDS и RTXIO мы надеемся на одинаковую поддержку и на Intel и на AMD.
@@prohitec я в курсе что у Интел пока нету PCI-E 4.0, потому я и написал про Рокет-Лейк.
Я тоже надеюсь что к выходу Рокет-Лейков будут все в равных условиях.
PRO Hi-Tech вот и мне обидно за Интел, что у них ещё нет поддержки PCI-E 4.0 ...
А у АМД уже есть поддержка нового PCI-E 4.0 под топовые материнки которые их поддерживают...
Мне кажется, что АМД вырвется вперёд, и выкупит технологии Интела... и останется только АМД, либо они объединятся с ИНТЕЛом чтоб у них были равные технологии в мощи и производительности...
Я читал блог разработчиков DirectStorage и там ни разу не упоминается формулировка "PCI-E 4.0 SSD", речь только об NVMe - как протоколе поддерживающим многоканальные запросы чтения/записи, используя сильную сторону флеш-памяти (flash memory). Первоисточник: DirectX Dev Blog.
Вдобавок у Intel только на CometLake-S 16 линий, будущие RocketLake-S будут выдавать минимум 20 линий PCI-E 4.0, из которых 16 на GPU и 4 на NVMe SSD.
Очень круто и подробно сделан ролик, спасибо!
как всегда топовый видос!
Слушал внимательно и нихрена не понял , но как всегда приятно слушать )))
8К экраны то выпустили, а карточки готовы не были, пришлось делать "ПРОРЫВ" ( на самом деле просто техпроцесс поменяли )
спасибо большое за ролик! вопрос такой: стоит ли брать b550 с его pci-e4 под 3080? или лучше не переплачивать и взять b450 и потом всю систему поменять на zen4? насколько имеет смысл pci-e4?
Благодарю за труды! было интересно и познавательно! Ждёмс появление их на прилавках магазинов, в частности 3070) так как круче её нет нужды ставить
Позовите другого бородача - пускай объяснит всем сколько нанометров выпустит Энди в Шадоу оф Томь Рейдар! )
Да Боже, те кто купил 2080ti сами виноваты. Это точно так жe, как винить эпл,что ты купил айфон, а вышел новый. Бред же
Да все же знали что 20хх чистый проходняк особенно после таких удачных паскалей. Просто многим не терпелось купнуться в лучах, на что и была сделана ставка нвидия. У меня знакомый две таких купил, до сих пор так и не сознался зачем))
Спасибо за более потрбный разбор!
Отличный выпуск лайк и комментарии спасибо Вам за Вашу работу и успехов в развитии канала 5
А зачем продавать 2080 ТиАй если она и так отлично работает, чтоб денег потерять? У всех че Х570 с М.2 ген 4, мониторы 4к 100+ фпс? на данный момент, ну такое. Будем ждать тесты и новинки РДНА 2.0. Спасибо за видио, лайк!)
Раз продают, значит что-то знают/боятся что цена ещё ниже рухнет, да и раз нашлись деньги на 2080Ti, то и на QHD/UWQHD - 100/144Hz хватает денег, сейчас средненький QHD монитор более чем доступен. А PCI-e gen.4 не обязателен для RTX I/O, если правильно объяснили, то главное чтобы подключение было NVMe, а там уже 4.0 как приятный бонус в виде более быстрой на сотые доли секунды дозагрузки =)) (лол да кто это заметит?) тем более в новостях уже пестрит "NVIDIA не сообщает, какие именно модели будут совместимы с RTX I/O, однако, судя по названию, первыми поддержку получат видеокарты серии GeForce RTX 20 и RTX 30." незабываем что 20хх серия вышла с PCI-e 3.0 и до выхода PCI-e 4.0.
@@unheard5982 Да мне кажется ничего они не знают, просто гонятся за топом как любители обновлять айфон каждый год, будем смотреть, сейчас вот метро исход рекомендованные требования 2060, я не знаю просто игр где 2080тиай бы требовалась (правда в стиме разрешение не указывается, думаю подразумевают максимально доступное), конечно тут и новые консоли и прорывы в играх будут, поглядим как там все будет развиваться.
@@user-wz8zt6rj5k Согласен :) . Но хочу добавить ложку мёда в бочку дёгтя. Недавно выдалась временная возможность попользоваться 3440x1440/144Hz монитором. И при таком разрешении в игре Surviving Mars(2018 г.в.) без модов, но с максимальными настройками, я слышал как из системника доносится вой от вспотевшей gtx1070, fps был в районе 50-70. Так что карты с произв-тью 2080ti востребованны для комфорта.
@@unheard5982 а 3080 для сверхкомфорта)))) 1070 тащит +ей в карму, 2080ТиАй вывезет, а 3080 сама себе скрафтит монитор (почему еще в современные видюхи не встраивают проектор с их максимальной производительностью, если многие мониторы не справляются), главное что технологии не стоят на месте, а пользователи и так подберут оптимальное под свои нужды=))))
У меня тут на 2070 не хватает, а они про 3080 уже говорят
А зачем брать 2070 по цене 3070??? Готовь свою копилку на ликвидацию складов! По бросовой цене купишь 2080 или 2070, но это не точно, так как обыватель гребет не плохо старые карты на предверии новых по тем же ценам
@@D1Ma_SP 3070 на старте будет стоить примерно столько же, сколько 2070 стоили в начале года. У нас с тех пор доллар серьезно подскочил в цене. Также есть слухи про создание искусственного дефицита, то есть ещё и наценка от ритейлеров может быть высокой. Помните как во время бума майнинга цены на 10-ю серию взлетели? Нвидия похоже хочет провернуть этот трюк на бис.
@@t1rrel так купи у нвидии напрямую, в чем проблема-то? Минуешь всех перекупов и на дефицит будет пофиг.
Отлично, ждём тестов
Спасибо за ролик.
Как же мне повезло что я не решился брать в этом году 2080ti. Возьму 3080 и буду радоваться. Ждём тестов и значений температуры под нагрузкой. Спасибо за видео.
Зря, лучше бы 2080 купил, я неделю назад как узнал об анонсе, сразу купил себе. Потом эта говносерия как выйдет , цены будут огромные.
Игорь Пнх ну незнаю, у меня в городе в магазе уже цену на 3080 подтвердили. А 2080ти стоят ого-го, даже б/у. Подождем увидем.
Я уже целый год сижу на 2070 Super! Доволен как чебурашка! Пока все мои потребности покрывает, фпс на требуемом уровне) Кто меня там кинул, я как то не задумывался)) Вообще планирую апгрейд видеокарты, но не раньше чем с 5000 поколения
согласен с вами! лично я думаю если у тебя Монитор не 4 или 8 к то тебе не нужно серия 30! лично у меня amd rx580 и у меня монитор FH
Огромное спасибо за труд!
За обзор спасибо
Блиннн, 8К телики то ещё асторономичесски дороговаты для новых игр в 8К...
Всегда можно выпустить 4к 144hrz чтоб было куда вычислительную мощь девать. До 8к еще лет 5 как минимум
MASS_ Brick_Top нет, не так...
В Европе ещё год назад начали 8К телики продавать, а у нас с начала этого года в тридорого из за ссанных барыг :’(
@@arturismagilov3285 я живу в Европе и я говорю тебе что далеко не у всех даже 4к. Не знаю, не слышал, не видел, не видел того кто видел, слышал или знает кого-то с телевизором 8К
MASS_ Brick_Top ну у меня есть 4К телек и даже не один и топовая система на Интеле с двумя RTX 2080 Super...
Жду когда подешевеют 8К телики...😜
@@arturismagilov3285 скорее твоя система безнадежно устареет прежде чем 8К станет доступен простому смертному
Всё больше доверяем и развиваем ИИ - Судный день ближе и ближе ))
Как бы не смешно это не звучало но это правда! Если Библию почитать то время последнее
@@Chelofantik а если почитать учебник по кибернетике, то можно понять что следующие лет 100 бояться нечего.
@@user-zp3qn4wl7r можно просто посмотреть соседний ролик про ИИ, где разработчики рассказывают, что как и почему не видать Скайнет как своих ушей
Большое спасибо за труд !
Самое время покупать 2080 TI ибо как только 3070 выйдет окажется что там все равно производительность чуть меньше в многих местах и стоимость поднимется. а ты уже за полтиник купил :D
2080 ti хватит на долго еще. новые технологий они только дошли со времени 1080, грубо когда все технологий 30 серий применят выйдет уже 40 серия. все упирается в игры которых нет.
купить новую карту с гарантией за 45 или бу без гарантии за 50, пусть и с большей на 1-2% производительностью. Как по мне тут даже и думать не надо.
@@alexandrpozdnyakov8933 можно найти карты на гарантии. Во вторых это по заверениям производительность такая же. Как там в реальности неизвестно, без длсс может и меньше быть. Плюс в начале они будут дороже из за дефицита.
"Хуанг кинул тех кто по фулпрайсу купил 2080Ti"
Как говорится, "лох - это судьба".
Хотел бы я быть тем лохом, у которого есть лишние 100к рублей на покупку 2080ти)
Я в декабре 2019 года читал в рунете о суперчипах нвидиа Ампер, которые готовятся на 2020 год, уже тогда было понятно, что нечего брать 2080.
Как хорошо, что я таки удержался от покупки и не стал лохом.
Когда увидел анонс новых 30ХХ я был очень рад, что не купил 2080ti на замену своим 2х 1080ti hydro copper. (которые кстати в SLI вообще не очень)
Теперь можно смело продать за 600-700 баксов и сидеть на "затычке" аж до появления 3090 в продаже.
Всю историю так было, новое поколение всегда имеет лучший перфоманс на прайс. Ртх2000 - исключение из правила.
Зачет - ЛАЙК!
Огонь выпуск, спасибо. Буду показывать на работе ребятам, разжевали полностью 😆
Эх пойду достану свою платиновую карту с чердака пойду предзакажу rtx3080 так уж и быть уговорили )))
@@TiranStoried а жаль...)) Ещё во время презентации искал глазами купюроприёмник XD
поиграй летом на компе с тдп под киловат или полтора лол РАДИАТОР в комнате)))
Спасибо, что держите в курсе
Спасибо за видео
Смотрю и думаю, какой же я тупой!
Владимир Абдулов но в отличие от тебя, мне хватило ума не оскорблять людей.
Осталось дождаться анонса диспетчера задач для GPU, иначе это очередная дыра с просто охренительной пропускной и вычислительной способностью,
Напоминаю что совсем недавно всё производители CPU присели на на одно место из за дыры которая позволяла процессору выполнить вредоносный код досрочно до одобрения действия пользователем.
А сейчас мы сознательно делам GPU который и так непонятно чем занят (т.к. нет диспетчера задач для GPU и какое процесс её грузит черт её разберет) так он ещё и инфу с диска будет читать минуя все мыслимые барьеры.
а ещё нейронки хуанга смогут реалтайм парсить ваши фотки, доки и видосы с компа через нейросети значительно быстрее и без обращения к CPU и RAM, XD
если такой параноик, покупай биг нави и радуйсо жизни без ртх, нейронных сетей и буста чтения текстур с диска)
Как всегда отличный выпуск..Сергей молодец. Удачи.
СПасибо за видео.
Самое смешное, что большинству кто может позволит такие видеокарты, эта инфа и не нужна и не понятна) Главное сколько фпс в различных играх при различных расширениях.
Скорее всё ровно наоборот. Те кто много работают и не мало зарабатывают могут купить себе эти карты, а вот на игры времени может и не остаться. Ну или играть на них в свой любимый xcom ufo defence 93 года на 4к мониторе.
@@VictorGray000 ну всех кого я знаю, у кого есть топ видяшки, это балбесы, у которых родители при бабле. Или на норм должностях, но от Пк железяк далеки.
А все кто шарит и следит за ПК железяками имеют средние машины за 40-50 тыс руб.
@@_VladNav_ Это зависит в первую очередь от круга общения. Моё состоит из ITшников 25+(а в среднем 30+) каждый из которых или имеет или мог бы иметь автомобиль, так что видеокарта не является проблемой. Да и вообще, человеку 30+ куда проще потратить 100к+ на себя чем тратить их на игрушку для детей.
@@VictorGray000 100к тратить на себя легко, если ты не среднестатистический житель СНГ.
вот я скажу честно. у меня сейчас 1070 . и не какого дикомфорта я не испытую. я не пранирую обновляться . пока она не перестанет тащить игры даже на
минималках.
Sakura Spirit
да ты на 720р переходи , еще как раз как выше сказано до 9090ти досидишь.
Всё по делу!👍🏻
Отличная подача информации,благодарю отдельно за пояснение работы IO на данных картах. Отдельный вопрос,если можно. Если у меня используется процессор r7 1700, он еще будет,по вашему мнению, в хорошем тандеме с 3080, или уже пора задумываться об апгрейде cpu,чтобы вытянул работу карты?
Хорошая попытка ХУАН, но я покупаю PS5.
Отличная попытка ХУАН я покупаю 3080. Тем более что наметилась тенденция выхода "
эксклюзивов" на РС
в 2025 поиграете может в хорейзен часть 2. Я буду играть в нормальные игры, которых на Пк нету, на ПК одно дно. И видеокарта такая просто не нужна, чушь, в дум играйте, который по графика как игры 2010, вам нормально будет 4к 100фпс, графика уровня 2008 года.
@@user-gb1fw5xx4u скажу тебе честно что тоже намереваюсь купить до пары и PS5. Но вот если экзы начнут стабильно выходить на PC пусть даже с задержкой 4-6 месяцев то сомневаюсь что сони мне продадут свою консоль
Информативно)
ребят подскажите по выбору БП, под 3070 какой бп брать, там же новое 12pin питание, хотя на сайте нвидии написано 1x8pin. Я вообще не понимаю как быть, планирую купить карту затычку б/у до релиза 3070, тк пк нужен уже сейчас для работы и нет времени ждать, а какой БП брать хз. Существующие БП подойдут для новых 3070? Если да, то подкиньте парочку вариантов. Спасибо заранее за любую информацию.
Ребят, очень интересует сбалансированная сборка для 3090, а также какие потери при установке 3090 в топовые сборки на 1070 лет 3х назад, есть ли смысл менять остальные комплектующие?
Начало про новую систему охлаждения 09:09
Спасибо, что не забываете про ссылки Ситилинка!
И вам спасибо!
Взаимно.
Илья теперь только комментирует видео? Что-то давно его не было видно в выпусках...
Ну не такая уж она новая, эта система охлаждения ) смотрим и удивляемся Sapphire Vega 56 Pulse
@Ksandr Warframe Скорее всего на балконе. Будем ждать удлинителей для видеокарты, которая будет располагаться в отдельной системном блоке.