Це відео не доступне.
Перепрошуємо.
(English subtitles) 8 MYTHS about modern NVIDIA and AMD video cards
Вставка
- Опубліковано 26 бер 2020
- Ai radar extension - bit.ly/2QIbzx1
The subscription statement: clck.ru/Mq7AS
Drivers for AMD graphics cards are curves, everything is perfect for Nvidia, ray tracing is a pampering that will be forgotten in a couple of years, PCI Express 4.0 is a breakthrough standard, overclocking the video card will give a significant increase in performance... these and other myths we will destroy today, in this video - 8 myths about modern video cards Nvidia and AMD
Program for monitoring FPS: clck.ru/MwMWk
Channel snow Leopard - / @irbis216
Our Vkontakte community: myironcomp
My instagram - / mkroshin
а как же миф, что RGB подсветка дает прирост 50% фпс
Так это правда же🤔
это не миф!!!
1050 на следующие 5 лет можно брать ?
Star Gate, нет. Минимум Radeon 5700 или 1070-1080. А лучше взять RTX 2080 и не парится)
@@otrede а ещё лучше дождаться 3060-3070
Некоторые до сих пор думают, что если поставить видеокарту амд с процессором Интел, то производительность будет ниже, чем если бы была связка амд-амд или Интел-нвидиа
- Скоро будут выходить игры, которые не будут запускаться на GTX картах!
Те, кто купили 1080ti: 😳😳😳
Это ещё один миф))
У меня гтх780, пошел плакать...))
@@sergeysakevich3515 У меня 2060, но от этого лучше не становится😅. Т.к поддержка лучей чисто для галочки🤨
@@WHY7_V Так и я о том)). Мне для ВарТандера 780-й за глаза хватает, люблю еще Халф-Лайф так он вообще на любой фигне идёт. Всякие новые типа последних вальфенштейнов тоже идут на ура, и чё мне тогда плакаться?)) А из новых классных игр я вижу только Халф-Лайф Аликс для VR. Но на VR от Вальв я еще не скоро накоплю, да и стоит ли ради одной игрушки тысячи баксов тратить? Так что моей 780-й еще долго пыхтеть)))
@@sergeysakevich3515 Не могу не согласиться:)
Лайфхак, на скорости 1.25 идеально смотреть )
я на 1,75 смотрю
И на 2x норм
Dimok VseOk на 2х лучше
Вы что я на 0,75смотрю
Постоянно 1,5 выставляю)
бля вот смотрю майнкрафт с трассировкой выглядит лучше чем варфейс на ультрах)))))
Это не трассировка и я играл с этими шейдерами , воду немного улутчает и тени , не лучше кстати чем другие шейдеры и ещё надо тектсур пак детализированный качать
В голосину орал))
Беги оттуда, глупец.
Это не трассировка, лишь её симуляция
Нормально выглядит варфейс в 4к как по мне.
Вот вам миф, не знаю правда или нет. Если на ночь вставить меж булок gtx1080 то к утру она превратится в gtx1080ti,главное не передержать, иначе получишь palit gtx1050 без вентилятора.
Не миф. Только вставлять нужно не себе, а соседу.
У меня как раз 1080...
@@user-nb8kq7yh3u ну как?
@@juccbjufccfgjbfyh4613 решил не рисковать!
@@user-nb8kq7yh3u пАнимаю
Нередко у видеокарт после майнинга случается отвал или прогары
Doctor Gunner по идее надо обслуживать после покупки и ревизию наводить. Текут прокладки сразу под замену.в принципе свою предыдущую карту обслужил и пашет после майнинга второй год но конечно и в ферме не более 9 месяцев протрудилась всего.
У майнеров принципиально не стал бы покупать. Как вам такой аргумент?
@@letsdosmth7666 справедливо)
Вообще-то, первыми, SLI придумали и использовали 3DfX, а ещё их последнюю видеокарту - Вуду 5 6000 , еще никто не переплюнул, у неё было 4 видеочипа и 128мб видеопамяти и это в 99 году.
@DEAD SPACE ???
@DEAD SPACE 3.14здешь и провакация)
Да, продали они 200 штук, половина из которых была не рабочая, окружённый результат, а в это время зелёные им в затылок дышали.
Там ещё можно было эти чипы(граф. проц.) объединять до 32 штук. И всё это Нвидиа просрали.
@DEAD SPACE лично видел на прилавке Voodoo 5 6000 с 4мя чипами, правда в 2002 году, она тогда уже была устаревшей и никого не интересовала и стоила не дорого для такой карты. А в клубах полно было машин с Voodoo 5 5500, играл я на ней в кваку третью, уже тогда 3dfx сдохла, но бренд делал свое дело и брали её по привычке.
А двухчиповые были и у Ati - Rage Fury MAXX, у XGI (SiS+Trident) - Volari Duo. Помимо SLI и Crossfire подобная технология была и у S3 - MultiChrome.
4:20 бред. Видеокарта в майнинге работает 24/7 - то есть год работы такой карты в ферме это как лет 5 в среднем игровом ПК. И поджидать там может все что угодно - от прогара и испорченных элементов до прогретого после отвала чипа. Так что совет идиотский, извините уж за мой французский.
Особенно после отвала могут ребол сделать и на вторичку выкинуть спокойно, банки памяти могут также отвалиться и также реболиться, а после таких ремонтов видюха может проработать нормально ещё год, а может завтра сдохнуть, зависит от мастера и удачи. Ещё есть система питания, в которой вообще всё что угодно может вылететь, отвалиться, в КЗ какое-нибудь выпасть или тупо прогореть
@@R0sHaL отвал вряд-ли. Он не от постоянной майнинговой монотонной нагрузки а скорее от динамической нагрев/охлаждение как это по 100 раз на день бывает в игровом ПК. Температурная шевеленка разрушает пайку а не постоянная температура. Думаю мысль ясна.
@@DmitroMos вряд ли школьники тебя поймут, но мысль верная. По этой причине лучше держать включенный целый день компьютер чем постоянно его включать отключать. Резкие токовые броски как и колебания температуры очень вредны для современных электронных компонентов. Так же желательно что бы жёсткий диск работал без остановки.
@@user-jp8kv1ts5q Вот только учитывая какая проводка на постсовковом пространстве, ночью скорее зимой твой комп сгорит от перепада электричества в розетке, ибо весь твой дом будет на электро обогревателях сидеть и тупо сеть не выдержит.
@@user-jp8kv1ts5q про жесткий диск - согласен, но с видяхой метод "не выключать" не работает, так как фоновая нагрузка на современную карту от ОС настолько мизерная, что и говорить не о чём.
На АЛИ такие скидки выкатили в честь десятилетия, что дешевле с Европы за Евро товары заказать, что я к примеру и начал делать. )))
Такое чувство,что вирус этот облегчил китайцам мозг.И цены они сбрасывать,судя по всему,не собираются
@@Solzhenitsyn_meme_plant какой вирус але, на курс доллара посмотри, в долларах скидки ниче такие
@@user-xv8ef9ns6x там цены задрали - будь здоров, на любые товары и начали продавать типа с скидкой. Ещё Али начал купоны скидочные давать и бесплатную доставку с российских складов от 500р, так цены ещё выше сделали.
@@alexandryashcheritsyn9056 вчера буквально смотрел себе чё то. Там блять цена недавно поднялась охренеть как чуть не вдвое
@@alexandryashcheritsyn9056 ниче не знаю, заказал тел до распродажи стоял 12500, по скидкам взял за 9500. Повербанк по скидке за 600руб вместо 1000. Клаву за 900 вместо 1400. Процессор за 6500 вместо 7300. И всякие мелкие вещи.
Половина домыслы и имхо.
Что такое имхо
@@nuriksanchez506 абривиатура
@@nuriksanchez506 in my humble opinion; «по моему скромному мнению»
@@nuriksanchez506 или же "имею мнение хрен оспоришь"
У них все видео такие. К сожалению канал блещет мифами и глупостями по не знанию.
Если у амд обновленные драйвера на старую видеокарту добавляют 10% производительности - это ли не значит что стартовый драйвер был сырой???
Канал "Этот компьютер", проводил очень подробный тест с драйверами и никаких 10% не было. Хватит выдумывать байки
Это маркетинговый пиздешь. У амд проблемные драйвера. На самом деле. У нвидиа они лучше.
@@anber13 В чём, и где?
@@Sol_Bodybuilding некоторые игры не поддерживают амд, нет фишек для игр, которые есть у нвидиа. Некоторые видеоредакторы не работают с ускорением гпу амд. Хаха. И не поиграешь и не поработаешь) хаха.
@@anber13 А какие игры конкретно, какие программы конкретно?
Как владелец RX 5700XT заявляю, драйверы по-прежнему кривые. А в свое время с RDR2 и артефактами, которые игра выдавала изначально я вообще пересрался.
Yesckela крепись, скоро и на твоей улице будет праздник с допиленными наконец дровами.... но это не точно))) тоже хотел такую карточку брать но посмотрев проблемы решился всё-таки скрепя сердцем взять зелёных карту.
Про драйвера - ни один баг Нвидиа не вызвал такое количество возвратов как происходило с 5700ми, да и в целом выбор "правильной и стабильной" версии стало уже классикой жанра, так что.... ну такое себе.
Про майнинг - вопрос наличия гарантии. То что есть алгоритмы требующие производительности памяти, а соответственно и требующие разгон памяти, не гарантирует что карту не разгоняли. Более того, в майнинг фермах используются алгоритмы в зависимости от их "ценности", т.е. сегодня один алгоритм делает деньги а завтра другой, а не так что поставил на один алгоритм и карта работает. Майнинг подразумевает использвание карты 24/7, что уже вовсе не подразумевает сам производитель закладывая некий эксплуатационный износ, и он еще сильнее уменьшается когда "на карте высохла паста и умерли кулеры".
Про PCI-E 4.0 - у 5500 4гб вопрос в количестве самих линий. пропускной способности, а не в нехватке памяти.
Про SLI Оптимизация - почти нигде, я бы сказал что выбрана умышленно игра и условия в которой есть прирост. Тесты на СЛИ периодически обновляются и в этом можно убедится.
Вроде и мифы, но аргументация не совсем. ИМХО
На RX 5500XT PCI Express 4.0 но линии PCI урезали в два раза (до х8), при подключении до PCI Е 4.0 карта работает на скорости PCI E 3.0 x16, а при подключении до PCI Express 3.0 вовсе на скорости PCI Express 2.0 x16. Просто сделали карту с красивой цыферкой "4", которая состоит с чистого маркетинга
Не согласен только с первым пунктом. Амд пофиксили почти все косяки в конце февраля. С этого патча у меня был всего 1 черный экран при закрытии игры, перезагрузился все норм. Играю каждый день в среднем по 4-5 часов. Я как владелец rx 5700xt и многие другие владельцы 5700 серии подтвердят.
@@maksimdeev6206 Те кто купили видеокарту RX 5700, и XT незадолго от старта продаж терпели "чёрный экран" до того момента пока выпустили фикс, баг просуществовал довольно долго, того хватило многим чтобы возненавидеть видеокарту
@@maksimdeev6206 я скорее говорил про хмм глобальность и тяжесть последствий от проблем с драйверами, а не то что там до сих пор все плохо. Я считаю что если бы АМД до НГ распродаж решили проблему черного экрана и выпуска 5600 серии - был бы шикарный новогодний подарок зажравшимся зеленым. Но этого не случилось, и эта проблема посерьезнее чем описанные в ответ "В РДР2 проблемы у нвидиа", просто не сопоставимые масштабы. По этому первый пункт для меня спорный, и это пример по недавней ситуации, горячий.
@@aga87df Проблема "глобалности" в том что в интернете свойственно встречать больше негативных отзывов. Когда у тебя все хорошо, большинство не пойдёт писать отзыв об этом. Я сам гоняю АМД больше года, до этого была рх570 от msi. Проблем было больше, но не как в отзывах, иногда ловил косяки, раз в неделю или две, перезагружал и все норм. В конце того года взял 5700хт, иногда что то всплывало но редко.
Моё мнение что баги амд в прошлом были не так значительны в реальности.
Ля я узнал в последнем мифе что у меня драйвер для профессиональных ГПУ хах а я думал у меня обычный
NVIDIA выпускает патч-заплатку для Vulcan в RDR2.
RDR2 всё равно вылетает с той же ошибкой.
кудахтер не перезапустил
)
@@dmytroizotov самое смешное, что проблема исправляется запуском бенчмарка
Vulkan
Не смотрел видео, он там опять все мифы придумал?
Придумал. При чем половину с ног на голову поставил.
ахахахах
За SLI не соглашусь. От силы 3 игры оптимизированы под него, в остальных нет прироста больше 3-4%
есть профайл инспектор, который даёт просратся 95% играм, и профит очень большой
слова не из воздуха
загугли эту тему, +30-40%
Драйверы для АМД не кривые, они просто похожи на хорошее вино. Чем дольше ждёшь, тем лучше они становятся
ну да, ждать полгода пока видеокарта перестанет тупо вылетать это конечно мощно!
TpeBop qpuJIuIIc пол года? Такая ситуация была с рх570, но люди с мозгами просто обновляли биос до последней версии и у них все было нормально, так что не надо заливать про нвидиа вставил и забыл.
UPD: у самого 1066, но если бы она мне не досталась в идеальном состоянии за 7к то оно нахуй не нужно во время существования рх588
@@ArthurAhi такая проблема была с полярисами и нави, да и просто обновить биос не получится, это именно проблема драйверов, производитель должен это учитывать сразу
@@ArthurAhi находил видос с обсеранием rx 5700 xt. Знаешь, о чём там было? Чёрные экраны и перегревы под 90-100 (это даже горячее чем в ноутах), а комменты наполовину наполнены людьми, говорящими, что у них та же фигня. Как думаешь: ждать полгода с черными экранами и перегревами каждый день и надеется, что потом ещё полгода не надо будет ждать это то, для чего покупают видеокарты?
@@ArthurAhi, нет уважаемый. Продукт должен работать из коробки без танцев с бубном в виде обновления биоса и ожидания стабильных драйверов.
и все же на счет драйверов - нет)))ни разу в жизни не использовал никаких хотфиксов от нвидиа(использую нвидиа уже в общей сложности почти 13 лет). просто вышел новый драйвер, обновил с чистой установкой и забыл до следующей обновы.единственное огорчение с дровами у нвидии было в прошлом году, когда они убрали поддержку стереодрайвера,а ведь я являюсь владельцем монитора и очков 3д вижн...и частенько смотрел фильмы в 3д... а вот с АМД был печальный опыт владения около пары лет - то еще счастье.то ждешь по месяцу пока игрулька запускаться вообще начнет, то еще что-то...про черный экран на новых картах - это вообще эпик фейл. потратить полкосаря баксов и ждать полгода фикса - ну это жопа жопная...а в остальном - согласен.
Расскажите о том, как железо подорожало, стоит ли ждать спада цен, стоит ли вообще покупать пк , стоит ли покупать на авито ИМЕННО В ДАННЫЙ МОМЕНТ ( доллар=80)? Будет интересно
Мне тоже интересно, хочу взять комп на амд 5 2600 и gtx 1660 supper в этом году. НО СРАНЫЙ ДОЛЛАРОВ ВСЕ РАСТЕТ И РАСТЁТ
В следующем году ожидается обвал цен
(Так что вам решать)
Salih Steel в связи с чем ожидается обвал цен? Люди взбунтуются?)
@@awerbi Спрос на ПК станет меньше минимум на 30%
Слышать про хорошие карты после майнинга в 22 году просто смешно)
Ну вот 3 года прошло, а лучи по-прежнему существуют лишь для того, чтобы продавать новые поколения карточек Nvidia
Прирост в ОДНОЙ ИГРЕ показывает, что в большинстве игр будет прирост.
Шта блеать?
9:37 смотрим в левый нижний угол и видим информацию о том, что драйверы на Nvidia тоже могут дать прирост производительности (он говорил, что такое может быть только на AMD)
Да Это бред, был разбор от канала твой компьютер, где эта тема была разжевана и драйверы там от слова совсем не причем...
Ну пол года допиливать дрова, что бы пропал черный экран на АМД - это не то же самое, что и хот фиксы. Хот фиксы, как раз - хорошая вещь.
Эх были времена, когда в игровые ноутв засовывали полноценные gtx 680(но от таких ноутбуков профита маловато, ибо весили они под 10 кг,и вся мобильность пропадала, да и толщина там не 2-3 см, а 6-7) А стоили они...это отдельная тема, 90 тысяч(на тот момент 3000$ в 2010 году...)
2017, msi gt83vr 6rf titan sli
Видеокарта, после майнинга, за копейки??? В какой @#₽& они копейки стоят, они на Авито стоят почти как новые, а как приезжаешь на встречу чтобы посмотреть в каком она состояние, а там без слезь не взглянешь, были экземпляры которые выгибало похлеще чем материнки от сырости!!! Так что пусть майнеры подавляется своими видюхами))))
Ну, у тебя как обычно: половина мифов по делу, а половина - хрень полная
Насчёт майнинга можно и поспорить...Бывают такие убитые с прогарами от перегрева ВРМ
вследствии перешивки биосов...Аффтар не покупал себе ни одной майникарты , а то б не говорил...
Послушал миф номер 1 и понял, что аффтор конкретный косяк называет мифом, а отсюда непредвзятость уже невозможна, а потому слушать дальше просто не имеет смысла.
Если разницы по FPS на игровых и про-драйверах нет, а про-драйвера по идее лучше работают в специализированных программах, то в чём тогда смысл игровых драйверов?
Маркетинг брат мой
Физика простосуже не замечают, он щас везде есть, так же будет с ртх, всезабудут скажут, было красиво но уже не то, а наделе будет вшит в движок...
Классный ролик. Спасибо что не хейтишь AMD. От понтов Nvidia уже тошнит.
Хорошо было бы разобраться с частотой видео паями. Сейчас смотрю карту 1650 супер. Тут цена отличается в 2-4к. Но там там частота 12000 на 8000. 4000 прироста частоты в более дорогой версии с приставкой OC и Gaming
Было бы интересно узнать о температурах видеокарт какие максимальные, какие лучше поддерживать при работе на максимальных нагрузках видеокарты. Например на 5700 хт на некоторых сайтах наткнулся на инфу что 110 градусов это нормальная температура видеокарты. И какую скорость( число оборотов ) вентиляторов видеокарты лучше держать что бы и обдув был норм и служили вентиляторы дольше ?
Если хочешь, чтобы видеокарта служила дольше, то не трогай ее. Запомни её температурный режим и проверяй периодически. Если вдруг повысится, замени термопасту и почисти от пыли. Это все, что нужно делать с видеокартой, всё остальное от лукавого.
Элементарно, Ватсон. В спецификации производителя GPU на его сайте (не сайте магазина) указана макс температура. Например 93 градуса на сайте Nvidia для RTX 3070 и потребление 220 ватт. На сайте вендора, который делает нереференс, температуры может и не быть. Например MSI RTX 3070 gaming trio x, но указано потребление 240 ватт. Универсальных температур и мощностей не бывает.
Не ходи на такие сайты
Миф 1 не понятно как развеен? У Нвидии драйвер сразу даёт нормальный fps, а AMD его ещё пол года допиливают до нормы? Так это же подтверждает миф?
Почему не написали что АМД греется и лагает)
Или что Лучи дохлая тема?)
потому что всё наоборот)
@@user-js6jj1wg7p А как же правдивые обсоры?)
@ да у него везде бред, чего стоит его "выбор материнки под райзен", где полезной инфы 0
@@Andruxan1 про везде не могу точно утверждать, но то видео запомнилось, тем что один идиот упертый докопался что типа я неправ, а потом слился. Я просто на Интеле, АМД поверхностные знания, если у вас АМД, вам виднее конечно.
Миф. Подсветка видеокарты прибавляет 10 фпс и делает игрока про геймером.
Это не миф...
SLI и подобные технологии появились примерно тогда, когда появились первые 3D ускорители, они же видеокарты.
Привет Voodoo ^*^ !
PS +В те времена это считалось костылём. Если твои инженеры не могут создать один чип с лучшими характеристиками на чуточку меньшем техпроцессе, то чтоб удержать спрос на свою продукцию, пускали в ход двух и более чипов на карту. И даже после того как из технологии сделали не костыль а фичу, допилив напильником, у пользователей уже сложился негатив к этому... Посудите сами, тогда ты от 2ух видеокарт получал +10-20% фпс, что несравнимо по стоимости, а сейчас уже есть методы как сделать +50-80% фпс что имеет смысл (в этом видосе было ~+60%)
Ла-ла-ла, я всё, спасибо
Миф №2. Слышал такое же выражение о 3д в тв, мол, перспективная вещь, без нее все телики будут отстой и т.д.
3д канул в лету. Больше 3д не драйвер продаж.
Трассировка может тоже уйти в мир иной.
Скорее всего, найдут иное применение или гибрид технологии, уменьшающее пожирание ресурсов
сейчас трудно судить, особенно пока нет rdna2 и консолей
@@MrClyf так я и написал, что может, но это не факт.
При этом замечу, что 3д анонсировали не хуже, рекламная компания была обильнее. Поживем - увидим :)
@@ruslan.zakirov ну с ртх ситуация уже отошла от обычного пиара и рекламы, раз вон внедряют эту штуку в консоли и софт оптимизируют вовсю (новый дидект икс), так что, думаю, всё-таки ртх станет нормой
@@ruslan.zakirov 3д в ТВ был гавно ебаное, вот он и умер, хотя в кино ещё есть. А трассировка выглядит пиздато но только не оптимизированная. Если допилят, почему её умирать?
Если эта технология экономит деньги, то она останется навсегда. Дня разработков игр, экономия времени вытекает в экономию денег.
И ещё один миф PhysX умер. Стоит просто посмотреть на список игр с ним:
Tom Clancy's The Division
TheWitcher 3
Fallout 4
Batman: Arkham Asylum
Mafia II
Mirror’s Edge
Project CARS
тетрис))
Это рофл такой?
Слишком толсто
Этим играм уже достаточно много лет
Бу видеокарты это в принципе лотерея. Честно не очень понимаюю тех кто их покупает, нет я не мажор, но брать с рукдаже не в скажем так магазине который отвечает за то что накупил гарантией(даже на бу). Лучше купить один раз на несколько лет вперед, чем потом мучаться с неявными дефектами.
Забавно! У меня тут реклама "Теньков" (инвестиции) выскачила чётко после фразы: "Миф номер 7: #реклама# инвестируй (бла-бла-бла) мы вернём деньги"
Я думаю что это знак!...
Не стоит инвестировать с "тёмной лошадкой". Ни чего они не вернут, или в чем-то обманут...
Но в целом, забавно получилось.
Миф или правда: интегрированая графика тормозит дискретную (если она есть)?
если у тебя кадр обрабатывается на дискретной, а выводится через встроенную, то может
@@vvalik а такое бывает?
@@vvalik Пример такой. Я покупаю Ryzen 3/5 с встроеной графикой, а потом покупаю еще дискретную видеокарту. И вывод изображения на монитор уже через ДВ
@@liubonatozavr а вот как программа посчитает через directX так и будет, если криво написана может и тупануть. У меня на ноуте стриминговая прога напрочь не видит дисретку из-за встройки в i3. Так что встройка нужна сейчас только если сапер самая графонистая игра.
@@liubonatozavr на буках такое сплошь и рядом - там система должна понимать и переключать графику со встройки на дискретную и обратно чтобы батарейку экономить но это не всегда корректно работает.
Если мы говорим про Ryzen APU то процессоры с индексом G как правило работают на предыдущей архитектуре (R5-3400g например на Zen+, когда R3-3100 уже Zen2 и работает до 20% быстрее) поэтому APU у AMD как правило чутка слабее.
Еще одна проблема что сами APU как правило ограничивают скорость работы PCI-E x16 порта до х8 из-за встройки. На бюджетных картах разницы в производительности скорее всего не будет, но какой нибудь RTX2080Ti может упереться именно в шину, и раскрыть его потенциал будет сложнее.
всё, в принципе, правильно рассказываешь, но с SLI я готов поспорить. не надо путать SLI с NVLINK. SLI нигде в современных проектах не работает, особенно с DirectX 12. Вообще нигде!
Конечно, кто-то где-то придумывает какие-то костыли, но SLI давно умер, ибо заставить его адекватно работать попросту невозможно
Nvidia inspector
Я охренел от переходника на новые rtx а точнее от его ценника)))
Кстати да, я лично дефорсил видюхи для майнинга, в результате продавал их достаточно быстро, из тех что сдать обратно в магаз не удавалось. И далеко не только я так делал. Это просто экономический выгоднее. Занизить энергопотребление это раз, сохранить работоспособность это два!
Скорей всего дело было так: Nvidia прознали что в консолях следующего поколения будет рэйтрэйсинг, нужно скорей выкатить (пусть и не допиленный) версию на ПК.. шоб все думали шо мы первые 😁 а остальные нас повторили.
Чудило, кто по твоему железо делает для консолей? плойка четрертая, например все железо AMD, коробокс не помню, но тоже либо AMD лили Nvidia. Ну и чего и кого они прознали?)
Интересно почему автор не упомянул прошивку веги из 56 в 64...
Это миф?
Ну да, сейчас бы говорить что покупать карты после майнинга хорошая идея. То что просто Б/у тут согласен, но не после майнинга точно.
а еще есть миф что разрушители мифов, получают бабки от производителей чтобы эти мифы так и оставались мифами))
Уже полтора года пользуюсь видеокартой с майнинга)))
Я что то не пойму то вы в прошлом видео про мифы видеокарт говорили что SLI/CROSSFIRE не дают FPS а иногда даже уменьшают его. Теперь же вы говорите совершенно обратное. Определитесь уже.
Про кривость дров:
Мой комп со встройкой на Ryzen 3го поколения, на драйвере 20.2.2 Recommended (WHQL) вообще перестал работать (постоянные падения системы в BSOD менее чем за 2-3 минуты с момента старта), откатиться смог только через безопасный режим. И это рекомендованный WHQL драйвер всесторонне протестированный. На предыдущем 20.1.3, не имеющего подписи WHQL, нет никаких проблем.
3:00 9 миф: когда то там через 5 лет выйдет игра, которая не запустится на а видюх без трассировки лучей АХАХАХАХАХАХ
Самый большой миф что видеокарты имеют какую либо защиту от перегрева или короткого замыкания , самые дорогие чипы горят как спички.
Гонинг по поводу. Майнинга, загруз памяти в идюхе на 101%, сам пробовал, чуть не вышла из строя
как это "чуть" произошло? Вам смс пришла,или просто вот почувствовал?
Васёк Сказочный винда подсказала, что то там драйвера видеокарты, неопознаны
@@alienrenn5341 драйвер слетел? или некорректный драйвер для того майнера где вы пробовали? если слетел то была бы ошибка, и надо было переустановить драйвер(это произойти может из-за разгона даже на игровом компе), если майнер требовал то я хз как у вас что там чуть не вышло из строяобычно майнер пишет ошибку требуя обновить драйвер.Но вижу человек вы бывалый,майнинг прошарили,желаю удачи в раскрывании правды про майнинг...
скажу так,после майнинга если хозяин следил за видеокартами и не перегревал,мало что может случится но вот вылетающие драйвера,выбивание видеокарты и убитые вентиляторы это норма а обычный юзер даже такого не поймет,при тесте видеокарты только через некоторое время)
SLI нигде в играх не используется. Полный бред. Как правило загружена 1 видеокарта, а 2 просто на холостых или чуть выше. Прирост не более 2-5% от SLI, а цена в 2 раза. Может в премьере, фотошопе и 3d-моделировании помогает, но точно не в играх. Нет софта для загрузки 2 видеокарт.
То чувство когда сам прошил rx5700 в rx5700xt
@Иван Иванов они не горячие на самом деле. Там датчик температуры показает "самое горячее место на карте", а не самого чипа. Температура чипа в районе 60 градусов
А что касаемо пресловутого "замедления видеокарт новыми драйверами" у nvidia? Любители АМД очень любят тыкать в это носом
Нет ничего подобного, на Ютубе есть тесты, ищи сам. Если вкратце, то драйвера заленых улучшают производительность, красных не всегда, но сама архитектура Полярис оказалась более долгоиграющей, и дрова здесь вообще непричем.
Ну сами подумайте єто бред
У амд ситуация намного проще
У них есть rx 4xx rx 5xx rx 5xxx
И для такого количества карт легче делать драйвера чем для
Нвидиа
У которых еще серия 600 жива
То-есть вы хотите качество драйверов как у амд но оставить количество карт а именно gtx 6xx,7xx,9xx, 10xx, 20xx, 16xx + не забывайте про их разновидности Super, Ti, обычные
Почему все стримеры, даже не топовые и не популярные собирают компы исключительно на NVIDIA+intel, а AMD/Ryzen либо дико хейтят либо вообще не смотрят и не рассматривают амд для стримминга ?
Еще один вопрос, RX 5700 XT поддерживает DirectX 12 Ultimate или будут только следующие поколение от amd поддерживать ?
ua-cam.com/video/gaVG-gGaHcA/v-deo.html
Ага, конечно
Просто многие стримеры дуpoчки и думают, что амд "для бомжей", считают, что интел лучше.
99% стримеров не имеют знаний по железу
@@grishanap "Видеокарта - Gigabyte RX5700XT (в дальнейшем поменяем на более мощную)" Т.е по мнению того чувака RX 5700 XT не фига не мощная. Ну а про Ryzen согласен. Нормальные процы делают AMD, посмотрим, что там с Zen 3 будет.
@@Darklighter_77 мощная, поэтому и взял ее в сборку, просто есть и мощнее)
Я думаю, что он хочет взять с выходом новой линейки карт, поэтому максимально вложился в другие комплектующие , чтобы без проблем в будущем поменять карту.
@@Darklighter_77 лучше подожди
Голос просто кайф!
3:17 целых 30 мегахешей выдает на эфире))
Уже не смешно
Да я ждал
У Нвидии тоже бывают проблемы с драйверами, когда обновление драйверов улучшает производительность
"Эра оверклокеров клонится к закату"
Пацаны ещё черти знает сколько будут гонять свои FX с Phenom ll и разлочивать ядра,и гнать также карточки, которые позволяют себя гнать с приростом хотя бы 10%+ при адекватном жоре.Я лично видел отзывы на алике,где господа разлочивали АМДшные трехядерники серии Phenom в четырехядерники,четырехядерники в шестиядерники.Да-да,но эра-то оверклокеров заканчивается,мне так дядя на видео сказал)))
У каждого круглого столба есть свой угол который всегда можно найти. С обзором не поспоришь. А так, красные скоро (может и в этом году) прихлопнут синих основательно, и в цене, и в производительности. Жаль только простым обывателям модели топ ни светят из любого лагеря, накладно. Лайк.
Дивижечка пару раз мелькнула - лайкос!!!
Вы там что курили? Чтобы сказать про r6 siege как ааа проект.да игра стоить 300р в стим. Ее тащит даже 1050 ти на ультра, зачем такой игре две 2080ти в слай?
Четкий видос,лайк подписка с меня а с тебя видосы)))
вроде миф, а вроде и глупость. До этого года был плохо знаком с принципом работы видеокарты и всегда полагал, что 4гб лучше, чем 2гб. И когда увидел в объявление гтх760 4гб, я подумал что она в 2 раза мощнее, чем она же, но на 2 гб. Уже спустя 8 месяцев изучения и сборки пк на 3600 рязань, я понял что это лишь объем памяти)
Уверен таких не мало, кто полагал также, как и я. Основываясь лишь на объеме памяти.
Почему только про слай сказал, про кросфаер тоже интересно было бы узнать, что с ним на текущий момент?
Не знаю кто сейчас верит что ноутбучная и десктопная видяха одинаковые по производительности. Это вы зря. А с остальным согласен.
Миф #9 - можно зайти в магазин и купить игровую видеокарту
:-)
Уже два года майнинговая видюха 1080ti работает без проблем, у друга 1070 - 1 год. Никогда не понимал боязни покупки постмайнинга.
@@DarkChannelMrShadow долго ждать будешь, мистер паранойя.
Анаоогично, взял 1070, за полгода даже вертушек ни разу явно не услышал. Правда, тяжелее гта5 на ультрах я ничего не запускал, но все же.
Помоги в выборе у меня rysen 5 3600, мать x570 PLUS от MSI. Не могу определиться rtx 2060 или radeon 5700xt.
первый пункт настолько не миф, что до сих пор и поставить нормально драйверы амд без танцев не получается, и откатываться постоянно приходится - то игры не работают, то программы. а так всё отлично с драйверами амд, не работают только, но в остальном всё супер. странный пинок в сторону хотфиксов; лучше пусть ошибки по полгода висят? или всё же их оперативно исправят? насчёт прироста фпс - наверно лучше всё же сразу нормально делать, а не через год выводить карты на ту же производительность, что у нвидиа из коробки. в прошлом не раз обжёгся на картах амд, сам виноват, что больше одного раза, но теперь ни-ни
И с первой минуты дизлайк. Драйвера у амд действительно кривые и карта устаревает к тому времени,пока допилят дрова, зелёные же обновляются часто и пилятся под новинки. с амд больше не работаю и все сборки только на зелёных,да и меньше по гарантии обращаются.
Что касается rtx ,тут прав,Это будущее,но вот про физикс🤦 он сейчас базовый,он в движках,он используется,просто мы не видим) Про остальное более менее согласен)
Ну когда видеокарты с трассировкой лучей будут по вменяемым ценам и rtx будут у каждого 10-го... тогда иры и будут выходить только на технологиях трас.лучей.
4 года прошло - до сих пор ртх никому нахер не нужен и нету его обязательного требования в играх без которого она не запустится))
а куда ирбис пропал в современных видосах?
Купил я б/у GTX 680 в 2019 году, судя по всему она была после майнинга восстановлена, так как выглядела как новая. Ровно 3 года она прожила и сдохла.
МК: Sli не умер.
RTX 3000: Нууууууууу, у меня для тебя плохие новости
Если учитывать сколько cuda ядер в той же 3090 то в ней минимум две с половиной 1080ti
В смысле?
А есть другие дрова на АМД, кроме софтфейра? Покажите хоть один. Я в инете не нашёл голых драйверов на свой r7 240.
Не корректное видео. Все сравнения опираются на RTX 280 TI, можно подумать эту карту может приобрести любой прохожий. А ничего что её цена 80-90 т.р. и по вашему любой её может купить? Будьте честными и делайте реальные видео а не вашу фэнтази.
Так тебе никто и не говорит ее покупать, это просто проверка в лабораторных условиях, если так можно сказать
Вы сами развинчали свое жэе развенчание относительно драйверов :) Если АМД с помощью драйверов поднимает перформанс со временем это говорит только о том что изначально их драйверы били кривые, и находились не в оптимальной кондиции.
Сразу - вот когда определятся с трассировкой лучей, тогда и можно будет развенчивать. А пока - незачет, садитесь. Про physx тоже рассказывали много чего, и где оно теперь?
А как же миф что к концу 2021 года видеокарты подешевеют, ведь это арядли произойдет. (Я знаю что ролик был снят до обвала видеокарт)
я конечно извиняюсь, но я разогнал свою 1660 до уровня 1660 супер. Это 13-15% прирост в играх ( видеокарта gtx 1660 gaming oc giga с 3 вертухами) поэтому может у кого то там разгон умер. Но не у всех так точно. учитывая что 1660 я брал за 6800грн , а 1660 супер сейчас стоит 8400 грн. Не сложно догадаться, сколько я экономлю разгоном. около 1500 - 2000 грн. Изи
Про драйвера и прирост 10% у амд - если не ошибаюсь, то это благодаря удачной архетиктуре rx400/500. Было сравнение старых драйверов адм и нвидия, можете найти в ютубе.
Trente это не из-за дров , это новые api
Топ видос!
Дорогая редакция. Вы сможете объяснить человеку, которому пришлось продать 5700xt и купить 2070s, из-за BSOD и черных экранов "Миф о кривых дровах AMD"?
Ну если сложно или лень обновить драйвера/биос/шиндоус, то тогда прямой путь в дурку
А ведь прошёл только год, а есть уже Metro:Exodus улучшенная версия(забыл полное название) которая уже требует минимум rtx 2060
немного бреда наговорил что "разгон видеокарты не даст существенный прирост"
вон 2080ти при разгоне до 2145мгц на канале bang4buck gamer - выдаёт на целых 10фпс больше в разрешении 4к на максимальных настройках. и это очень существенный результат, ибо 10фпс в 4к разрешении, это не те 10фпс в фуллхд. так что всё зависит от ситуации, например 2080ти гонится очень хорошо и прирост существенный. а ты говоришь что разгон всей 20-серии видеокарт бессмыслен...
RayTracing конечно не умрёт, однако когда выдет первая игра обязательно требующая аппаратную поддержку RayTracing существующие видеокарты с этой поддержкой скорее всего будут считаться динозаврами и выдавать там неиграбельный FPS, поэтому сегодня сам факт наличия аппаратной поддержки RayTracing можно не учитывать при выборе видеокарты, и уж тем более нет смысла за это переплачивать.
Физикс загнулся потому что невидия не дала амд внедрять её в своих решениях, это часто случается, в то время как амд свои технологии раздаёт направо и налево.
Вообще-то давно дала и движок этот очень часто используется в играх без лишней помпы. Другое дело, что работает он на ЦПУ... :)
У меня с новым драйвером rx 470 не запускается вообще а на старом все норм
Это в большинстве случаев проблема не драйвера, а операционки. Предполагаю что у вас стоит что то вроде десятки ЛТСБ.
У меня на 470 с новыми драйверами всё отлично работает
С майна брал? Мб биос корявый зашит, попробуй обновить
@@tiratrone тоже об этом думаю боюсь превратить карту в кирпичик
@@Snowblin1 семерка 64битная
Подскажите, а что лучше убирает излучение компа - герань или все таки кактус?
конопля
Драйверы у АМД не то что кривые - это какой-то вырви глаз и вырви руки. Ну нихрена нереально сходу сообразить что к чему, элементарно настроить своё разрешение монитора - это полчаса-час с бубном проплясать чтобы разобраться что к чему. Такое ощущение что разработчики реально соревновались чтобы сделать максимально кривой и запутанный интерфейс.
@Иван Иванов Держу в курсе что там есть только те разрешения которые есть в драйвере после установки. У меня например любимое разрешение для работы 1366/768, но когда ставишь карточку и дрова АМД (ставил R9 290) - то этого разрешения НЕТ. И хрен ты даже за полчаса разберешься в этих кривущих драйверах как его установить. А в джифорсах всё просто - установить новое разрешение и вперед, макс. пару минут.
@Иван Иванов Хрен ты это сделаешь за минуту, особенно если не знаешь, не рассказывай сказки, будешь тыкать везде где только можно, пока случайным образом это не найдешь. Еще и перезагружаться устанавливать разрешение в свойствах монитора... в джифорсе поставил включил и всё, там всё просто и логично. И потом, шо это за херня - в настройки дисплея надо заходить (какие?), профиль новый создавать? Где об этом сказано что для установки своего разрешения еще и какие-то сраные профили надо создавать? - чушь...
@Иван Иванов Еще оказывается надо в раздел игры и только потом настройки дисплея? Ты сам себя слышишь, какие 5 минут, тут нормальный человек и за всю жизнь хер догадается что настройки дисплея оказывается в играх а потом создавать профиль и прочую херню, перезагружаешься и т.д. Нихера это не очевидно, это через жопу. И я как-то по другому делал, не помню. Потом сдыхался R9 290 взял себе жифорс и аж вздохнул легче, нет этой всей еботни, ляпота...))) конечно когда с бубном напрыгаешься и всё настроишь то оно работает и забыл о нём, но всё равно, коряво это, как ты это не защищай. Тебя устраивает и хорошо).