@@WarL1ght_01 ты рофлишь?)) данные в несколько видеокарт записываются одинаковые, т.е. видеокарты не распараллеливают работу над разными задачами, а решают одну в одно время используя одинаковые данные на своем буфере, поэтому от прироста видеопамяти нескольких видюх нет профита ибо в каждой записана одинаковая информация ¯\_(ツ)_/¯
Про слабый прирост в играх враки, там всë зависит от желания разрабов оптимизировать игру под работу с двумя видяхами, в некоторых играх прирост очень даже существенный
не только от разрабов игр зависит. там обработка идёт через утилиту от производителя плат... и пальцем тыкали они друг в друга. игроделы говорят "мы бы сделали, но вот узкое место пропускная способность синхронизатора моста", а производители железа "Это игроделы ленивые не хотят под мост оптимизировать софт"
Просто технологический невозможно получить двойной прирост, так как при объявления требуется дополнительная вычисления чтобы нормально распределить работу + чтобы возникло меньше конфликтов при обеднения придется немного урезать производительность из обоих видеокарт
Требовался мощный блок питания, специальный корпус с хорошим охлаждением.От этой технологии отказались не разработчики а сами пользователи.Покупка двух топовых видеокарт+бланка питания требовала огромных затрат.Не адаптированость программного обеспечения умножал на "о" прирост в производительности.Кривые драйвера неудобное расположение двух express видео разъёмов,сложность установки,настройки отправило эту технологию в утиль...Проще купить одну мощьную ,чем две средние.По факту это был маркетинг.
на 1000й серии можно было добиться ~70% прироста с помощью сторонних прог вроде, но сейчас можно использовать 2 видеокарты в компе, но не доя игр, а для рендера в том же блендере
Ой ой ой ) На одной карте рендер может навернуться, а ты про две говоришь )) Здесь же обычно на процессорах рендер происходит. Может конечно в 4.0 всё изменилось, но я всё ещё помню, как рендер с расчётом на 6 часов остановился из-за ошибки спустя 2 часа, когда я уже уснул ))) А вот на процессоре такой фигни бы не случилось. Не, ну может это всё просто байка конечно, но на процессоре никогда не вылетало...
@@yaroslav5168 для примера поставил одну и ту же сцену на цп и гп видеокарта 6600 4:27 минут проц r5600 за 8 минут только 400/4096 семплов видюхи от зеленых в среднем в 2 раза быстрее рендерят в одной цен. категории
@@yaroslav5168 на процессоре сложную анимацию ты неделю будеш рендерить, а не 6 часов. глючит сайклс? ну подключи другой рендер движок который у тебя глючить не будет, насколько знаю движки в блендере гвоздями не прибиты. Или вон Анриал все плотнее влезает на территорию анимации и синематика переставая быть просто игровым движком
@@bizcocho3834 может, только топовый тредрипер на 96 ядер рендерит точно также как 3060 у которой 3584 специализированных графических ядра, помимо того что она еще и в 35 раз дешевле
ПАЧЕМУ все блогеры забывают про то, что у nvidia было (и кстати есть) две технологии обьединения видеокарт??? SLI как технология технически требовалась только для увеличения видеопамяти и в очень редких случаях, с заморочками, для обьединения видеопроцессоров. Сама технология загнулась из-за того, что в ней была система иерархий, в которой был главный чип и чип, который фактически выполнял роль чипсета, распределял память и передавал данные главному чипу. По факту две карты давали только увеличение памяти и разрабы карт решили упростить - просто запихнули кучу памяти в топ версии карт с запасом. Второй технологией была техника NVLink, которая работает совершенно по другому и тут уже реально суммируется производительность, но в пользовательском сегменте оказалась бесполезной, так как столько памяти в базовых задачах никто никогда не нагружает, а сумма мощностей видеочипов ограничивается производительностью процессора.
Основной чип был занят другими задачами отличными от загрузки памяти и роли чипсета, благодаря чему больше ресурсов уходило на отрисовку кадров, поэтому их становилось больше
@@arvinseytumerov5407 тогда обьясни мне, каким образом в том же cyberpunk 2077 при использовании двух видеокарт gtx 1080 кадров тановилось МЕНЬШЕ аж на 10%, чем при использовании одной такой же карты? Нет и не было в SLI моделей распределения нагрузок.
Слабым был прирост только в играх, SLI использовалась для других целей, в основном, для GPU рендеринга, где очень критичен объем видеопамяти. Можно было за счет пары дешёвых карт получить объем памяти, который давали профессиональные карты за 100500 денег. Естественно, для тех же зелёных это было невыгодно.
Мультикарты на сокет можно найти в расчётных кластерах, где скорости достаточно через PCI, а коммуникация между картами не настолько важна, ибо программа паралеллится синхронно. То есть в ведущих HPC используется socket с двумя CPU (типа AMD Epyc) и, например, 4 GPU A100. Производительность - во!
До сих пор можно использовать две видеокарты, например для рендера, либо оффлоадить отрисовку приложений на них. Либо использовать одну для декодинга видеопотоков, или энкодинга, то есть играть в игры, и смотреть видосы которые декодятся с других видеокарт, либо записывать геймплей энкодя с той на которой не играешь, причем можешь делать это с разными видеокартами, хоть старый радеон поставить и играть со свежей нвидиа. Так же для обучения нейросетей всегда используют несколько видеокарт.
Не совсем так. Просто с приходом DX12 и Vulkan стала возможной реализация работы двух карт без мостиков. Лишь бы разработчики игры захотели реализовывать это. В Думе и Wolfenstein например, могут задействоваться даже NVIDIA с АМД одновременно. Например отдельная зеленая карта и встройка красных
До сих пор можно. В некоторых играх есть ФизИКС (отвечает за реалистичное поведение всяких там волос, шмоток, занавесок и т.д.), обработку этой фигни можно скинуть на отдельный видик (причем не обязательно такой же), но прирост производительности там получается еще меньше
Проблема была не в этом, а в том, что компании посчитали финансы и пришли к выводу, что если люди не будут покупать новое поколение видеокарт, а докупать ещё одну старую и получать иногда даже больше мощности за меньшие деньги, то они обанкротятся за короткий промежуток времени. Технологию в играх можно было допилить так же, как допилили многопоточность для процессоров
узнай для начала чем процессор от видеочипа отличается, все твои выводы есть не более чем поверхностное представление ¯\_(ツ)_/¯. Но для начала отмечу, что любой видеочип на много более многопоточен чем любой ЦПУ.
Охлаждение где-то там умрет в альтернативной вселенной, можно да но если посчитать не финансы а последствия возможные то было правильным решением закрыть эту возможность
Ой блять такая легкомысленность, ты хоть бы изучил как это все работает. Думая что есть очевидный ответ на оборот можно проебаться и твой ответ ясно даёт понять какое у тебя мировоззрение.
Внести этот канал в: не рекомендовать видео с этого канала) Такого бреда о, CF и SLI я еще не слышал, на ютубе куча видосов и там где работает, то прирост вплоть до 80%, но так как игры рисуют картинку по разному и многие вычисления перенесли на карты, нужно подсказать картам, что есть игра, а что не ускоряется, чтобы технология работала.
Вообще-то технология SLI работает правильно и она ровно в два раза ускоряет отрисовку графики при добавлении второго ускорителя. Но есть нюанс: она работает так только с видеоускорителями 3dfx. Зато ретрогеймеры довольны
а в нулевых были игры, в настройках графики которых даже при наличии только одной видюхи можно было включить режим двух ГПУ, что -с какого-то xepа- давало неплохой прирост производительности абсолютли нахаляву) пример - игры серии call of duty, начиная как минимум со второй
Как бы грустно это не звучало, но согласно закону Амдара "Ускорение программы с помощью параллельных вычислений на нескольких процессорах ограничено размером последовательной части программы. Например, если можно распараллелить 95 % программы, то теоретически максимальное ускорение будет 20-кратным, невзирая на то, сколько процессоров используется." Это конечно побольшей части касается процессоров, но видеокарты тож касается. Хотя хотелось бы увидеть хотя бы 5 кратную разницу, и возможно если бы продолжили развивать технологию, то может что-нибудь и вышло.
В рабочих случаях тот же Редшифт рендер позволяет использовать две и более видях для просчетов, но надо понимать, что этот софт изначально был устроен так, чтобы это работало. А многие игры, например, до сих пор кладут болт даже на многоядерные процессоры. В той же гта5 я открываю диспетчер и вижу, что из 10 ядер у меня нагружает только 2-3 от силы.
Она не всегда давала маленький прирост. В некоторых задачах прироост очень весомый. Все зависит от того как оптимизировано приложение для работы с двумя карточками. Но мало кто может купить две карты, и разработчики просто клали болт на эту возможность. Я на пример использую две видеокарты в пк когда хочу запустить нейросеть. Запускаю текстовые модели на 2 карте. Благо разработчики интерфейсов для нейросеток делают не для массового пользователя, так что что в кабольде, что в угабуге, можно выбрать какую карту будет он использовать или даже настроить использование двух карточек.
Как программист скажу, что в теории всё равно можно завести две карты и без SLI или CrossFire, просто это никому не нужно. В коде каждая видюха представляет собой отдельное устройство и перегружать код и проц распаралеливанием нагрузки мало кто хочет, особенно учитывая что фичей воспользуется 2.5 человека. В рамках проф.софта это ещё вполне адекватно, так как рендер-фермы ещё существуют и активно используются.
Ну вообще то это было удобно тем что нагрузка распределялась, именно поэтому не было большой разницы в производительности, но вот в рендере 2 карты было просто по божески, только так стояло только в 1% сборок
там вроде через нвидиа инспектор настраивалось более менее. Я в свое время экспериментировал с 1080 двумя. Профили готовые скачивал и работало даже там где изначально не было официальной поддержки sli.
Нет, эффективность у них была прекрасная. Но вот продавать новые карточки, когда можно купить 2 старых очень не выгодно каптилистичкской нвидии. Насчет разрабов ктото там писал, так вот. В 4.14 кажется версии Unreal Engine SLI работал просто прекрасно, но потом он был выпилен, кажется в около 4.24. А разработчики в большинстве случаев используют готовые решения в виде движков. Да и тут уже проблемы были как и в эпиках в случае с ue, так и в драйверах от нвидии
Читал про это, видяхи обрабатывают кадры специфично Одна видяха - четные кадры Вторая видяха - нечётные кадры. Из-за этого изображение подгружалось чуть медленнее. Технология вполне нормальная, ее бы доделать в свое время как и карты под нее.
Я 3 поколения сидел на топовых слай связках и все эти годы слушал про 10-20% от таких вот "экспертов" которые их и не нюхали. В большинстве игр в эпоху расцвета слай прирост был под 100%.
В 2014 две 650m увеличивали фпс больше чем в 2 раза даже (с 35 фпс до 80-90). А в 2016 разрабы раста убрали поддержку SLI и посоветовали обновлять железо...
Технология по своей стрктуре интересна была, но в те годы когда одна карта не справлялась с производительностью. Давала прирост на 50% но не во всех играх. Сейчас достатоно одной карты что бы игра довала стабильную производительность.
Вы можете поставить две видеокарты разом. И это улучшит производительность. Выдавайте основную видеокарту только играм, а в остальном настройте графику для исполнения на второй. Теперь, пока вы играете, только игра работает с видеокартой, в то время как все фоновые задачи обращаются ко второй. Это есть у нвидиа, это возможно в связке из нвидиа и встройки интел.
Если Россия когда-нибудь решит выйти на рынок видео карт, у нам обязательно нужно сделать поддержку нескольких штук, по мощности соревноваться с амд и Интел невозможно, по технологиям очень сложно, остается предлагать людям самые надёжные видеокарты средней мощности типо 1030, с возможностью их объединения, хотяб штуки по три. Необычное решение, но оно поведет индустрию пк не к гипер малым размерам, а е тому что у каждого дома будет свой личный сервер для обработки данных и тд, что повысит безопасность и тд. В общем круто было бы
Вроде как видеокарты с SLI продаються досих пор, только они не для массмаркета. Тоесть, не для простых смертных. Там они ничем не отличаються по внешке. Кроме как доступных мостов, типа для разработки, рендеринга и т.д. SLI мост давал нифига се прирост
Ну даже если не оптимизировать, на 4к мониторе, если одна видюха будет рисовать условно левую часть сцены, а другая условно правую, двигаясь от краев навстречу друг другу, то это уже даст +50% прироста в среднем.
Потому что эта функция изначально была разработана для програмирования и работы с визуалом. Это спустя некоторое время решили в игровой индустрии ее применять, но это было не актуально и по этому забили
когда это было можно ( SLI ) это давало прирост в 5-7 фпс , это было дорого и непрактично, в ответ на это АМД начали выпускать карты с двумя гпу на тексталите, нои это не дало ржидаемого очевидного прироста , с тех пор на это забили давно
Тоже была идея, например собрать кластер из старых видюх, но вот оптимизация этого г***на настолько сложная, что идёт оно н**й. Хотя с развитием ИИ можно попробовать решить эту проблему
2 карты всё еще есть смысл ставить для разделения нагрузки. Пока одна чёт там рендерит, на второй играешь. Ну или как сейчас более модно. Одна на игру, дргуая на ИИ
Ну вообще то причина другая очень часто два одинаковых устройства вступают в конфликт даже в слотах памяти нужно правильно ставить а на винтах там вообще было по другому сделано
а разве нельзя каким либо образом скорректировать работу видеокарт таким образом что бы равномерно распределить на них нагрузку и как следствие увеличить производительность?
Это так не работает к сожалению.Мы в универе проходили эту тему,но это было уже лет 10 назад .Так что физику процессов я не помню.Но до сих пор помню ощущение облома
@@profialex1 ДА и бежать за второй 3090 тоже нет смысла тк по цене выйдет , как одна 4090 и жрать будет больше, это не считая тот факт, что сам прирост никакой, сама технология "нет смысла"
@@andreymorkovin7837 конечно есть смысл ибо по факту ты старое должен выкинуть, а толкать не бито не крашено на «авито» и по цене выйдет дешевле т.к 1на штука у тебя уже есть. ( математики). И да ещё прикол эту сборку можно было собрать и сразу а не ждать следующего поколения!
@@profialex1 Ну учесть минимальный прирост , который не дотягивает до старшиго брата , а плюсом тот же Авито , но уже в размерех 2 карт на выданье , да преимущество на лицо )
Параллельная работа двух и более видях это не совсем для игр - полноценно этот потенциал раскрывается на всяких рендер фермах и именно для этого оно и было задумано. По-большому счёту, для игр это и не нужно, потому что игры разрабатывают чтобы нормально работать на одной, возможно пусть и топовой, видяхе. Более чем уверен, что эту фишку порезали только на игровых видеокартах, а на рабоче-профессиональных всё осталось как было
Всё ещё проще, не все (точнее вообще почти все) не захотят даже думать о покупки второй видеокарты, так как видеокарта даже 1 стоит как автомобиль с пробегом, даже автомобиль дешевле будет
Только одного не могу понять, почему говорят здесь, что на 40-ой серии, sli убрали, он всё ещё есть, вот в 50-ой обещалт его вырезать полностью, а вот в сороковой он остался пока что
👉🏻Assembling of PCs, consultation:
• VK: vk.com/maxxpc
• Telegram: t.me/maxxpctelegram
• Website: maxxpc.ru
Это уже пофиксили
Ну и бред ты высрал
А три 1030 - это ж вообще 3090 😮
Если бы технологию допили, то было бы +- как 2060, но с малым объемом видеопамяти и без технологий 2-го поколения
@@artemanhelin8057Так у 2060 6 гб видеопамяти, у 1030 2 гб, 2x3=6, получится то же самое, только вот тип памяти будет различатся...
На 6гб гддр4 памяти)
@@WarL1ght_01 ты рофлишь?)) данные в несколько видеокарт записываются одинаковые, т.е. видеокарты не распараллеливают работу над разными задачами, а решают одну в одно время используя одинаковые данные на своем буфере, поэтому от прироста видеопамяти нескольких видюх нет профита ибо в каждой записана одинаковая информация ¯\_(ツ)_/¯
@@user-tk3ik6by1q Прикинь,я рофлю
Про слабый прирост в играх враки, там всë зависит от желания разрабов оптимизировать игру под работу с двумя видяхами, в некоторых играх прирост очень даже существенный
не только от разрабов игр зависит. там обработка идёт через утилиту от производителя плат... и пальцем тыкали они друг в друга. игроделы говорят "мы бы сделали, но вот узкое место пропускная способность синхронизатора моста", а производители железа "Это игроделы ленивые не хотят под мост оптимизировать софт"
Какой существенный прирост? Максимум 50% был прирост всего в паре игр. В основном прирост составлял 10-20%.
@@user-mu9ff8ji1q у нас вроде цже не детское время, поздновато для сказок на ночь :)
@@user-mu9ff8ji1q50% это мало? 😂
@@Retro_maniac462 По существу есть что сказать?
Просто разрабы не хотят видеть как люди тупо покупают две 2060 и им хватит их лет 5-7
Просто технологический невозможно получить двойной прирост, так как при объявления требуется дополнительная вычисления чтобы нормально распределить работу + чтобы возникло меньше конфликтов при обеднения придется немного урезать производительность из обоих видеокарт
@@ahmadjonyusupov5553а ещë мало материнских плат с двумя pcix16.
А про нагрев ты явно забыл, каким блять образом сделать так чтоб они не мешали друг другу поведай нам. Расстояние между картами ничтожно малое.
Винишь тех кто вообще не виновен просто люди жадные а проявляют они это при первом же поводе
@@ahmadjonyusupov5553по факту увеличивается объем памяти, который не влияет на фпс, если не забивается полностью на одной карте
Требовался мощный блок питания, специальный корпус с хорошим охлаждением.От этой технологии отказались не разработчики а сами пользователи.Покупка двух топовых видеокарт+бланка питания требовала огромных затрат.Не адаптированость программного обеспечения умножал на "о" прирост в производительности.Кривые драйвера неудобное расположение двух express видео разъёмов,сложность установки,настройки отправило эту технологию в утиль...Проще купить одну мощьную ,чем две средние.По факту это был маркетинг.
Ну не 10-20..
И до 40% доходило.
Да и кто про это не знает?..
Это реализовано, уже порядка 15 лет
на 1000й серии можно было добиться ~70% прироста с помощью сторонних прог вроде, но сейчас можно использовать 2 видеокарты в компе, но не доя игр, а для рендера в том же блендере
Ой ой ой )
На одной карте рендер может навернуться, а ты про две говоришь ))
Здесь же обычно на процессорах рендер происходит.
Может конечно в 4.0 всё изменилось, но я всё ещё помню, как рендер с расчётом на 6 часов остановился из-за ошибки спустя 2 часа, когда я уже уснул )))
А вот на процессоре такой фигни бы не случилось.
Не, ну может это всё просто байка конечно, но на процессоре никогда не вылетало...
@@yaroslav5168
для примера поставил одну и ту же сцену на цп и гп
видеокарта 6600 4:27 минут
проц r5600 за 8 минут только 400/4096 семплов
видюхи от зеленых в среднем в 2 раза быстрее рендерят в одной цен. категории
@@yaroslav5168 на процессоре сложную анимацию ты неделю будеш рендерить, а не 6 часов. глючит сайклс? ну подключи другой рендер движок который у тебя глючить не будет, насколько знаю движки в блендере гвоздями не прибиты. Или вон Анриал все плотнее влезает на территорию анимации и синематика переставая быть просто игровым движком
@@samsmit812 может у него пк на тридрипере и gt 1030
@@bizcocho3834 может, только топовый тредрипер на 96 ядер рендерит точно также как 3060 у которой 3584 специализированных графических ядра, помимо того что она еще и в 35 раз дешевле
Дело не в неэффективности, а в том что игры нужно под две карты делать, а это тяжело. Игры которые могли в две видяхи имели приличный прирост.
Мой друг бомбанул, когда я ему сказал, что раньше так можно было сделать.
Cross-fire шлейф для связки карт дают прирост в 60%
У меня две карты по 3гб одинаковые и играю кайфую
ПАЧЕМУ все блогеры забывают про то, что у nvidia было (и кстати есть) две технологии обьединения видеокарт??? SLI как технология технически требовалась только для увеличения видеопамяти и в очень редких случаях, с заморочками, для обьединения видеопроцессоров. Сама технология загнулась из-за того, что в ней была система иерархий, в которой был главный чип и чип, который фактически выполнял роль чипсета, распределял память и передавал данные главному чипу. По факту две карты давали только увеличение памяти и разрабы карт решили упростить - просто запихнули кучу памяти в топ версии карт с запасом.
Второй технологией была техника NVLink, которая работает совершенно по другому и тут уже реально суммируется производительность, но в пользовательском сегменте оказалась бесполезной, так как столько памяти в базовых задачах никто никогда не нагружает, а сумма мощностей видеочипов ограничивается производительностью процессора.
>Давала только увеличение памяти
А фепесы прирастали просто потому что, ага
Основной чип был занят другими задачами отличными от загрузки памяти и роли чипсета, благодаря чему больше ресурсов уходило на отрисовку кадров, поэтому их становилось больше
@@arvinseytumerov5407 если программно разработчик это реализовал. Я писал про отдельные случаи, которых можно пересчитать по пальцам
первый раз слышу про NVLink. Спасибо)
@@arvinseytumerov5407 тогда обьясни мне, каким образом в том же cyberpunk 2077 при использовании двух видеокарт gtx 1080 кадров тановилось МЕНЬШЕ аж на 10%, чем при использовании одной такой же карты? Нет и не было в SLI моделей распределения нагрузок.
Слабым был прирост только в играх, SLI использовалась для других целей, в основном, для GPU рендеринга, где очень критичен объем видеопамяти. Можно было за счет пары дешёвых карт получить объем памяти, который давали профессиональные карты за 100500 денег. Естественно, для тех же зелёных это было невыгодно.
Как бы всё верно, но про рабочие задачи ты забыл
А в ких рабочих задачах грузится видюха? Ну если только овер специфичная задача
@@user-po1rl9jp1t рендер, нейросети
@@user-po1rl9jp1t нейросети, рендеринг видео и 3D графики. Все это работает на видеокарте в разы быстрее, чем на процессоре.
@@user-po1rl9jp1t чел. Работа с видео,с вычислениям, нейронками. Доброе утро
Ага, вот только там при двух картах прирост производительности будет 30% максимум говорю как чел с двумя 1080ti на работе))
Вспоминаю видео русского мясника про сборку пк у него там 2 видеокарты стоит😢
@@Aerobysк чему тут этот коммент?
Хвастун в попе гарпун, вот и всё @@MORTIS_325
Он ещё живой? Лет 8 про него не вспоминал, как раз после того как ему подарили комп.
Если видеокарты четвертого поколения, то вторая используется для обработки потокового видео - для стрима то есть. Они не работают в связке.
@@user-mu9ff8ji1qта там даже sli нету)
Мультикарты на сокет можно найти в расчётных кластерах, где скорости достаточно через PCI, а коммуникация между картами не настолько важна, ибо программа паралеллится синхронно.
То есть в ведущих HPC используется socket с двумя CPU (типа AMD Epyc) и, например, 4 GPU A100. Производительность - во!
ой вранье прирост в среднем 60% технология эффективна .. неэффективны только кривые руки пользователей
Приорост-то есть, но ПО не адаптировано
В некоторых играх прирост был выше 50%
До сих пор можно использовать две видеокарты, например для рендера, либо оффлоадить отрисовку приложений на них. Либо использовать одну для декодинга видеопотоков, или энкодинга, то есть играть в игры, и смотреть видосы которые декодятся с других видеокарт, либо записывать геймплей энкодя с той на которой не играешь, причем можешь делать это с разными видеокартами, хоть старый радеон поставить и играть со свежей нвидиа.
Так же для обучения нейросетей всегда используют несколько видеокарт.
Прирост был очень заметный, но 2 карты стояли у единиц и тратится на оптимизацию никто не хотел.
Не совсем так.
Просто с приходом DX12 и Vulkan стала возможной реализация работы двух карт без мостиков.
Лишь бы разработчики игры захотели реализовывать это.
В Думе и Wolfenstein например, могут задействоваться даже NVIDIA с АМД одновременно. Например отдельная зеленая карта и встройка красных
До сих пор можно. В некоторых играх есть ФизИКС (отвечает за реалистичное поведение всяких там волос, шмоток, занавесок и т.д.), обработку этой фигни можно скинуть на отдельный видик (причем не обязательно такой же), но прирост производительности там получается еще меньше
Но он уже вроде умер
Проблема была не в этом, а в том, что компании посчитали финансы и пришли к выводу, что если люди не будут покупать новое поколение видеокарт, а докупать ещё одну старую и получать иногда даже больше мощности за меньшие деньги, то они обанкротятся за короткий промежуток времени.
Технологию в играх можно было допилить так же, как допилили многопоточность для процессоров
узнай для начала чем процессор от видеочипа отличается, все твои выводы есть не более чем поверхностное представление ¯\_(ツ)_/¯. Но для начала отмечу, что любой видеочип на много более многопоточен чем любой ЦПУ.
@@user-tk3ik6by1qя дополню твои доводы, даже при объединении ЦПУ мощность не суммируется
@@user-tk3ik6by1q Речь не о многопоточности чипов, а о прогрессе технологий. Очевидная же семантика
Охлаждение где-то там умрет в альтернативной вселенной, можно да но если посчитать не финансы а последствия возможные то было правильным решением закрыть эту возможность
Ой блять такая легкомысленность, ты хоть бы изучил как это все работает. Думая что есть очевидный ответ на оборот можно проебаться и твой ответ ясно даёт понять какое у тебя мировоззрение.
Не украл, а вдохновился.
У амд еще была более крутая технология слияния гпу на основе инфинити фабрик
Внести этот канал в: не рекомендовать видео с этого канала) Такого бреда о, CF и SLI я еще не слышал, на ютубе куча видосов и там где работает, то прирост вплоть до 80%, но так как игры рисуют картинку по разному и многие вычисления перенесли на карты, нужно подсказать картам, что есть игра, а что не ускоряется, чтобы технология работала.
Вообще-то технология SLI работает правильно и она ровно в два раза ускоряет отрисовку графики при добавлении второго ускорителя.
Но есть нюанс: она работает так только с видеоускорителями 3dfx. Зато ретрогеймеры довольны
ну вообще-то это технология слай работала как вы сказали . с кросфйаером дела обстояли куда лучше .
У AMD до сих пор эта фича работает, без мостика - на уровне драйвера.
Эх помню хайп на ютубе когда делали компы с двумя видяхами
а в нулевых были игры, в настройках графики которых даже при наличии только одной видюхи можно было включить режим двух ГПУ, что -с какого-то xepа- давало неплохой прирост производительности абсолютли нахаляву)
пример - игры серии call of duty, начиная как минимум со второй
Как бы грустно это не звучало, но согласно закону Амдара "Ускорение программы с помощью параллельных вычислений на нескольких процессорах ограничено размером последовательной части программы. Например, если можно распараллелить 95 % программы, то теоретически максимальное ускорение будет 20-кратным, невзирая на то, сколько процессоров используется." Это конечно побольшей части касается процессоров, но видеокарты тож касается.
Хотя хотелось бы увидеть хотя бы 5 кратную разницу, и возможно если бы продолжили развивать технологию, то может что-нибудь и вышло.
SLI технология в первую очередь нужна тем, кто занимается тяжёлым монтажом
В рабочих случаях тот же Редшифт рендер позволяет использовать две и более видях для просчетов, но надо понимать, что этот софт изначально был устроен так, чтобы это работало. А многие игры, например, до сих пор кладут болт даже на многоядерные процессоры. В той же гта5 я открываю диспетчер и вижу, что из 10 ядер у меня нагружает только 2-3 от силы.
SLI это не только от Nvidia, раньше эту технологию использовали 3Dfx
Только вот задержки эту задумку не позволили реализовать, а по под это рассчитывать ПО было дорого
Можно отдельно использовать две видеокарты, просто давать на них разную нагрузку: на одной игра, а на другой стрим, это пример.
На самом деле это очень печально, в проф софте эта технология очень активно используется
Эх, я помню эти мега-сборки на двух 1080 ti и на I9 9900K с 64 гигами оперы и кастомным водяным охладом
Это была мощь
Она не всегда давала маленький прирост.
В некоторых задачах прироост очень весомый. Все зависит от того как оптимизировано приложение для работы с двумя карточками. Но мало кто может купить две карты, и разработчики просто клали болт на эту возможность. Я на пример использую две видеокарты в пк когда хочу запустить нейросеть. Запускаю текстовые модели на 2 карте. Благо разработчики интерфейсов для нейросеток делают не для массового пользователя, так что что в кабольде, что в угабуге, можно выбрать какую карту будет он использовать или даже настроить использование двух карточек.
Зачетная концовка! )
Оно и параллельно для разных приложений тоже не работает как в ноутбуках сейчас встройкв и дискретная?
Как программист скажу, что в теории всё равно можно завести две карты и без SLI или CrossFire, просто это никому не нужно. В коде каждая видюха представляет собой отдельное устройство и перегружать код и проц распаралеливанием нагрузки мало кто хочет, особенно учитывая что фичей воспользуется 2.5 человека. В рамках проф.софта это ещё вполне адекватно, так как рендер-фермы ещё существуют и активно используются.
и да!! никто не убирал sli... оно работает через pci-e
Ну вообще то это было удобно тем что нагрузка распределялась, именно поэтому не было большой разницы в производительности, но вот в рендере 2 карты было просто по божески, только так стояло только в 1% сборок
только если на две разные карты распределять разные задачи тоесть на одной играть на другой монтировать чтоб одно другому не мешало, вроде так можно
там вроде через нвидиа инспектор настраивалось более менее. Я в свое время экспериментировал с 1080 двумя. Профили готовые скачивал и работало даже там где изначально не было официальной поддержки sli.
Тото китаец который собрал пк с 16 4090 за несколько лямов 💀
Некоторые рабочие приложения (Blender, Topaz Video AI, отдельные нейросети) несколько видеокарт без SLI поддерживают.
А при чём тут сраные игры-то? Почему ни одного теста в рабочих задачах?
Нет, эффективность у них была прекрасная. Но вот продавать новые карточки, когда можно купить 2 старых очень не выгодно каптилистичкской нвидии. Насчет разрабов ктото там писал, так вот. В 4.14 кажется версии Unreal Engine SLI работал просто прекрасно, но потом он был выпилен, кажется в около 4.24. А разработчики в большинстве случаев используют готовые решения в виде движков. Да и тут уже проблемы были как и в эпиках в случае с ue, так и в драйверах от нвидии
Читал про это, видяхи обрабатывают кадры специфично
Одна видяха - четные кадры
Вторая видяха - нечётные кадры. Из-за этого изображение подгружалось чуть медленнее.
Технология вполне нормальная, ее бы доделать в свое время как и карты под нее.
В physx помогало с лагами физики
Я 3 поколения сидел на топовых слай связках и все эти годы слушал про 10-20% от таких вот "экспертов" которые их и не нюхали. В большинстве игр в эпоху расцвета слай прирост был под 100%.
И было это во времена SLI на 3Dfx? :)
@@user-pc8gy7bz4b нет, в частности gtx 580, 680 и 780 по две штуки.
Это можно до сих пор сделать и раздавать затратра на вычисления програмно, так делают например для ИИ
В 2014 две 650m увеличивали фпс больше чем в 2 раза даже (с 35 фпс до 80-90). А в 2016 разрабы раста убрали поддержку SLI и посоветовали обновлять железо...
Можно и две разных производителей. Если у тебя амд, а хотелось физический движок от нвидеа. Нвидиа только на физику работала.
Небольшая ремарка: неэффективно это в играх. Для рабочего софта еще как полезно
Технология по своей стрктуре интересна была, но в те годы когда одна карта не справлялась с производительностью. Давала прирост на 50% но не во всех играх. Сейчас достатоно одной карты что бы игра довала стабильную производительность.
Да же с новыми покалениями можно ставить две карты, просто вторая будет отдельно обрабатывать физикс
Вы можете поставить две видеокарты разом. И это улучшит производительность.
Выдавайте основную видеокарту только играм, а в остальном настройте графику для исполнения на второй. Теперь, пока вы играете, только игра работает с видеокартой, в то время как все фоновые задачи обращаются ко второй.
Это есть у нвидиа, это возможно в связке из нвидиа и встройки интел.
Если Россия когда-нибудь решит выйти на рынок видео карт, у нам обязательно нужно сделать поддержку нескольких штук, по мощности соревноваться с амд и Интел невозможно, по технологиям очень сложно, остается предлагать людям самые надёжные видеокарты средней мощности типо 1030, с возможностью их объединения, хотяб штуки по три. Необычное решение, но оно поведет индустрию пк не к гипер малым размерам, а е тому что у каждого дома будет свой личный сервер для обработки данных и тд, что повысит безопасность и тд. В общем круто было бы
Если что-то делается - значит, это кому-то выгодно. Если Хуанг похоронил SLI - значит, ему это выгодно.
вопрос , а убрали не потому ли что просто есть возможность сейчас сделать все через дрова раз , и мы упираемся в пропускную способность шины два?
Вроде как видеокарты с SLI продаються досих пор, только они не для массмаркета. Тоесть, не для простых смертных. Там они ничем не отличаються по внешке. Кроме как доступных мостов, типа для разработки, рендеринга и т.д. SLI мост давал нифига се прирост
Ну даже если не оптимизировать, на 4к мониторе, если одна видюха будет рисовать условно левую часть сцены, а другая условно правую, двигаясь от краев навстречу друг другу, то это уже даст +50% прироста в среднем.
а можно вопрос: а где продаются видео карты для ноутбуков виндовс? просто мой плохо тянет майнкрафт
Идея не плохой но за цену 2видюх можно купить один шустрый и забить болт лет 10
нет это когда тебе одной хорошей мало
Потому что эта функция изначально была разработана для програмирования и работы с визуалом. Это спустя некоторое время решили в игровой индустрии ее применять, но это было не актуально и по этому забили
когда это было можно ( SLI ) это давало прирост в 5-7 фпс , это было дорого и непрактично, в ответ на это АМД начали выпускать карты с двумя гпу на тексталите, нои это не дало ржидаемого очевидного прироста , с тех пор на это забили давно
я буквально с таким же текстом видел видос почти год назад
и ещё раньше смотрел полноценный видос на тему двух видеокарт и технологию SLI
А если поставить две видяхи, одну использовать для стримовс вторую для игры. Так прокатит?
Тоже была идея, например собрать кластер из старых видюх, но вот оптимизация этого г***на настолько сложная, что идёт оно н**й. Хотя с развитием ИИ можно попробовать решить эту проблему
2 карты всё еще есть смысл ставить для разделения нагрузки. Пока одна чёт там рендерит, на второй играешь. Ну или как сейчас более модно. Одна на игру, дргуая на ИИ
Так ставят же - но не для игрулек, а для множества видеовыходов если они нужны.
Ну вообще то причина другая очень часто два одинаковых устройства вступают в конфликт даже в слотах памяти нужно правильно ставить а на винтах там вообще было по другому сделано
Некоторые разработчики и на мультиядерность процессора забивали)
И сейчас забивают)))
а разве нельзя каким либо образом скорректировать работу видеокарт таким образом что бы равномерно распределить на них нагрузку и как следствие увеличить производительность?
Это так не работает к сожалению.Мы в универе проходили эту тему,но это было уже лет 10 назад .Так что физику процессов я не помню.Но до сих пор помню ощущение облома
NVLink как бы норм, SLI хрень, nvlink объединяет и память и частоту, а sli только частоту
Лол, я до сих пор думал, что можно несколько
Доработать технологию❌
Забыть к фигам✅
Чаще вообще две по цене , как более мощная выходит , нет смысла )
Если ты уже купил кпримеру 3090 то бежать за 4090 вот смысла не было для того и разрабатывали ! ( именно для того) но Хуан всех переиграл 😢
@@profialex1 ДА и бежать за второй 3090 тоже нет смысла тк по цене выйдет , как одна 4090 и жрать будет больше, это не считая тот факт, что сам прирост никакой, сама технология "нет смысла"
@@andreymorkovin7837 конечно есть смысл ибо по факту ты старое должен выкинуть, а толкать не бито не крашено на «авито» и по цене выйдет дешевле т.к 1на штука у тебя уже есть. ( математики).
И да ещё прикол эту сборку можно было собрать и сразу а не ждать следующего поколения!
В любом случае мы увидим многопроцессорные конфигурации в том или ином виде.
@@profialex1 Ну учесть минимальный прирост , который не дотягивает до старшиго брата , а плюсом тот же Авито , но уже в размерех 2 карт на выданье , да преимущество на лицо )
Он так говорит "раньше можно было", как будто у всех мля повально 4090, и все забыли нахрен про другие видеокарты!
А у материнской платы с двумя разъёмами для видеокарты это работает?
А можно паралельно использовать две карты для двух мониторов?
Интересный факт: всем премудростям о компьютерах я научился в игре PC building simulator
Ну а что можно сказать о двухчиповых видеокартах!?
У геркона есть старый видос, про работу sli. И как её можно самостоятельно к любой игре прикрутить. Посмотрите, может хоть разбираться начнёте
две видюхи не повышали производительность одной игры, зато для стримов и игры подходили хорошо
Ну вообще-то поставить две карты 40 линейки можно, и это даст нехилый прирост производительности в видео и 3д рендере, например в блендере
Параллельная работа двух и более видях это не совсем для игр - полноценно этот потенциал раскрывается на всяких рендер фермах и именно для этого оно и было задумано. По-большому счёту, для игр это и не нужно, потому что игры разрабатывают чтобы нормально работать на одной, возможно пусть и топовой, видяхе. Более чем уверен, что эту фишку порезали только на игровых видеокартах, а на рабоче-профессиональных всё осталось как было
Еще можно аоставить две видиокарты для спец задач, в том же блеэндаре
Всё ещё проще, не все (точнее вообще почти все) не захотят даже думать о покупки второй видеокарты, так как видеокарта даже 1 стоит как автомобиль с пробегом, даже автомобиль дешевле будет
Только одного не могу понять, почему говорят здесь, что на 40-ой серии, sli убрали, он всё ещё есть, вот в 50-ой обещалт его вырезать полностью, а вот в сороковой он остался пока что
Скажи привет моему пк с 2x4090 на котором я тренирую SDXL модели. 😂 И да, прирост производительности в подобных задачах почти 90%
Для тех, кто не понял)
Если ты купишь два плохих компа, то они не будут работать, как один хороший комп за ту же цену, что и два плохих))
на про сегменте вроде есть до сих пор
С двумя картами ещё бы второй, а может и третий процессор поставить нужно, чтобы fps был в 2 раза больше
10-20%? Не знаю как сейчас, но во времена 9000х Печей прирост был до 70%, в некоторых случаях, если ставить интерлейс по второму типу, то и до 90%
Интересно, а можно запустить игры на майнинг ферме? 🤔
А вопрос а если сделать распределение задач как у процессора и видюхи только используя несколько видюх но для разных задач