Skoro wyszliśmy już z możliwości tworzenia komputera z dwoma kartami graficznymi to po co promować wielkie płyty ATX skoro i tak nie korzystamy z 1/3 płyty głównej. Myślę, że standardem powinna być płyta mATX i obudowa z 4 slotami co zupełnie wystarczy do skomponowania fajnego komputera. A te wielkie ATX i obudowy TOWER wyślijmy w zapomnienie.
Szkoda, że wszyscy zapomnieli o technologii którą wprowadziło DX 12 - łączenie różnych modeli kart różnych producentów. Świat byłby piękniejszy gdyby to było implementowane w grach.
@Wojciech Sawicki Tak, masz rację. Pamięć vram nie miała być współdzielona z jednej karty na wszystkie. Obraz miał być dzielony na małe kawałki i robota do wyrenderowania każdego z nich miała być dzielona na dostępne karty. W praktyce to każdy procesor graficzny miał w sumie niższe zużycie vram, bo nie renderowal całości a tylko swoją część. Niestety nie ujrzymy takiego rozwiązania choćby z uwagi na patentowanie przez Nvidie swoich technologii. Ludzie braliby najmocniejsze RX dla surowej mocy obliczeniowej oraz do tego najsłabszego rtxa, aby tylko móc odpalić dlss. Nvidia jest zbyt chciwa i też z tego względu nie uda się już takie łączenie zasobów.
Od dawna twórcy gier już nie wspierają sli/crossfire bo bardzo mało osób sie na to decydowało wiec po co optymalizacja sterowników dla garstki użytkowników.
Gdyby ilosc wspieranych gier przez lata rosla zamiast malec, to kto wie czy dzisiaj takie konfiguracje jak 2x3060 nie bylyby czestsze od pojedynczej 3070? Na pewno malo kto w to inwestowal bo nawet w momencie najlepszego wsparcia dla SLI lista gier i tak byla za mala. Kiedys za czasow pascali czytalem sporo o tym i bardzo duzo osob odradzalo SLI 1070 na rzecz pojedynczego gtxa 1080 / 1080ti wlasnie ze wzgledu na mala ilosc gier wspierajacych SLI. Pisali mniej wiecej tak: Po co bawic sie w duze zuzycie pradu, problemy ze stabilnoscia i denerwowac sie ze nie w wielu tytulach w ogole tego nie wykorzystamy? Gdyby zamiast zabijac ta technologie (ograniczenie tylko dla 2080ti itd.) inwestowano w to jeszcze wiecej pieniedzy (lepsza stabilnosc, dluzsza lista gier z obsluga) to dzisiaj prawdopodobnie bysmy mieli fajny bajer na rynku. Zamiast tego mamy jakis mocno przehypowany raytracing xD
@@imladris8992 "Kiedyś za czasów Pascali..." Nie obrażaj mojej karty GTX 1070 8GB VRAM... Cały czas mam ją w komputerze i jest szybsza od 1660 Super/Ti... 😏
Z tym Wiedźminem 3 jest ciekawy przypadek, bo z tego co pamiętam to zarówno CrossFire na np. Fury X, czy SLI na np. 980 działały dobrze, obciążając mniej więcej po równo obie karty.
Miałem u siebie najbardziej patologicznego crossfire w historii. Rx570 z rdzeniem od RX 480 z wgranym biosem od RX 580 w crossfire z RX 470 z biosem od RX 570. W metro 2033 redux była totalna petarda
Miałem jakiś czas SLI na GTX 1070TI, dokupiłem drugą kartę zamiast robić upgrade do 20xx, bo tak wychodziło bardziej opłacalnie. Było z tym trochę zabawy, niektóre gry wymagały ręcznego grzebania w profilach, ale ostatecznie działało sporo tytułów, przede wszystkim Tomb Raidery, RDR2 i Wiedźmin 3. Wg mnie największym problemem tej technologii było właśnie kiepskie wsparcie twórców gier, choć te kilka lat temu było całkiem przyzwoicie. Finansowo takie konfiguracje na używanych kartach mogły być całkiem opłacalne. Wtedy też karty nie był aż tak wielkie i dał się to zmieścić i nie zagotować, co przy serii 4000 mogłoby być już niemożliwe (po 4 sloty na kartę + jakiś prześwit). Wg mnie śmierć SLI nastąpił właśnie w serii 3000, gdzie mieliśmy do dyspozycji tylko drogą kartę 3090, a wsparcie nowych gier już nie istniało. Szkoda też, że SLI nie obsługiwało nigdy VR, a w tym zastosowaniu byłoby bardzo przydatne, bo karty są na to zwyczajnie zbyt słabe. A co do renderingu, to takie wykorzystanie nie ma nic wspólnego z SLI - karty np w blenderze działają zupełnie niezależnie, renderują osobne fragmenty obrazu i dlatego nie jest wymagane żadne wsparcie SLI, łączenie kart, ani żadna komunikacja między nimi. Po prostu processor zleca każdej karcie inne zadania.
Widziałem takie testy już jakiś czas temu, przed premierą 4090 także mem w miniaturce nvidia sli i będę grał w grę "Tomb Rider" by wystarczyło. Reszta brzmi jakbyście się przechwalali wiedzą na temat nowinek, którą większość zna x)
a co myslicie powiedzieci cos o sund blasterach cartach creative widaci ze urzywaliswcie takisch lepszych modeli ?co mają i co dają nowego czy do fps tesz cos dają i jak z dzwiekiem 3d 5.1 i tak dalej? pozdrawiam
4:58 mogliście dopowiedzieć, ze jeżeli chodzi o zastosowania profesjonalne, to nawet nie sama technologia, no bo przy renderingu 3D nie potrzeba kart łączyć więc żadna technologia w zasadzie potrzebna nie jest.
gra jaka sli wsplera jest ,,witcher3,, 2x tyle fps , ja od lat uzywal tylko sli do grania ale tilke AIO kart, jest w polsce jausch dostempna iGAME RTX 4090 neptun 630watt ?
A wiecie może czy sli działało przy kopaniu krypto walut bo swego czasu mnie korciło by dokupić z góry dzięki za podpowiedź bo nie wiem pozdrawiam serdecznie
Sli nie do końca musi być martwe, można by opracować układ do wspomagania np. RT w grach i grając normalnie na GPU i odpalając RT mamy 50% klatek, ale jak dokupimy akcelerator RT to po odpaleniu RT nic nie tracimy na wydajności, można dać tam też wspomagacz DLSS itp.
Testowanie sli/nvlink/crossfire na procesorach i płytach gł. gdzie wykorzystujemy pci-e 3/4gen ale na dwie grafiki mamy przepustowość x8 jest bez sensu ... Polecam zrobić test na LGA2066 ? ja testowałem (i9 7960x) i była różnica w wydajności nawet w wymuszonym renderowaniu na dwie grafiki. Polecam poprawić test na czymś co wspiera dwie grafiki na pci-e x16
No tylko że platforma HEDT też jest już dead, Intel nie robi od lat nowych procków z tej serii. To też wielka szkoda, że właściwie nie da się obecnie złożyć komputera ze wsparciem większej ilości linii PCIE niż "na jedną kartę i coś małego". Niemniej jednak, 8x vs 16x nie zmienia aż tak dużo, są testy pokazujące, że to max kilka %. Za to myślę, że starszy procesor, nawet ze wsparciem 2x x16 będzie dawał bottleneck.
ostatnie grafiki jakie testowałem w nvlink to były rtx 2080, oraz rtx 2080ti , procesor się nudził. do dziś w nawet nowych grach mam problem zmęczyć tego potworka :P
Miałem swego czasu zamontowane dwa GTX 970 w SLI. Obie karty od MSI Gaming 4G wyglądało to kozacko. Działało w zależności od gry raz dobrze a raz nie. Niestety jedna karta padła i kupiłem jedną mocną kartę RTXa 3070 Asus Dual. Procesor jaki posiadam to E5-2678v3 na płycie Huananzhi X99-TF wraz ze 128 GB RAM DDR3 ECC.
Forza mnie nie dziwi, bo gra od MS. A MS klepie kod pierw na Konsole gdzie Jest AMD + AMD. Temu standardy Nvidii są nie obsługiwane. Może spróbować standardy Radeona?
Kiedyś kompletowałem sprzęt z myślą o SLI. Na przykład w 2008 kupiłem GTX 9800 GT a do tego płytę główną obsługującą SLI. Po kilku latach dokupiłem drugą sztukę 9800 GT za stosunkowo małą cenę na allegro. Pamiętam że Far Cry 3 po tej zmianie zaczął mi mega płynnie chodzić. Teraz nie mamy SLI ale za to płacimy za jedną kartę więcej niż kiedyś za dwie ;)
duże chłodzenie na kartach graficznych było instalowane w fabrykach bo produkowali gorszą jakość uszkodzone części dlatego zmienią chłodzenie na mniejsze wydajniejsze wtedy nvidia sli albo amd crossfirex będzie opłacało się zainwestować do 2040 roku
Właśnie zbieram elementy do 1080ti w SLI, widziałem że jest porównywalnie z 3080 co przy obecnych cenach 1080ti wydaje się być spoko budżetowym rozwiązaniem 😁
Szkoda że już nie podtrzymują tej technologii :-/ . Pamiętam że kiedyś można było łączyć kartę NVIDIA z RADEONEM, tylko nie pamiętam na czym to polegało.
Ja się rok temu zdecydowałem na SLI dwóch RTX 2070 Super z dwóch względów: było taniej niż 3090TI (wtedy 12 000 pln potrafiła kosztować), a konfiguracja SLI w grach które mnie interesowały zapewniała taką samą wydajność. Drugi za to powód to taki sam jak na filmie, zbudować behemota do gier w 4k 120hz (w dużej mierze właśnie do gier między 2010 a 2020 - ponieważ musze ponarabiać gry)
Do tej pory posiadam u siebie w kompie 2 x EVGA GTX 1070 TI HYBRID, nie ma mowy o przegrzewaniu się górnej karty , na obu temperatura nigdy nie przekroczyła 60 stopni. Wygląda kozacko ale i działa w wielu grach na obu kartach .
Jeszcze 2 miesiące temu miałem dwa GTX970 spięte w SLI i dawało wyraźny przyrost w Wieśku 3 😀 jak się trochę pobawić w Nvidia Inspektorze to nawet Metro Exodus dało radę w SLI odpalić i kilkanaście fpsów dawało :D
6800XT nie obsługuje Crossfire (SLI tym bardziej ale zakładam przejęzyczenie) bo nigdy nie napisano takich sterowników. Support Crossfire został porzucony dawno temu. Dziwne było zatem kupowanie tych kart do tego celu. SLI również nie jest już supportowane i żaden profil do nowej gry już się nie pojawił się od roku i już się nie pojawi. W ogóle niepotrzebnie pomieszaliście 4 technologie i API: SLI, Crossfire, natywne D3D12 i Vulkan i w efekcie całość nie ma sensu. 3D Mark i Tomb Radier to nie jest SLI tylko D3D12. Trzeba było dać więcej gier gdzie łączenie kart działa natywnie np.: Civilization VI, Sniper Elite 4, Gears of War 4, Ashes of the Singularity, Strange Brigade, Zombie Army 4: Dead War, Hitman, Deus Ex: Mankind Divided, Battlefield 1, Halo Wars 2.
W tego typu otwartych test benchach powinniście podpinać choćby jeden wentylator kierowany (żeby odwzorować pracę w normalnym systemie) - podobnie jak to robi LTT. W dobrej obudowie (zakładam, że 3090 sli nikt nie robi w chińczyku za 80zł z 1 wentylatorem) karty nie będą się "gotować" jeżeli przepływ powietrza będzie dobrze ogarnięty.
U mnie na 2 GTX970 MSI 100ME Wiedźmin bardzo ładnie się skalował. W grach gdzie nie odpalała się 2 karta, chwilę bawiłem się ustawieniami w sterownikach i lepiej/gorzej, ale prawie zawsze hulały obie no i wygląd był przekozacki
@moreleTV: 1 -mostki od rtx6000 pasują i działają (sprawdzono organoleptycznie xD) 2-niektóre gry wykrywają jedną kartę z 48GB :o - wydajność się zgadza => + 50%~60% vs pojedyncza karta 3- ilość dostarczonych linii pci po 16 na slot (3960x) edit: 4-przy sli/nvlin wersja DX ma znaczenie. Sporo gier na sli lepiej biega na 11-stce..
Trochę mi brak tego cudactwa.. MIałem 9800GX2 i jakiegoś radeona już nie pamiętam czy 3xxx czy 4xxx Ale AMD chyba mocno softwarowo to rozwiązuje. I z tym ich Infinite itp mogli by pociągnąć dalej tą technologię w przypadku konsumenckich. I fajnie jak by AMD to tak napisało żeby to działało sprawnie bez względu na grę czy program. Zwłaszcza że jesteśmy na granicy technologicznej.. Już mocno dalej nie pociągniemy miniaturyzacji ze względów czysto fizycznych
Sli zawsze powinno być uruchamianie na 2 kartach od tego samego producenta o tych samych kościach, inaczej liczę i unpredictable behaviour can be expected ✌️
obsługa trybu sli to kwestia optymalizacji sterowników i gier komputerowych łatwo naprawić błędy w oprogramowaniu dlatego dwie stare karty graficzne opłaca się kupić połączone w jednym komputerze nawet z procesorem intel core i7 980X
SLi to tylko chlodzenie wodne , ja w 2012 kiedy budowalem PC to wlasnie kupilem PC z mysla o crossfire kupilem Asusa F1A55 z HD7770 + 8gb ram bo sobie wymarzylem ze kiedys dokupie 8gb ram i 7770 i bede miec wypasionego compa , ale po drodze przyszlo kilka problemow , ja wybralem FM1 bo chcialem przewidziec przyszlosc , ale AMD mialo inne plany i porzucilo FM1 , a procka to mialem Athlona 2 x4 651k = mozna go bylo podkrecac , ale sam pomysl byl tragiczny , dlatego ze procek podkrecal sie tak sobie i praktycznie nie bylo duzo mocniejszego do "upgrate" , mialem zasilacz 500w ktory by nie starczyl , a 3 lata pozniej 7870 byly tanie a 7770 niewarte swojej ceny , wiec caly eksperyment mnie kosztowal , bo moglem zamiast tego wziasc i3 i kilka lat pozniej wymienic na i5 2500k lub i7 2600k , i odrazu brac 7850 zamiast kupy wentylatorow ... zachcialo mi sie byc wizjonerem -_-
Wydaje mi sie, ze tylko najwyzsza polka ma to SLI, zeby jak najbardziej zredukowac koszty produkcji kart z nizszych segmentow cenowych. Zeby mogly byc wycenione jeszcze bardziej atrakcyjnie dla konsumenta. I teraz przychodzi mi do glowy taka mysl: co gdyby tak przywrocic SLI do wszystkich segmentow cenowo-wydajnosciowych? Niech zwykle RTXy nie maja SLI, a wersje ti, odpowiednio drozsze, juz tak. Te zwykle bez SLI bylyby na pewno popularniejsze, ale bylby wybor. Chetnie sam bym sklecil cos takiego jak 2x3060ti gddr6x. Ale jak to ze wszystkim innym bywa, pewnie chodzi tutaj o kase. Pewnie nvidia przy kazdej generacji kart utwierdzala sie coraz bardziej w przekonaniu, ze te cale laczenie kart nie oplaca sie ani troche. Podejrzewam ze tworcy gier tez dorzucili tutaj swoje 5 groszy. Scisla i niezbedna wspopraca jednych z drugimi moze rowniez wywierac bezposredni wplyw na odejscie od tej technologii. Producentom gier nie oplaca sie optymalizowac ich pod katem SLI, nvidia stwierdza ze im tez sie ta zabawa nie oplaca (albo tak im sie przynajmniej moze wydawac, mi sie za to wydaje ze nie sprobowali zrobic np. tak jak pisalem wyzej, i na dodatek wydaje mi sie tez, ze dopoki nie sprobuja to sie nie dowiedza czy rzeczywiscie tak jest). A szkoda! Kiedys mi sie marzylo takie sli z dwoch 1070 gaming x...
dwie karty graficzne geforce gtx titan X w trybie sli są wystarczające do nowych gier komputerowych w rozdzielczości 4k 1440x1440 teraz wam głupio że polacy będą używać najlepszych kart graficznych zaprojektowanych dla pracowników korporacyjnych w 2010 roku myśleliście że nikt nie sprzeda takich kart graficznych w polsce
Po prostu, winą kulawego działania jest oprogramowanie, tyle w temacie. Korporacje produkujące gry powinny zadbać o to aby ich oprogramowanie ruszyło na każdym PC. Takie moje zdanie :)
Jako swego rodzaju "pamiątkę" po czasach SLI planuję złożyć konfigurację z 3x GTX 280 lub 2x GTX 295 na LGA 775 :D Wiem, że bez sensu ale będzie fajnie wyglądać.
Od dłuższego czasu tak wygląda,że łączenie kart w postaci SLI/Crossfire praktycznie jest pozbawione sensu. Nic dziwnego,że SLI ostatecznie zaliczyło zgon
Miałem a powiem inaczej nadal mam gtx480 3 karty i połączone były 3 FTW na wodzie więc nie było przegrzewania , nie było tytułów które by wymagały 3 karty to się rozłączyły na 2 komputery i SLI używałem dwóch kart . Sprawne do dzisiaj . Zawsze w SLI mieli problemy właśnie ludzie na słabych płytach na których nigdy nie odpaliłem SLI pierwsze sli miałem na 1366s. Osobiście i do dzisiaj działam na płytach 2011 z rtx3060 i 2011-3 z 2080super , a jest komputer stoi i czeka na serie 40 z płytą 2066s , nie używam słabych elektrycznie płyt głównych i nie mam problemów .
zle to zostalo zaprojektowane to sterownik graficzny powinien byc optymalizowany tak aby 2 karty dzialaly jak 1, wtedy zadna przeszkoda ze gry musza byc optymalizowane.
taaaak,ze dwadziescia lata temu kolega mial sli z dwoch voodoo 2,razem z pentiumem 350,sporo to wtedy kosztowalo.Jedna karte mi odsprzedal i smigalo to wtedy z amd k2 350mhz-swietny to by zestaw-ale wtedy gry dostaly kopa,Shogo-to byla gra.Ja jakos zawsze unikalem sli-zawsze kupowalem najmocniejsza karte jednordzeniowa i generalnie nie potrzebowalem nic wiecej,kart dwurdzeniowych tez uniknalem-inna sprawa ze zawsze byly koszmarnie drogie i czesto problematyczne.Coz,osobiscie za sli tesknic nie bede.
Wycofali SLI bo przeszkadzał w biznesie. To by wyszło że kupując np 2x rtx 4080 byśmy mieli lepszą wydajność niż w rtx 4090 za mniejszą cenę. A teraz to można cyk 10k pln za top end gpu i klient nie pokombinuje :-)
Ten uczuć kiedy jesteś biedny. Zmieniłeś GTXa 1050 ti 4 GB na 1660 Super 6 GB i się cieszysz, że dałeś kafla i masz Ultra w Full HD a RT traktujesz jak fajerwerk który ciągnie jak tańsza farelka albo opiekacz do kanapek :V
👍 Subskrybuj moreleTV ➡ morele.tv/subskrybuj
🛒 Platforma testowa ➡ morele.tv/3izhAg9
⚠ A tu znajdziecie najnowsze promocje na Morele ➡ morele.tv/3UWXYAq
Skoro wyszliśmy już z możliwości tworzenia komputera z dwoma kartami graficznymi to po co promować wielkie płyty ATX skoro i tak nie korzystamy z 1/3 płyty głównej.
Myślę, że standardem powinna być płyta mATX i obudowa z 4 slotami co zupełnie wystarczy do skomponowania fajnego komputera.
A te wielkie ATX i obudowy TOWER wyślijmy w zapomnienie.
A czy obniżyliście zegary i power limit GPU??
Warto by wspomnieć o Lucid Hydra. Z tego co pamiętam MSI się najbardziej w to wkręciło. Chyba w płytach BigBang?
Ile linii PCI obsługuje procesor, a ile jest przydzielane na gniazdo kiedy są włożone dwie karty?
Szkoda, że wszyscy zapomnieli o technologii którą wprowadziło DX 12 - łączenie różnych modeli kart różnych producentów. Świat byłby piękniejszy gdyby to było implementowane w grach.
No właśnie miałem pytać, czy ktoś pamięta o tych obietnicach. 🤣
@Wojciech Sawicki Tak, masz rację. Pamięć vram nie miała być współdzielona z jednej karty na wszystkie. Obraz miał być dzielony na małe kawałki i robota do wyrenderowania każdego z nich miała być dzielona na dostępne karty. W praktyce to każdy procesor graficzny miał w sumie niższe zużycie vram, bo nie renderowal całości a tylko swoją część.
Niestety nie ujrzymy takiego rozwiązania choćby z uwagi na patentowanie przez Nvidie swoich technologii. Ludzie braliby najmocniejsze RX dla surowej mocy obliczeniowej oraz do tego najsłabszego rtxa, aby tylko móc odpalić dlss. Nvidia jest zbyt chciwa i też z tego względu nie uda się już takie łączenie zasobów.
Pokazane tutaj 3D Mark i Shadow of the Tomb Raider korzystają z tej technologii. Można było wyjąć mostek SLI i nie miałoby to wpływu na wyniki.
ua-cam.com/video/PBC6IpVjezY/v-deo.html to co prawda na dx11
Albo użycie dedykowanej + integra.
Od dawna twórcy gier już nie wspierają sli/crossfire bo bardzo mało osób sie na to decydowało wiec po co optymalizacja sterowników dla garstki użytkowników.
Gdyby ilosc wspieranych gier przez lata rosla zamiast malec, to kto wie czy dzisiaj takie konfiguracje jak 2x3060 nie bylyby czestsze od pojedynczej 3070? Na pewno malo kto w to inwestowal bo nawet w momencie najlepszego wsparcia dla SLI lista gier i tak byla za mala. Kiedys za czasow pascali czytalem sporo o tym i bardzo duzo osob odradzalo SLI 1070 na rzecz pojedynczego gtxa 1080 / 1080ti wlasnie ze wzgledu na mala ilosc gier wspierajacych SLI. Pisali mniej wiecej tak: Po co bawic sie w duze zuzycie pradu, problemy ze stabilnoscia i denerwowac sie ze nie w wielu tytulach w ogole tego nie wykorzystamy? Gdyby zamiast zabijac ta technologie (ograniczenie tylko dla 2080ti itd.) inwestowano w to jeszcze wiecej pieniedzy (lepsza stabilnosc, dluzsza lista gier z obsluga) to dzisiaj prawdopodobnie bysmy mieli fajny bajer na rynku. Zamiast tego mamy jakis mocno przehypowany raytracing xD
@@imladris8992 "Kiedyś za czasów Pascali..." Nie obrażaj mojej karty GTX 1070 8GB VRAM... Cały czas mam ją w komputerze i jest szybsza od 1660 Super/Ti... 😏
Z tym Wiedźminem 3 jest ciekawy przypadek, bo z tego co pamiętam to zarówno CrossFire na np. Fury X, czy SLI na np. 980 działały dobrze, obciążając mniej więcej po równo obie karty.
Być może gra ma na sztywno zakodowane modele kart na których włącza SLI - też nas to zaskoczyło
Wersja odświeżona może poprawi problem.
Wiedźmin 3 nawet na 4 Way działa rewelacyjnie
Miałem u siebie najbardziej patologicznego crossfire w historii. Rx570 z rdzeniem od RX 480 z wgranym biosem od RX 580 w crossfire z RX 470 z biosem od RX 570. W metro 2033 redux była totalna petarda
Miałem jakiś czas SLI na GTX 1070TI, dokupiłem drugą kartę zamiast robić upgrade do 20xx, bo tak wychodziło bardziej opłacalnie. Było z tym trochę zabawy, niektóre gry wymagały ręcznego grzebania w profilach, ale ostatecznie działało sporo tytułów, przede wszystkim Tomb Raidery, RDR2 i Wiedźmin 3. Wg mnie największym problemem tej technologii było właśnie kiepskie wsparcie twórców gier, choć te kilka lat temu było całkiem przyzwoicie. Finansowo takie konfiguracje na używanych kartach mogły być całkiem opłacalne. Wtedy też karty nie był aż tak wielkie i dał się to zmieścić i nie zagotować, co przy serii 4000 mogłoby być już niemożliwe (po 4 sloty na kartę + jakiś prześwit). Wg mnie śmierć SLI nastąpił właśnie w serii 3000, gdzie mieliśmy do dyspozycji tylko drogą kartę 3090, a wsparcie nowych gier już nie istniało. Szkoda też, że SLI nie obsługiwało nigdy VR, a w tym zastosowaniu byłoby bardzo przydatne, bo karty są na to zwyczajnie zbyt słabe.
A co do renderingu, to takie wykorzystanie nie ma nic wspólnego z SLI - karty np w blenderze działają zupełnie niezależnie, renderują osobne fragmenty obrazu i dlatego nie jest wymagane żadne wsparcie SLI, łączenie kart, ani żadna komunikacja między nimi. Po prostu processor zleca każdej karcie inne zadania.
Jakim programem sprawdzacie FPS? Chodzi mi o to okno w lewym, gornym rogu. Pozdrawiam
CapFrameX
@@ZMASLO Dzieki. P.S. Kolejny fajny material
Miałem u siebie w pierwszym komputerze kartę S3 Virge + Voodo :) pięknie to śmigało i dawało potwornego kopa w tamtych czasach :)
to się ma nijak do SLI .
@@EkoKolo_Katowice nie pisałem o sli ale o 3dfxie
@@MBFeniks pamiętam przeskok w nfs3
s3trio + v1, które spaliłem przy pierwszej w zyciu probie oc gdzies w 2000', to byly czasy
Widziałem takie testy już jakiś czas temu, przed premierą 4090 także mem w miniaturce nvidia sli i będę grał w grę "Tomb Rider" by wystarczyło. Reszta brzmi jakbyście się przechwalali wiedzą na temat nowinek, którą większość zna x)
a co myslicie powiedzieci cos o sund blasterach cartach creative widaci ze urzywaliswcie takisch lepszych modeli ?co mają i co dają nowego czy do fps tesz cos dają i jak z dzwiekiem 3d 5.1 i tak dalej? pozdrawiam
Ty zamiast sound blastera to sobie słownik kup
Pozatym, jak karta dźwiękowa ma ci dawać więcej fps xD
No normalnie kiedyś tak było i dziś pewno tesz bo pobiera moc z CPU.muzyka z integrowana?
Czy w balx magic studio ma zastosowanie układ z dwoma grafikami?
jak już macie ten mostek to sprawdzilibyście to na tańszych modelach typu 1030,1050 ewentualnie crossfire rx 550 , rx 6400 ??
To o grach powinno być 30sek a nie o blenderze, tymbardziej, ze to zastosowanie działa. Jak się mają do tego inne programy do tworzenia 3d ?
4:58 mogliście dopowiedzieć, ze jeżeli chodzi o zastosowania profesjonalne, to nawet nie sama technologia, no bo przy renderingu 3D nie potrzeba kart łączyć więc żadna technologia w zasadzie potrzebna nie jest.
Jest powiedziane w 12:36 😉
@@ZMASLO jest powiedziane, obejrzałem cały odcinek, chciałem nawet usunąć koment, ale mówię jak już napisałem, to niech zostanie ;)
gra jaka sli wsplera jest ,,witcher3,, 2x tyle fps , ja od lat uzywal tylko sli do grania ale tilke AIO kart, jest w polsce jausch dostempna iGAME RTX 4090 neptun 630watt ?
A wiecie może czy sli działało przy kopaniu krypto walut bo swego czasu mnie korciło by dokupić z góry dzięki za podpowiedź bo nie wiem pozdrawiam serdecznie
Sli nie do końca musi być martwe, można by opracować układ do wspomagania np. RT w grach i grając normalnie na GPU i odpalając RT mamy 50% klatek, ale jak dokupimy akcelerator RT to po odpaleniu RT nic nie tracimy na wydajności, można dać tam też wspomagacz DLSS itp.
Miałem Ati Mach64 + Voodoo 1 później, ATI Rage2c + Voodoo 2 12MB, to były czasy. Zaraz będzie 30fps na RTX 4090 w 4K z RT w Wieśku 3 Next Gen. 😆
Fajne filmy robicie, nie zmieniajcie się. Lubię was oglądać, bo chyba jako jedyni robicie niezależne testy, tak jak się powinno.
mozna bylo łaczyć na przykład gtx 1060 6 gb i 1060 wersja 3 gb ,lub rx 580 8gb i rx 580 4 gb ??
0:17 w tym momencie narodził się Veku
Testowanie sli/nvlink/crossfire na procesorach i płytach gł. gdzie wykorzystujemy pci-e 3/4gen ale na dwie grafiki mamy przepustowość x8 jest bez sensu ... Polecam zrobić test na LGA2066 ? ja testowałem (i9 7960x) i była różnica w wydajności nawet w wymuszonym renderowaniu na dwie grafiki. Polecam poprawić test na czymś co wspiera dwie grafiki na pci-e x16
Wydaje mi się że ma to większy sens , prof. płyta gł. oraz procesor pod prof.konfigurację kart graficznych (nvlink/crossfire)
No tylko że platforma HEDT też jest już dead, Intel nie robi od lat nowych procków z tej serii. To też wielka szkoda, że właściwie nie da się obecnie złożyć komputera ze wsparciem większej ilości linii PCIE niż "na jedną kartę i coś małego". Niemniej jednak, 8x vs 16x nie zmienia aż tak dużo, są testy pokazujące, że to max kilka %. Za to myślę, że starszy procesor, nawet ze wsparciem 2x x16 będzie dawał bottleneck.
ostatnie grafiki jakie testowałem w nvlink to były rtx 2080, oraz rtx 2080ti , procesor się nudził. do dziś w nawet nowych grach mam problem zmęczyć tego potworka :P
Miałem swego czasu zamontowane dwa GTX 970 w SLI. Obie karty od MSI Gaming 4G wyglądało to kozacko. Działało w zależności od gry raz dobrze a raz nie. Niestety jedna karta padła i kupiłem jedną mocną kartę RTXa 3070 Asus Dual. Procesor jaki posiadam to E5-2678v3 na płycie Huananzhi X99-TF wraz ze 128 GB RAM DDR3 ECC.
Vodoo 3DFX to było coś miałem piękne czasy pozdrawiam
Forza mnie nie dziwi, bo gra od MS.
A MS klepie kod pierw na Konsole gdzie Jest AMD + AMD. Temu standardy Nvidii są nie obsługiwane.
Może spróbować standardy Radeona?
Kiedyś kompletowałem sprzęt z myślą o SLI. Na przykład w 2008 kupiłem GTX 9800 GT a do tego płytę główną obsługującą SLI. Po kilku latach dokupiłem drugą sztukę 9800 GT za stosunkowo małą cenę na allegro. Pamiętam że Far Cry 3 po tej zmianie zaczął mi mega płynnie chodzić.
Teraz nie mamy SLI ale za to płacimy za jedną kartę więcej niż kiedyś za dwie ;)
Gdy przewijasz do momentu 12:35, a tam zaczyna migać XDDD
Ja miałem 8800 GT pamiętam że faktycznie wzrost mocy po dołożeniu 2 karty był rozczarowujacy
a jak już działa ok ,to czy nie występuja crashe i blue screeny po dluzszym czasie gry ?
U mnie nic takiego nie było. Jedynie na początku miałem mikroprzycięcia, a potem po drobnej zabawie sterownikami wszystko działało tak jak trzeba
duże chłodzenie na kartach graficznych było instalowane w fabrykach bo produkowali gorszą jakość uszkodzone części dlatego zmienią chłodzenie na mniejsze wydajniejsze wtedy nvidia sli albo amd crossfirex będzie opłacało się zainwestować do 2040 roku
Właśnie zbieram elementy do 1080ti w SLI, widziałem że jest porównywalnie z 3080 co przy obecnych cenach 1080ti wydaje się być spoko budżetowym rozwiązaniem 😁
Szkoda że już nie podtrzymują tej technologii :-/ . Pamiętam że kiedyś można było łączyć kartę NVIDIA z RADEONEM, tylko nie pamiętam na czym to polegało.
Z tego co pamiętam to chyba chodziło o PhysX
Ja się rok temu zdecydowałem na SLI dwóch RTX 2070 Super z dwóch względów: było taniej niż 3090TI (wtedy 12 000 pln potrafiła kosztować), a konfiguracja SLI w grach które mnie interesowały zapewniała taką samą wydajność. Drugi za to powód to taki sam jak na filmie, zbudować behemota do gier w 4k 120hz (w dużej mierze właśnie do gier między 2010 a 2020 - ponieważ musze ponarabiać gry)
Chyba RTX 2070 Super bo nie było wersji Ti
@@Gabriel-bt6er Racja, jakiegoś Laga mózgu musiałem dostać. Dzięki, wyedytowane.
Moje ostatni SLI to było 3x GTX 1080Ti ,w kilku zaledwie grach było w miarę ok ale już wtedy były problemy ze wsparciem .
Można jeszcze zawsze się bawić NVidia Profile Inspectorem i wymusić co nieco :)
Voodoo 1, 2 i 3000 miałem. Cholercia na 1dynce to już był szał pał. Nostalgia.😆🤣😍
Miałem swego czasu laptopa z SLI 😃 Druga karta była zamiast napędu plyt
2x hd 5850 kiedyś miałem. Cudowny grzejnik :)
można było łączyć dwa rózne gpu np 1050 ti z gtx 1060 lub rx 580 z 570 ?
nie
Czesto jest tak, że mimo braku wsparcia sli przez producentow to moderzy i tak tworza customowe profile sli poprzez nvidie inspector
Do tej pory posiadam u siebie w kompie 2 x EVGA GTX 1070 TI HYBRID, nie ma mowy o przegrzewaniu się górnej karty , na obu temperatura nigdy nie przekroczyła 60 stopni.
Wygląda kozacko ale i działa w wielu grach na obu kartach .
pojedyncza 3070ti ma teraz większą wydajność, a zre znaczniej mniej pradu, juz nie mowiac o braku wsparcia dla niejednej gry
Już na samym starcie mi się spodobało nawiązanie do Dragon Ball więc dałem łąpkę w górę i ogłądam dalej :D
Msi GT83Vr 7RE z 2x GTX 1070 w sli . solidny sprzet pomimo uplywu czasu :) pozdrawiam
DJ Sli, DJ Zmaslo, DJ MoreleTV
Jeszcze 2 miesiące temu miałem dwa GTX970 spięte w SLI i dawało wyraźny przyrost w Wieśku 3 😀 jak się trochę pobawić w Nvidia Inspektorze to nawet Metro Exodus dało radę w SLI odpalić i kilkanaście fpsów dawało :D
Za fuzję obowiązkowa łapka w górę :) pozdrawiam!
pozdro :D
Pamiętam w 2007 roku, gdzieś testowani sli na gt 7300 na crysis dawało radę.
Lipton, Masło i Ziemniak powinni razem kanał prowadzić pod nazwą Spożywczak
Miałem kiedyś SLI z N470GTX Twin Frozr II. Ale to fajnie wyglądało.
Ja mam Alienware M17x z GT280m w SLI fabrycznie.
Wspaniały odkurzacz
Zmaslo kiedy odcinek z gotowania jajka? 😂🤣😅😂😄 09:06
6800XT nie obsługuje Crossfire (SLI tym bardziej ale zakładam przejęzyczenie) bo nigdy nie napisano takich sterowników. Support Crossfire został porzucony dawno temu. Dziwne było zatem kupowanie tych kart do tego celu. SLI również nie jest już supportowane i żaden profil do nowej gry już się nie pojawił się od roku i już się nie pojawi. W ogóle niepotrzebnie pomieszaliście 4 technologie i API: SLI, Crossfire, natywne D3D12 i Vulkan i w efekcie całość nie ma sensu. 3D Mark i Tomb Radier to nie jest SLI tylko D3D12. Trzeba było dać więcej gier gdzie łączenie kart działa natywnie np.: Civilization VI, Sniper Elite 4, Gears of War 4, Ashes of the Singularity, Strange Brigade, Zombie Army 4: Dead War, Hitman, Deus Ex: Mankind Divided, Battlefield 1, Halo Wars 2.
Jak łączycie siły powstają filmy których nikt się nie spodziewał a każdy potrzebował! S u p e r
stowrzyłeś rtx 6180
Dobre XD
do tego potrzeba specjalna płyta główna
W tego typu otwartych test benchach powinniście podpinać choćby jeden wentylator kierowany (żeby odwzorować pracę w normalnym systemie) - podobnie jak to robi LTT. W dobrej obudowie (zakładam, że 3090 sli nikt nie robi w chińczyku za 80zł z 1 wentylatorem) karty nie będą się "gotować" jeżeli przepływ powietrza będzie dobrze ogarnięty.
U mnie na 2 GTX970 MSI 100ME Wiedźmin bardzo ładnie się skalował. W grach gdzie nie odpalała się 2 karta, chwilę bawiłem się ustawieniami w sterownikach i lepiej/gorzej, ale prawie zawsze hulały obie no i wygląd był przekozacki
@moreleTV:
1 -mostki od rtx6000 pasują i działają (sprawdzono organoleptycznie xD)
2-niektóre gry wykrywają jedną kartę z 48GB :o - wydajność się zgadza => + 50%~60% vs pojedyncza karta
3- ilość dostarczonych linii pci po 16 na slot (3960x)
edit:
4-przy sli/nvlin wersja DX ma znaczenie. Sporo gier na sli lepiej biega na 11-stce..
Trochę mi brak tego cudactwa.. MIałem 9800GX2 i jakiegoś radeona już nie pamiętam czy 3xxx czy 4xxx
Ale AMD chyba mocno softwarowo to rozwiązuje. I z tym ich Infinite itp mogli by pociągnąć dalej tą technologię w przypadku konsumenckich.
I fajnie jak by AMD to tak napisało żeby to działało sprawnie bez względu na grę czy program.
Zwłaszcza że jesteśmy na granicy technologicznej.. Już mocno dalej nie pociągniemy miniaturyzacji ze względów czysto fizycznych
Super pojedynek
Sli zawsze powinno być uruchamianie na 2 kartach od tego samego producenta o tych samych kościach, inaczej liczę i unpredictable behaviour can be expected ✌️
sterowniki były optymalizowane do 2015 roku dlatego nowe gry komputerowe obsługują starsze generacje kart graficznych w trybie sli albo crossfirex
obsługa trybu sli to kwestia optymalizacji sterowników i gier komputerowych łatwo naprawić błędy w oprogramowaniu dlatego dwie stare karty graficzne opłaca się kupić połączone w jednym komputerze nawet z procesorem intel core i7 980X
Spoko jednostki
Ja nie miałem SLI ale dwurdzeniowego gtx590 tak i to był 2011 rok i już wtedy niektóre gry niewykrywały tego i zamiast 3gb miałem 1,5gb vramu.
Fajnie popatrzec jak normiki biora sie za SLI ;)
To samo pomyślałem, daleko nie musiałem szukać znajomych
SLi to tylko chlodzenie wodne , ja w 2012 kiedy budowalem PC to wlasnie kupilem PC z mysla o crossfire kupilem Asusa F1A55 z HD7770 + 8gb ram bo sobie wymarzylem ze kiedys dokupie 8gb ram i 7770 i bede miec wypasionego compa , ale po drodze przyszlo kilka problemow , ja wybralem FM1 bo chcialem przewidziec przyszlosc , ale AMD mialo inne plany i porzucilo FM1 , a procka to mialem Athlona 2 x4 651k = mozna go bylo podkrecac , ale sam pomysl byl tragiczny , dlatego ze procek podkrecal sie tak sobie i praktycznie nie bylo duzo mocniejszego do "upgrate" , mialem zasilacz 500w ktory by nie starczyl , a 3 lata pozniej 7870 byly tanie a 7770 niewarte swojej ceny , wiec caly eksperyment mnie kosztowal , bo moglem zamiast tego wziasc i3 i kilka lat pozniej wymienic na i5 2500k lub i7 2600k , i odrazu brac 7850 zamiast kupy wentylatorow ... zachcialo mi sie byc wizjonerem -_-
Miałem raz w swoim życiu config SLI a mianowicie było to... W laptopie Lenovo Y510P 2x GT 750M 2GB - nigdy więcej 😆
Już widzę na morele tą płytę jako outlet 🤫🤣😉
ot recenzenci od siedmiu boleści
Wydaje mi sie, ze tylko najwyzsza polka ma to SLI, zeby jak najbardziej zredukowac koszty produkcji kart z nizszych segmentow cenowych. Zeby mogly byc wycenione jeszcze bardziej atrakcyjnie dla konsumenta.
I teraz przychodzi mi do glowy taka mysl: co gdyby tak przywrocic SLI do wszystkich segmentow cenowo-wydajnosciowych? Niech zwykle RTXy nie maja SLI, a wersje ti, odpowiednio drozsze, juz tak. Te zwykle bez SLI bylyby na pewno popularniejsze, ale bylby wybor. Chetnie sam bym sklecil cos takiego jak 2x3060ti gddr6x.
Ale jak to ze wszystkim innym bywa, pewnie chodzi tutaj o kase. Pewnie nvidia przy kazdej generacji kart utwierdzala sie coraz bardziej w przekonaniu, ze te cale laczenie kart nie oplaca sie ani troche.
Podejrzewam ze tworcy gier tez dorzucili tutaj swoje 5 groszy. Scisla i niezbedna wspopraca jednych z drugimi moze rowniez wywierac bezposredni wplyw na odejscie od tej technologii. Producentom gier nie oplaca sie optymalizowac ich pod katem SLI, nvidia stwierdza ze im tez sie ta zabawa nie oplaca (albo tak im sie przynajmniej moze wydawac, mi sie za to wydaje ze nie sprobowali zrobic np. tak jak pisalem wyzej, i na dodatek wydaje mi sie tez, ze dopoki nie sprobuja to sie nie dowiedza czy rzeczywiscie tak jest). A szkoda!
Kiedys mi sie marzylo takie sli z dwoch 1070 gaming x...
dwie karty graficzne geforce gtx titan X w trybie sli są wystarczające do nowych gier komputerowych w rozdzielczości 4k 1440x1440 teraz wam głupio że polacy będą używać najlepszych kart graficznych zaprojektowanych dla pracowników korporacyjnych w 2010 roku myśleliście że nikt nie sprzeda takich kart graficznych w polsce
Po prostu, winą kulawego działania jest oprogramowanie, tyle w temacie. Korporacje produkujące gry powinny zadbać o to aby ich oprogramowanie ruszyło na każdym PC. Takie moje zdanie :)
..jeszcze przyjdzie czas na takie (nowocześniejsze ) rozwiązania
W sli też można było ubić tak łatwo karte jak w cf? 🤣
Jako swego rodzaju "pamiątkę" po czasach SLI planuję złożyć konfigurację z 3x GTX 280 lub 2x GTX 295 na LGA 775 :D Wiem, że bez sensu ale będzie fajnie wyglądać.
Call of Duty World at War wspiera SLI można tam sprawdzić.
try quadrant rendering with 4x gpu 3090
12:18 a co to takiego "miagących" ?? Migoczących powinno być :P
Miałem kiedyś 2x hd5770 było odczuwalne ale szału nie robiło
a jakie koszty? i czy bluescreeny i resty i błedy były jakieś częste?
Technologia skończyła prawie jak 3dfx ;)
Od czasów Voodoo chciałem mieć SLI ale umarła jak okulary 3D i wiele innych rzeczy śmiercią naturalną...
Od dłuższego czasu tak wygląda,że łączenie kart w postaci SLI/Crossfire praktycznie jest pozbawione sensu. Nic dziwnego,że SLI ostatecznie zaliczyło zgon
Miałem a powiem inaczej nadal mam gtx480 3 karty i połączone były 3 FTW na wodzie więc nie było przegrzewania , nie było tytułów które by wymagały 3 karty to się rozłączyły na 2 komputery i SLI używałem dwóch kart . Sprawne do dzisiaj .
Zawsze w SLI mieli problemy właśnie ludzie na słabych płytach na których nigdy nie odpaliłem SLI pierwsze sli miałem na 1366s. Osobiście i do dzisiaj działam na płytach 2011 z rtx3060 i 2011-3 z 2080super , a jest komputer stoi i czeka na serie 40 z płytą 2066s , nie używam słabych elektrycznie płyt głównych i nie mam problemów .
Nie dosłownie, ale dla mnie pierwsze SLI to karta graficzna S3 Virge wsparta acceleratorem Voodoo.
12:33 "Takie cuda" i płynnie przeszliście do tematu CUDA, lol
Zróbcie film OC GPU ale w bios trybie cichym!??
nie mieliscie gtx 690 ? karta do kolekcjonerki ok ale z tym vram niby 3 a tak naprawde 1,5
zle to zostalo zaprojektowane to sterownik graficzny powinien byc optymalizowany tak aby 2 karty dzialaly jak 1, wtedy zadna przeszkoda ze gry musza byc optymalizowane.
Miałem też Voodoo 1 z 6MB ramu, ale wieszły się
Miałem 3dfx Voodoo Jezu ile czasu kasę zbierałem za małolata, później całe podwórko u mnie siedziało przed Mocarnym Kompem ;)
Kamil, Postanowienie noworoczne : schudnę 20kg
2023: Hahahahaha
taaaak,ze dwadziescia lata temu kolega mial sli z dwoch voodoo 2,razem z pentiumem 350,sporo to wtedy kosztowalo.Jedna karte mi odsprzedal i smigalo to wtedy z amd k2 350mhz-swietny to by zestaw-ale wtedy gry dostaly kopa,Shogo-to byla gra.Ja jakos zawsze unikalem sli-zawsze kupowalem najmocniejsza karte jednordzeniowa i generalnie nie potrzebowalem nic wiecej,kart dwurdzeniowych tez uniknalem-inna sprawa ze zawsze byly koszmarnie drogie i czesto problematyczne.Coz,osobiscie za sli tesknic nie bede.
Palce się nie zetknęły a więc fuzja spartolona będzie pewnie ://
;)
Nawiązanie do Dragon Ball Z, instant like XD
Trochę szkoda tych sli/cf chociaż nigdy nie miałem dwóch kart zawsze to była jakaś opcja
Powiem szczerze że pierwsze co pomyślałem po Waszych słowach to "FjuuuuZion HAAA" Gotena i Trunksa 🤪
Nazwa wódu dobrze się kojarzy, szkoda że firma już nie istnieje
Szkoda, że nie odpaliliście Metro Exodus :)
Szkoda, łączenie kart było fajną ścieżką upgradeu
Wycofali SLI bo przeszkadzał w biznesie. To by wyszło że kupując np 2x rtx 4080 byśmy mieli lepszą wydajność niż w rtx 4090 za mniejszą cenę. A teraz to można cyk 10k pln za top end gpu i klient nie pokombinuje :-)
Ten uczuć kiedy jesteś biedny. Zmieniłeś GTXa 1050 ti 4 GB na 1660 Super 6 GB i się cieszysz, że dałeś kafla i masz Ultra w Full HD a RT traktujesz jak fajerwerk który ciągnie jak tańsza farelka albo opiekacz do kanapek :V