Drugi monitor zjada Ci wydajność!

Поділитися
Вставка
  • Опубліковано 3 лип 2024
  • Subskrybuj ➡️ bit.ly/3lK7CYu
    I kliknij 🔔 aby być na bieżąco z filmami.
    Monitor MSI MAG 321CUP ➡️ pl.msi.com/Monitor/MAG-321CUP
    Stanowiska z kilkoma monitorami są, w erze streamingu, youtuba czy grania sieciowego, bardzo popularne. Z chęcią podłączamy dodatkowe ekrany i cieszymy się możliwością monitorowania czatu, oglądania solucji, czy podglądem OBSa, nie zastanawiając się, jaki ma to wpływ na wydajność.
    Dlatego dziś sprawdzimy razem, czy drugi monitor zjada Ci wydajność.
    Materiał powstał we współpracy z firmą MSI.
    0:00 Wprowadzenie
    0:41 Procedura testowa
    2:07 Kilka słów o monitorze MSI MAG 321CUP
    3:55 Wiadomość od ZMASLO
    4:08 Wprowadzenie do testów
    5:13 Test na czterech monitorach
    5:28 Test na jednym monitorze ze wszystkimi programami
    6:10 Test na jednym monitorze z samą grą
    7:29 Druga runda testów w Cyberpunku 2077
    8:59 Czy Linus się mylił?
    10:43 Czy popełniliśmy błąd w założeniach?
    11:28 Podsumowanie wyników na RTXie 4080
    12:09 Testy na RTXie 3060
    12:49 Omówienie wyników
    13:37 Ile monitorów ma ZMASLO?
    #monitor #gaming #pc
    Odwiedź Tek Testers na:
    👍 / tektesters
    📸 / tektesters.pl
    🐦 / tektesters
    🌍 www.tektesters.pl
    📧 Kontakt: info@tektesters.pl
  • Наука та технологія

КОМЕНТАРІ • 154

  • @TekTesters
    @TekTesters  5 днів тому +1

    Subskrybuj ➡ bit.ly/3lK7CYu
    I kliknij 🔔 aby być na bieżąco z filmami.
    Monitor MSI MAG 321CUP ➡ pl.msi.com/Monitor/MAG-321CUP
    Dzięki za oglądanie!
    Pozdro!

    • @Tbnfd3
      @Tbnfd3 5 днів тому

      @TekTesters #TekTesters źle to Testowałeś!
      Monitory należy FIZYCZNIE odłączyć kablem hdmi/dp od karty grafiki.
      Karta nadal widzi monitor wyłączony i przekazuje jakieś dane do monitorów WPIĘTYCH w GPU - mało ważne że je tylko wyłączyłeś z przycisku.
      Test powinien wyglądać następująco:
      1 monitor FIZYCZNIE wpięty po hdmi
      Vs 2 monitory fizycznie wpięte po hdmi
      Vs 4 monitory fizycznie kablem wpięte pod taki sam rodzaj złącz w gpu np 4 hdmi (sądzę że karta grafiki daje największą wydajność specjalnie na DP najpierw jak sie tak ustawi. Ale jak wszystkie będą HDMI i tylko hdmi to my decydujemy że te wyjście-hdmi jest główne a nie np DP gdzie wydajności nie zabierze nam aż tyle dodatkowy monitor podpięty pod słabsze hdmi
      .
      Tak czy siak - taki test to se mozna wsadzić.
      Test MUSI być na zasadzie 1 monitor vs 2 monitory ale fizycznie wpięte kablem i najlepiej pod ten sam typ złącz (napewno jest jakaś starsza grafika z 4 hdmi)
      Każdy podtest ( tj najpierw 1 monitor osobno BEZ WPIĘTYCH pozostałych = gniazda hdmi w gpu puste mają być, potem drugi test 2 monitory, potem 4 monitory)
      powinien być przeprowadzony na fizycznie podpiętych/odpiętych do/od GPU przez kabel/przewód a nie "tylko wyłącze z guzika na monitorze"🤦🤦🤦
      Grafika będzie sie skupiać tak jakby na jednym monitorze w pierwszym teście, potem rozdzielać moc na 2 monitory, a potem w 3cim tescie na 4 monitory hdmi albo 4 monitory dp.
      Wyłączenie monitora przyciskiem power na monitorze NIE ma wg mnie żadnego wpływu na to ile "napoci sie gpu" bo nadal gpu bedzie wysyłać musiało dane do monitora wyłączonego tak samo jak do włączonego. Przesył danych po kablu hdmi nadal będzie...
      To tak jakby wyłączyć tylko monitor pc albo ekran telefonu w czasie przesyłu plików (backupowania np) z telefonu na komputer poprzez usb kabelek... Usb nadal będzie pracować

    • @HUBSOON47
      @HUBSOON47 5 днів тому

      wcięcie z @zmaslo bezcenne!

  • @azariash
    @azariash 5 днів тому +72

    Trochę nie żetelny test... bo monitory są podłączone i zamykają obwód na porcie. Powinny zostać odłączone, aby zwolnić port i aby urządzenie zostało całkowicie odłączone od sprzętu. Dwa inny wynik otrzymasz jak zmienisz na jednym na pełny ekran (bez opcji w oknie)

    • @Tbnfd3
      @Tbnfd3 5 днів тому +7

      Ooo dokładnie to samo napisałem ad FIZYCZNEGO podłączenia/odłączenia monitorów a nie tylko przez przycisk zasilania monitora ale sam monitor nadal kablem hdmi podłączony do gpu wiec przesył danych po kablu nadal odbywa sie.- szkoda że nie przeczytałem najpierw tego komentarza 😂
      Swoją drogą to że na 3 jest cos mało obciążającego jak discord czy yt to też ma wpływ na główny monitor bo gpu i cpu na nim moze sie skupić tj na grze a tamte i tak w tle działają

    • @adam1709
      @adam1709 4 дні тому

      jaka więc różnica między oknem bez krawędzi a pełnym ekranem?

    • @azariash
      @azariash 4 дні тому

      @@adam1709 yup, rozłożeniem procesów między gpu a cpu. Co powoduje przełączeniem aplikacji w tle na proces hibernacji przez co wzrasta wydajność. Tryb pełny ekran w oknie powoduje że windows ma apki dalej w trybie otwartym, przez co fps jest mniejszy.
      Np. Diablo 3 zminimalizowane w pełny ekran, bo np. Przełączasz na yt piosenkę zrzuca wydajność do 16 fps. Przy pełny w oknie do 30.

    • @BajTomasz
      @BajTomasz 4 дні тому +1

      i też nie rozumiem dlaczego Kamil postanowił odpalać 3x YT. Żeby zabserwować bardziej skrajną sytuacje powinny być 3 ekrany wyświetlające pulpit.

    • @azariash
      @azariash 4 дні тому +1

      @@BajTomasz przedewszystkim, po to, aby wymusić wyjście z hibernacji procesów na grafice. Jeśli zostawisz sobie pulpit, grafika zrzuca wydajność na ekranie, przełącza się w 60 Hz/24fps. Włączenie dowolnej, powoduje wybudzenie.

  • @czarrny1czarrrny177
    @czarrny1czarrrny177 3 дні тому

    Dziękuje za przygotowany materiał filmowy. Pozdrawiam.

  • @BRX_2137
    @BRX_2137 5 днів тому +24

    Mogłeś był zrobić test na 3050 6gb. Ta to było by widoczne. No bo kto by się spodziewał że mocne karty wytrzymają dodatkowe małe obciążenie. I to jeszcze mając porządny zapas szybkiego VRAMu? Trochę jak procedura optymalizacji windowsa. Jak robisz to na i9 lub i7 to nie zauważysz różnicy bo pochłania to tylko ułamek mocy obliczeniowej ale jak zrobisz to na jakimś starym pentiumie lub athlonie to różnica będzie kolosalna. Trochę tak jak by porównywać czy 0.5 tony cementu wpłynie na jakość prowadzenia samochodu po czym bierzesz wywrotkę o ładowności 20ton? Albo bierzesz wagę do mierzenia samochodów i sprawdzasz o ile cięższa będzie herbata po dodaniu kilku łyżeczek cukru? I nie hejtuję ani nie chcę być złośliwy ale chce tylko powiedzieć że najmocniejszy sprzęt nie jest zawszę najlepszym obiektem do testów. W końcu wyświetlanie pulpitu niestało się jakoś bardzo wymagające przez ostatnie lata, co nie znaczy że 10 lat temu wyświetlenie 4 dodatkowych monitorów jednocześnie nie wpłynęło by negatywnie na wydajność? Pozdrawiam.

    • @fifizkonopii
      @fifizkonopii 5 днів тому +1

      a kto kupuje 3050 6 GB i ma 4 monitor?

    • @BRX_2137
      @BRX_2137 5 днів тому +4

      @@fifizkonopii Ja miałem 1050 2gb i 3 monitory przez jakiś czas. Więc nie zdziwił bym się.

    • @riiit749
      @riiit749 5 днів тому

      Racja

    • @omgoat
      @omgoat 2 дні тому

      on nawet 60 fps nie ma w cyberpunku i to nazywasz mocnym sprzetem?? a cyberpunk to stara gra

    • @BRX_2137
      @BRX_2137 2 дні тому +1

      @@omgoat Zaskoczę cię ale tak wygląda wydajność w grach bez DLSS 3. W 4K.

  • @JacekKromka
    @JacekKromka 2 дні тому

    bardzo fajny odcinek kamil! Pozdrawiam

  • @djdarco1
    @djdarco1 5 днів тому +21

    monitor powinien być odłączony od karty żeby zauważyć różnicę. Kiedyś sprawdzałem pobór mocy na idle na dwa monitory komp pobierał 50 Watt więcej

    • @TekTesters
      @TekTesters  4 дні тому +1

      Monitory były odłączane, nie miało to wpływu na wynik. Jak myślisz, że test polegał jedynie na wyłączeniu monitorów „z przycisku”, jesteś w błędzie.

    • @djdarco1
      @djdarco1 4 дні тому

      @@TekTesters dużo zależy od monitora. Niektóre odłączają się od portu po wyłączeniu inne nie.

    • @TekTesters
      @TekTesters  4 дні тому +2

      Możliwe. Tak czy siak, monitory były najpierw wyłączane w panelu nvidia, gdzie już kartą nie miała możliwości dawać na nie czegokolwiek, a następnie, dla pewności, odłączane zupełnie “z kabli”.

    • @danielkowalski7527
      @danielkowalski7527 2 дні тому

      Na techpowerup testują zużycie różnych kart w multi-monitor - rozstrzał jest całkiem duży

  • @Amigowiec
    @Amigowiec 4 дні тому +8

    Dzięki Kamilu za ciekawy materiał. Mało kiedy zostawiam komentarze gdziekolwiek, ale musiałem podziękować. Oczywiście, że u mnie również "śmigają" na raz 3 monitory. A to jakiś grabber obrazu, a to soft do montażu, a to browser i jeszcze jakiś yt może zapauzowany lub odpalony, zależy od chwili. Dawno zauważyłem różnicę w fps, ale w sumie nie ma co się dziwić. To nie tylko kwestia tego, że hardware mamy obciążony softem, ale i sama grafa generuje obraz na kolejne ekrany. Fajny test. Faktycznie film trochę inny niż zwykle, ale obyś miał więcej takich pomysłów. Bo pewna nisza obserwujących docenia :) Pozdrawiam, Radek.

    • @TekTesters
      @TekTesters  4 дні тому

      O! Witam kolegę Amigowca! 😁 dzięki za miłe słowa.
      Może kiedyś jakiś collab do filmu się znaku Commodore? 🙂

  • @takumishire
    @takumishire День тому

    Ja 3 podpięte do 1050ti i ładnie działa

  • @lemoniadapolska1655
    @lemoniadapolska1655 4 дні тому +1

    jeszcze bym sprawdził czy jest jakaś różnica w input lagu oraz tego jakie opóźnienie ma kernel

  • @krzychu1766
    @krzychu1766 3 дні тому

    Super odcinek , ja mam dwa jeden Aoc AGON AG352QCX Gaming Monitor 200 hz do gania i oglądania filmy , a drugi to starószek Dell Professional P2414Hb 24" FHD IPS USB , to do oglądania filmików z youtube jak sobie gram w gry

  • @rezasurmar
    @rezasurmar 4 дні тому

    Na 7900XT jest ciekawy efekt po odpaleniu drugiego monitora (z racji wiekowości Eizo S2231W) jest po HDMI, karta z jednym monitorem Philips 28" 4K
    na display port bierze w idle (wyświetlanie windows) ok 20-25W. Po włączeniu drugiego monitora po HDMI potrafi brać nawet 90W. Tylko wyświetlając pulpit.

    • @danielkowalski7527
      @danielkowalski7527 2 дні тому

      popatrz sobie testy na techpowerup - tam testują wiele monitorów i róznica w konsumpcji prądu jest ogromna

  • @deborister
    @deborister 4 дні тому

    Dzięki za ciekawy materiał. Gram na dwóch monitorach panoramicznych razem. Pierwszy to iiyama G-Master GB3467WQSU-B5 a drugi KOORUI 34 Inch Ultrawide Curved Gaming. Gra się miodnie. Obydwa podłączone przez Display Port. Pobór mocy nieodczuwalny.

    • @TekTesters
      @TekTesters  4 дні тому +1

      Konkretne masz te monitorki 😁

  • @gryfcio3393
    @gryfcio3393 4 дні тому

    Co sądzisz o monitorach 8k? Czy przy serii rtx 5000 mogą zostać produkowane w jakiejś większej ilości? Bo juz 4090 jest w stanie odpalać na 60 klatkach a w niektorych grach z dodatkiem dlss

    • @TekTesters
      @TekTesters  4 дні тому

      Wiesz, nie znamy wydajności jeszcze, ale trzeba też pamiętać, że wraz z nową generacją, wymagania gier kolejnych też idą do przodu. Moim zdaniem 8k jeszcze nie na teraz po pierwsze, a po drugie, musiałbyś siedzieć przy jakimś naprawdę dużym kabelku żeby z tego skorzystać, jak trzeba.

  • @hatelovepurpury6773
    @hatelovepurpury6773 5 днів тому +4

    Na starszych kartach powinniście wykonać test.

  • @terminator800K
    @terminator800K 5 днів тому +1

    Dobry Wieczór. Mam tylko jeden monitor.

  • @bartekcherry
    @bartekcherry 2 дні тому

    Czy przechodzenie między programami alt+tab podczas rozgrywki czekając na resspa aby zrobić coś w innym programie nie ma większego wpływu na spadki wydajności? W jakim celu mamy te monitory i odpalone na nich programy?

  • @charonunderground8596
    @charonunderground8596 5 днів тому

    Ciekawy materiał, ale moim zdaniem należałoby odłączyć fizycznie monitory... Miałem podobne odczucia kiedy był podłączony tylko jeden telewizor i była widoczna różnica przy fizycznym podłączeniu i odłączeniu.
    Swoją drogą chciałbym tu na kanale zobaczyć inny materiał. Mnóstwo osób korzysta nadal z monitorów FHD i chciałoby się przesiąść na 4K, ale... jaka minimalna karta do tego potrzebna ? Co jeśli gra okaże się wymagająca i trzeba będzie zejść z rozdzielczością w dół z 4K na FHD ? Dobrze się zeskaluje czy pogorszy się jakość? Co z materiałami video np. kolekcje filmów czy seriali w FHD - jak będą wyglądać na monitorze 4K ? Albo nagrania ze smartfona z FHD na 4K ? No i przeglądając net widzę dużą rozbieżność w tym co ludziska piszą o zagęszczeniu pikseli w stosunku rozdzielczości i wielkości ekranu. Czy 27 cali do za dużo do FHD czy jest ok? Czy 27 cali to za mało do 4K czy będzie w porządku ? Jeszcze bym wymyślił więcej pytań, ale fajnie byłoby jakbyś się z tym zmierzył. No i nie każdy jest Lewandowskim z 4090 ;)

    • @TekTesters
      @TekTesters  4 дні тому

      Monitory były w pierwszej kolejności wyłączane z poziomu panelu sterowania nvidia, więc już na tym etapie karta nie miała prawa wysyłać na mnie żadnego sygnału, a następnie zostały odłączone.

  • @KamaS94ec
    @KamaS94ec 4 дні тому

    Pamiętam jak grałem na premierę w GTA V na na starym laptopie z APU i grafą AMD i wyłączenie team speaka dodawalo te cenne kilka klatek. Na szczęście te czasy, gdy trzeba było wyciskacz ostanie poty że sprzętu żeby grać w 30 FPS mam za sobą

  • @yogi8000
    @yogi8000 5 днів тому +1

    Fajnie jeśli ktoś używa dodatkowych monitorów tylko do oglądania czegoś innego w trakcie gry, ale jeśli ktoś chce grać na trzech monitorach w nvidia surround to już nie jest tak wesoło i powinno to być powiedziane/przetestowane w tym materiale. Sam jakiś czas temu używałem 3 x 1080p z nvidia surround i powiem że zabiera to dużo mocy w grach, a 3 x 1440p to już musi być top karta, 3 x 2160p już chyba się nie da w rozsądnej płynności z żadną kartą.

    • @TekTesters
      @TekTesters  4 дні тому

      No ale to że wyższa rozdzielczość to niższa wydajność jest oczywiste, tego nie trzeba testować, żeby wiedzieć.

  • @fabiankowalski2675
    @fabiankowalski2675 5 днів тому

    Super poradnik

  • @remlu01
    @remlu01 5 днів тому

    Pycha!

  • @adamnowak1124
    @adamnowak1124 4 дні тому

    Fajny test. Chciałbym jednak zwrócić uwage ze wyłączasz 3 monitory 1080p a zaostaje 4k. Proponowal bym sprawdzic jeszcze 4x tą samą rozdzielczość.

  • @Woofer76alien
    @Woofer76alien 5 днів тому

    Posiadałem RX 580 z dwoma monitorami, potem trzema, spalił się RX więc kupiłem 3060ti niestety już tylko 2 monitory bo gniazda nie pozwoliły podłączyć staruszka przez analog.
    Nigdy nie zauważyłem jakichś spadków FPS pomimo fizycznego wyłączania monitorów przed włączeniem komputera, sterownik nie włącza wtedy obsługi monitorów dodatkowych, czy tu też tak robiliście?
    Jeszcze jedno, gra korzysta z GPU (nie mówię o CS GO) a soft z CPU w większym stopniu jak Discord i lecące Streamy a o OBS nie wspominam bo praktycznie 99,99% graczy tego nie potrzebuje.
    Pewnie skomplikowałem mój wywód ale test zrobiliście trochę na odwal z reklamą monitorów...

  • @kennybruhbruh
    @kennybruhbruh 5 днів тому

    Kolejny aspekt który trzeba wziąć pod uwagę przy takiej konfiguracji to pobór prądu, wzrośnie on parokrotnie w użyciu 4 monitorów.
    Największy problem jak dotąd ma z tym AMD, gdzie już przy podłączeniu drugiego ekranu pobór w idle’u wzrasta niemal dwukrotnie.
    Najlepiej podłączyć dodatkowe wyświetlacze do portów na mobo, przy założeniu że mamy integre.

  • @grajek1111111
    @grajek1111111 5 днів тому

    Triple 3440x1440, coś wiem o zjadaniu wydajności haha :D

  • @SJRoyd
    @SJRoyd 4 дні тому

    Z mojego doświadczenia nie-gracza. Posiadam laptopa Dell Precision 7720 FHD ze stacją dokującą, do niej podpięte 3x 2K. Sam laptop bez dodatkowych monitorów chodzi w miarę cicho, ale ich włączenie powoduje uruchomienie drugiej karty graficznej i większe zapotrzebowanie na moc (jest cieplej i głośniej), bo przecież 60 FPS na 3x 2K znikąd się nie zrobi. Więc tak - kolejne monitory obciążają sprzęt.

  • @adam1709
    @adam1709 4 дні тому

    Jak wyłączyłeś dodatkowe monitory? na guziku czy odłączyłeś przewody? czy jest jakaś różnica między tym?

    • @TekTesters
      @TekTesters  4 дні тому

      Na guziku? Proszę Cię… W pierwszej kolejności wyłączyłem monitory w panelu sterowania nvidia, więc już na tym etapie karta nie miała prawa podawać na nie jakiegokolwiek sygnału, a następnie odłączyłem je fizycznie od karty. Wyniki te same.

    • @adam1709
      @adam1709 4 дні тому

      @@TekTesters czyli wyłączenie na guziku nic nie da?

    • @TekTesters
      @TekTesters  3 дні тому

      @@adam1709 tego nie sprawdzałem. Test polegał na porównaniu konfiguracji jedno monitorowej z cztero monitorową. Nie dwóch cztero monitorowych, jednej z wyłączonymi wszystkimi, a drugiej z jednym, więc nawet nie przyszło mi do głowy tego sprawdzać. Zasymulowałem warunki takie, jak a założeniu filmu.
      Z poruszenia w komentarzach wnioskuję, że monitor wyłączony tylko z guzika może generatora dalej jakieś obciążenie dla karty, ale jak mówię, nie sprawdzałem tego i wydaje mi się, że większość komentujących na ten temat również. Może sprawdzę w poniedziałek, jak czasu starczy.

  • @adam1709
    @adam1709 4 дні тому

    Co lepsze i dlaczego - okno bez krawędzi czy pełny ekran?

  • @Pieteros21
    @Pieteros21 5 днів тому

    szczerze to mam 32 cale 1440P + 24 calowy 1080p w pivocie obok i testowałem już parę razy i nie odczułem zbytniej różnicy żeby mi zjadało wydajność , może na słabszym sprzęcie by to było bardziej odczuwalne . Pozdro :D

  • @kubaBodura
    @kubaBodura 5 днів тому +1

    Fajny film ale szkoda ze nie było dodatkowo porównania w FHD i różnic pomiędzy 1 monitorem a 2 monitorami. Fajnie by było zobaczyć o tym film w przyszłości lub shorta

    • @adam1709
      @adam1709 4 дні тому

      z do dwóch to się zgodzę, ale FHD z 3060 było. No i nie wiadomo jak wyłączał monitory czy tylko na guzika czy przez przewody bo to może też mieć znaczenie

    • @omgoat
      @omgoat 2 дні тому

      fullhd to prehistoria, 4k jest już od dawna standardem

  • @Pomaranczowykrol
    @Pomaranczowykrol 4 дні тому

    Akurat to juz wiedziałem 3 lata wstecz kiedy zauważyłem ze nawet przy wyłączonym monitorze (na przycisku) zjadal okolo 10% wydajności w porywach do 15%

  • @jaskier__
    @jaskier__ 5 днів тому +1

    3:57 Legit info oparte o lata badań Doktora Prof. Andrzeja Dragana.

  • @AdamWaliczek
    @AdamWaliczek 3 дні тому

    Myślę, że to kwestia mocnego cpu. Polecam sprawdzić na jakiejś starszej i5 + 8-16 GB ramu :)

  • @BearShepherd
    @BearShepherd 2 дні тому

    Bardzo ciekawy test i potrzebny. Takiego właśnie szukałem kilka tygodni temu. I fakt, ciężko znaleźć. Niestety słabo test wykonany. Rtx4080? Serio? Kazdy polski gracz ma na pewno taką kartę w swoim kompie. A może by tak zrobić jeszcze test z laptopem? Z jakimś rtx3060/4060?
    Daje suba dla motywacji, zobaczymy co dalej przygotujecie.

    • @omgoat
      @omgoat 2 дні тому

      przeciez powiedzial ze slaba karta i mogl dac lepsza ale nie podpialby 4 monitorow.
      co sie go czepiasz???

  • @danielx5294
    @danielx5294 5 днів тому

    Ja tam nie słyszałem żeby większa ilość monitorów zmniejszała wydajność, ale słyszałem że może się kaszanić odświeżanie monitorów, a szczególnie jeśli jeden ma wysokie np. 144Hz lub wyżej a drugi to podstawowe 60Hz... Poza tym, karta w spoczynku (iddle) potrafi wtedy bez naszej wiedzy cisnąć pełną parą, nawet jeśli na każdym monitorze jest wyświetlany tylko pulpit i niema uruchomionych żadnych programów... Niby jest to spowodowane błędnym wykrywaniem stanu P0 czy jakoś tak. Niewiem jak to ma się do Radeonów ale słyszałem o tym na RTX-ach i to również najnowszych z serii 4xxx.
    U mnie tylko jeden monitor - wystarcza mi 27' i 1440p.

    • @MrDroopSon
      @MrDroopSon 4 дні тому

      A ja na odwrót. Słyszałem o tym problemie wśród Radeon. Sam mam RTX 4070Ti i 3 monitory i nie ma z tym żadnego problemu.

    • @danielx5294
      @danielx5294 4 дні тому

      ​@@MrDroopSonU mnie na RTX 2070 Super zauważyłem (mimo tylko jednego monitora) że póki odświeżanie mam ustawione na 144Hz lub mniej to karta działa prawidłowo, a jak ustawię monitor na 165Hz to karta przechodzi odrazu w tryb 3D mimo że nic nie jest uruchomione i w Afterburnerze wszystkie zegary idą na maksa w górę... Jak tylko zmniejszę odświeżanie do 144Hz zaraz przechodzi w tryb iddle i zegary oraz temp. spadają to prawidłowego poziomu...

    • @MrDroopSon
      @MrDroopSon 4 дні тому

      @@danielx5294 No to ja główny monitor mam na 144hz, 2 pionowy ogarnia tylko 60hz, a 3 to telewizor OLED i jest ustawiony na 120hz. I nigdy karta mi nie wariowała. Ale nigdy też nie zmieniałem tych wartości, tak że nie wiem jeszcze co by było gdybym zmienił.

  • @db9834
    @db9834 5 днів тому +1

    discord podczas grania i wszystko jasne

  • @vangogh1901
    @vangogh1901 4 дні тому

    a dlaczego odpalacie w oknie a nie fullscreen

  • @Remeksolidpc
    @Remeksolidpc 4 дні тому

    Spróbuj jeszcze raz z odłączeniem kabli z karty

    • @TekTesters
      @TekTesters  4 дні тому +1

      W pierwszej kolejności wyłączyłem monitory w panelu nvidia, a następnie odłączyłem z kabli. Nie miało to wpływu na wynik.
      Test nie polegał na włączeniu monitorów z przycisku, jak wielu z Was się wydaje z jakiegoś powodu 🙂

  • @Logarytms
    @Logarytms 5 днів тому

    Możliwe, ze LINUS robił na starych sterownikach. Z wersji na wersje, może teraz nie być różnicy.

  • @jacekr9705
    @jacekr9705 3 дні тому

    Jak dla mnie różnica ostrości vs. wzrost wymagań sprzętowych w grach na 32" w 1440p vs 4k to (nomen omen) gra kompletnie niewarta świeczki. Zdecydowanie wolę grać na monitorze o takiej przekątnej w 90 fps na 1440p niż w 50 fps na 4k.
    PS Abstrahuję od problemu wielu monitorów. Choć ciekawym zagadnieniem mogłoby być zbadanie różnicy, gdy monitor główny mamy podpięty pod GPU, a dodatkowe(y) pod MoBo (o ile mamy procka z integrą).

    • @omgoat
      @omgoat 2 дні тому

      zagraj sobie w 140fps w fullhd
      kazdy biedak tak sie tlumaczy, a 4k to jest standard od dawna nawet na konsolach

    • @jacekr9705
      @jacekr9705 2 дні тому

      @@omgoat Że co? xD

  • @Mr-Hary
    @Mr-Hary 4 дні тому

    Siemanko. Zdecydowałem się u siebie zrobić taki sam test w Cyberpunku i SZOK W 4K na takiej samej karcie graficznej 4080 miałem mniej o 20 FPS. Różnica tylko w procku bo u mnie siedzi I7 13700K i pamięciach. Ja mam 32GB 3600Mhz. Jeżeli w 4K procek praktycznie nie gra roli to skąd taka aż różnica? 20 FPS ?

    • @omgoat
      @omgoat 2 дні тому

      słabiutki procesor mordo

  • @andr27
    @andr27 5 днів тому +1

    "2, 3 a nawet 4 MOŻE zjadać ci wydajność" XD to chyba oczywista oczywistość że jak nawalisz obciążenia, to nawet koń nie pociągnie.

  • @JackCallahan
    @JackCallahan 3 дні тому

    W moim przypadku obecność wideo na drugim ekranie często zmniejsza wydajność w grze, aczkolwiek pewnie to przez większe obciążenie, głównie procesora.
    Aczkolwiek ostatnio zauważyłem, że mam problem przy swoim RX 570. Nie występuje to w każdej grze, lecz np. w Fortnite karta nie trzyma zegarów, przez co mam mocne zacięcia. Gdy natomiast wyłączam drugi monitor, wszystko wydaje się trzymać normy. Kwestia raczej sterowników i wieku sprzętu.
    Dodatkowo mam problem przy grach pełnoekranowych, głównie starszych. Dwa moje obecne ekrany są różnej rozdzielczości plus problem się pojawił po przesiadce na Windows 11. Po włączeniu gry pulpit i okna przesuwają się na drugi ekran, przez co widzę na nim kawałek pulpitu z monitora głównego plus zawartość drugiego ekranu wychodzi poza ramkę, przez co nie idzie korzystać wtedy z dwóch ekranów. 🤔

    • @danielkowalski7527
      @danielkowalski7527 2 дні тому

      a jak ustawisz taką samą rozdzielczość na obu?

    • @JackCallahan
      @JackCallahan 2 дні тому

      @@danielkowalski7527 Zarzuciłem na obu 1024x768 i uruchomiłem grę w tej samej rozdzielczości... przesunięcia się pojawiały, ale finalnie było poprawnie. 😛

  • @Greg74948
    @Greg74948 5 днів тому +1

    4K w przypadku monitora komputerowego 27-32" to wg mnie przerost formy nad treścią. Na takich ekranach nie widać gołym okiem wyraźnej różnicy między matrycą 2560x1440 a 3840x2160 px, a za to do płynnego wyświetlania obrazu potrzebna jest naprawdę wydajna grafika. Osobiście postawiłem na 2 monitory 2K (1440p) wielkości 31,5" o częstotliwości odświeżania 165Hz. Uważam, że jest to optymalne rozwiązanie, które sprawdzi się u niemal każdego gracza i podołają mu nawet nieco starsze układy graficzne.

    • @Bartek-bk7lq
      @Bartek-bk7lq 5 днів тому

      32/1440 ma PPI na poziomie 24/FHD... Miałem taki monitor(32/1440) i poszedł szybki zwrot bo po przesiadce z 27/1440 drażniło mnie to niemiłosiernie. Jak ktoś przesiada się z takiego samego PPI, może mniej to zauważy bo ekran będzie dalej przy zachowaniu takiej samej wielkości piksela.

    • @Greg74948
      @Greg74948 5 днів тому

      @@Bartek-bk7lq Nie wiem co takiego cię drażni w ekranie 32/1440 jeśli nawet na starym monitorze 27/1080 wciąż bez problemu można oglądać VoD czy nawet zwykłą telewizję. Do dzisiejszych gier może się już nie nadaje ale to nie oznacza, że nie sprawdzi się doskonale w innych zastosowaniach.

    • @Greg74948
      @Greg74948 5 днів тому

      Poza tym na monitorach mniejszych niż 34 cale i tak większość ludzi nie zobaczy znaczącej różnicy między 2160p a 1440p. To ma sens w przypadku większych ekranów kiedy siedzi się w niewielkiej odległości od nich (do 3m).

  • @PolskiMapper93
    @PolskiMapper93 5 днів тому

    może i seria 50 będzie o ileś tam procent lepsza od serii 40 ale będzie również zdecydowanie droższa

    • @omgoat
      @omgoat 2 дні тому

      a co ma byc tansza?
      twoj komentarz nic nie wnosi

  • @pawekrasowski8060
    @pawekrasowski8060 5 днів тому

    Z dzisiejszą wydajnością powinniśmy mieć nie tylko 2 monitory ale 2 niezależne systemy z wszystkimi zewnętrznymi komponentami przypisanymi osobno ale na jednej stacji.
    Nie że nie da się tego zrobić, ale raczej nikomu nie zależy żeby tobie sprzedać jeden komputer albo dwa, więc żeby to zrobić trzeba trochę się dowiedzieć, bo nikt tego nie ułatwi.

  • @user-vs3qq3bu8m
    @user-vs3qq3bu8m 5 днів тому +1

    Bardzo ciekawy i dobrze zmontowany film, nie spodziewałem się, że różnica będzie tak niewielka, jak korzystałem z dwóch monitorów na radeonie 5450 to różnica była odczuwalna dzisiaj podzespoły są na tyle wydajnie, że nawet kilka monitorów nie jest im straszne. To już nie są czasy gdy komputery miały 1 rdzeń i jeden wątek i dwie aplikacje zamulały komputer a szybsze przełączenie aplikacji zawieszało komputer a całości nie pomagał talerzowy dysk 3.2gb które szybko się zapełniało grami.

  • @dikkajn8185
    @dikkajn8185 5 днів тому

    Jeden 21/9 i jestem zadowolony hehe pozdrawiam

    • @TekTesters
      @TekTesters  5 днів тому

      ja właśnie 32:9 testuję :D

  • @nothernchronicles
    @nothernchronicles 5 днів тому

    A amd?

  • @msnetpl8110
    @msnetpl8110 4 дні тому

    Mam trzy monitory. Jeden podlaczony i dwa stare w szafie 😀

    • @TekTesters
      @TekTesters  4 дні тому +1

      Te w szafie jakieś fajne? 😁

    • @msnetpl8110
      @msnetpl8110 4 дні тому

      @@TekTesters no jeden Nec z rozdzialka 1024/768 i rocznik cos okolo 2002 drugi ciut nowszy. Czyli aktualnie pierwsza liga 😀

  • @marchewa1130
    @marchewa1130 5 днів тому

    ja aktualnie mam 2 starte monitory FHD 60Hz, ale chcę sobie dokupić 3, najlepiej na 1440p po upgrade'zie karty, 2 monitory mi nie starczają jak robię na kompie coś poza graniem

  • @TyJa-du6pv
    @TyJa-du6pv 3 дні тому

    JA mam zamiar kupić monitor. Cenie oszczędność i nie zależy mi na FPS 60styka. Poradzisz czy dobrze wybieram. Chce kupić 4k 60hz 28cali, bo nie widzę sensu kupować 1440p z 140hz jak i tak zablokuje na 60.

    • @TekTesters
      @TekTesters  3 дні тому

      Moim zdaniem 4K od 32” w górę ma sens dopiero. Ważne też jaką masz kartę graficzną, czy uciągnie taką rozdzielczość.

    • @TyJa-du6pv
      @TyJa-du6pv 3 дні тому

      @@TekTesters rx 6800 i i5 13500

    • @TekTesters
      @TekTesters  3 дні тому

      @TyJa-du6pv to moim zdaniem przesada

    • @TyJa-du6pv
      @TyJa-du6pv 3 дні тому

      @@TekTesters Dzięki za radę. Po niej jednak wybiorę 27" ips 1440p 100hz i jest prawie o połowę tańszy. 😎

    • @omgoat
      @omgoat 2 дні тому

      @@TyJa-du6pv ty chcesz 4k odpalac na takim zlomie?
      jak cos to 4k to minimum 43 cale ale na twoim szrocie to nie pojdzie zmien komputer

  • @Pawlak009
    @Pawlak009 5 днів тому

    Mam być może interesujący pomysł na bitke dla was Panowie. Czy można wysyłać na kontakt mailowy w opisie?

  • @adam1709
    @adam1709 4 дні тому

    Ciekawe jakby wyglądała praca na kilku monitorach na inegrze

  • @Wolaj_mnie_Piotr
    @Wolaj_mnie_Piotr 5 днів тому

    Ja mam i7 3770 i gtx 980ti i jak podłącze 2 monitor pod stream grając w world of tanks i uruchomię stream labs , droidcam 3 karty w youtube to z 180 klatek na ultra robi się 30klatek xDDD więc zmieniam sprzęt za niedługo xD

    • @fifizkonopii
      @fifizkonopii 5 днів тому

      a ty robisz streama i ty dziwisz się, że nie masz dużo FPS na tym starym komputerze, z całym szacunkiem do kompa

  • @krzysztofcegielski3472
    @krzysztofcegielski3472 День тому

    Hej czy mógłby ktoś zająć się tematem na tym kanale
    odnośnie montażu dysków m2 plus adaptery na płytach Z od Z490 czy Z590... z wykorzystaniem wszystkich linii PC express a także adaptera dysków m2 wpisanego w drugi slot pci express...
    chodzi głównie o wykorzystanie linii PC express porażce zamontowanie wszystkich trzech czy czterech dysków M2. nie obetnie prędkości i wydajności karty graficznej... pozdrawiam

  • @Mochcin
    @Mochcin 5 днів тому

    Ogólnie trochę bezsensowny test i9 13gen ma tyle rdzeni że można by z niej zrobić wydajny serwer do wirtaualuzacji więc nie wiem jak mają pokonać ja 4 monitory. Obstawiam że gdyby test został przeprowadzony na starszym PC typu i7 6700k oraz 1070 byłaby widoczna większa różnica

  • @klifek83
    @klifek83 5 днів тому

    2... Połączone rtx 3090.. nie odczuwam żadnej różnicy w trakcie korzystania z obu jednocześnie..1 - 2560x1440p ( Gra apex lub scum ) 2 - 2560x1080 - hwinfo + discord + okno msi afterburner + youtub z muzyczką

  • @pankox_pl214
    @pankox_pl214 5 днів тому

    Mając słabego laptopa, różnica była odczuwalna (~25 a ~35 fps) Ważne jest aby za pomocą skrótu WIN + P zaznaczyć "Tylko ekran komputera" wtedy żadna wydajność nie jest przekierowywana na drugą ścieżkę wyjścia.

    • @user-vs3qq3bu8m
      @user-vs3qq3bu8m 5 днів тому

      myślę, że porównanie tego z laptopem nie ma sensu bo większość laptopów nie jest przystosowana to wyświetlanie kilku monitorów naraz ale racje muszę przyznać bo na słabym sprzęcie do puki nie wyłączyło się drugiego monitora nawet jak ten był wyłączony to był spadek wydajności.

  • @danyloshevchyk3198
    @danyloshevchyk3198 4 дні тому

    Mam 2 laptopa:)

  • @arturszeja1275
    @arturszeja1275 2 дні тому

    Bardzo proste. Wiem to już od 15 lat i podzielę się tą wiedzą. Do wyświetlenia obrazu karta graficzna wykorzystuje głównie vRAM, wiec nie ma tak na prawdę większego znaczenia ile masz odpalonych monitorów, każdy z tych dodatkowych to kilkaset MB w pamięci karty graficznej, pulpit jest rozszerzany więc znowu po stronie platformy zwiększa się zużycie ramu oraz CPU w zależności od tego co na tych monitorach jest wyświetlane. Odnotowałeś brak spadku wydajności podczas grania w Cyberpunka z odpalonym filmem na YT na drugim monitorze? To całkowicie normalne, bo posiadasz i9 13900k który nie używa nawet 30-40% swoich zasobów podczas gry w CP a podczas wyświetlania filmów nie działa w realtime bo nie musi więc taki film go dodatkowo nie obciąża, ale odnotujesz w HWmonitorze wzrost obciążenia CPU. Taki test powinieneś wykonać na jakimś i5 8 generacji z 16GB ram i jakąś karta graficzną z 8GB vramu wtedy wyniki były by inne. Twój test niczego nie dowodzi ponieważ musimy wiedzieć skąd bierze się ten spadek fps i powinieneś nam pokazać wskazania zużycia podzespołów a nie tylko wyniki FPS w grze.
    Jak sam zauważyłeś jednak w tej chwili na średnim sprzęcie ten spadek klatek przy kilku monitorach jest marginalny, gdzie jak wiadomo 1-2fps to często błąd pomiarowy i powtórzony test może wykazać inne różnice, przy kilku monitorach nawet głupie przerwy systemowe mogą być w stanie wygenerować 1% low o 2 klatki niższy. Pulpity które dodajesz systemowi na tych dodatkowych monitorach nie wyświetlają grafiki z akceleracją sprzętową karty graficznejbo regonie wymagają wiec jedyne co jest potrzebne to większa ilość bramu ale dyskutujemy o czymś co miało by znaczenie przy GTX980 z 4GB vram kiedy zabraknie nam 400mb do płynnej rozgrywki w jakiejś grze i będzie generować ściny, wtedy faktycznie przełączenie się na jeden ekran wywróci wszystko o 180* i gra stanie się grywalna.
    jeszcze apropo grania w grę i oglądania filmu na drugim monitorze w 4K powstaje jeszcze jeden problem. Procesor w normalnych warunkach rozdziela swoją pracę w oparciu o priorytety ale nie jest w stanie wykonywać jednocześnie kilku operacji niezależnie i zanim mnie zjesz bo przecież mamy 20 wątków i każdy robi coś innego, to dodam że wszystkie muszą zamknąć się w swoim cyklu pracy który określamy w hercach, a wiele aplikacji korzysta i tak z tych samych wątków procesora, nie wynaleziono jeszcze AI które by w czasie rzeczywistym potrafiło nie zakłócać pracy jakiegoś wątku procesora kiedy sobie na drugim ekranie nagle odpalimy przeglądarkę z 5 kartami i nagle i9 i 64gb ddr5 robi ścinkę w grze... dlaczego? tego nie będę tłumaczyć bo znasz się w temacie. CPU może pracować w 20% zużycia i dawać z siebie 100% i więcej już nie poleci bo ograniczy go częstotliwość wykonywania obliczeń w czasie rzeczywistym, a procesor nie składa się tylko z tego. Przykład? producenci muzyki i filmów mogą ustawić BUFOR (opóźnienie tego co słyszą i widzą) procesora. przy bardzo niskim opóźnieniu przy 10% użycia CPU projekt zacina, trzeszczy, piszczy, bo procesor nie jest w stanie tak szybko obliczyć tych informacji. po zwiększeniu tego bufora nagle się okazuje że zużycie wzrasta do 40% a wskaźnik Bufora spada do poziomu takiego ze możemy załadować kolejne 100 ścieżek audio/video. Także takie testy, one nie są miarodajne bo nie wiemy co mierzymy. Mógłbyś np pokazać co dzieje się z zasobami systemowymi w 1080p kiedy aktywujesz każdy kolejny monitor w panelu nvidia. :) Zobaczył byś te bardzo delikatne różnicę które tobie przy 3060 i 4080 różnicy nie zrobią, ale komuś innemu już tak. Serio fajny film ale brakowało tutaj metodologii i zrozumienia tematu DLACZEGO kilka monitorów może obniżyć wydajność i jakie techniczne aspekty za tym stoją.
    Robiąc taki test na i9-13900 i rtx4080 to tak trochę pudło. Bo to tak jak byś recenzował grę która ma fatalną optymalizację, działa jak kupa, a Ty mówisz, MI DZIAŁA SUPER... O co się czepiacie?
    I nie czepiam się z zazdrości o nic bo sam aktualnie posiadam i7-13700k i RX6950XT i całkowicie rozumiem ten test, u mnie jeśli użył bym tej samej metodologii co Ty ten test wyglądał by tak samo. Nie doszli byśmy do żadnego wniosku, tak jak u Ciebie. Na słabszej karcie może być gorzej, na starszym sprzęcie może być gorzej (ale nie sprawdziłeś tego wiec nie wiesz), ale co, jak i dlaczego? Nobody Know. :)

  • @meloncompl1
    @meloncompl1 5 днів тому

    Tek Testers -
    poproszę o o linka do wygaszacza Matrix ! :)

    • @venom_X77
      @venom_X77 5 днів тому +1

      Jeśli się nie mylę to Steam > Wallpaper Engine > Matrix. Widziałem, że są animowane tapetki i wygaszacze w tym stylu.

  • @seventhsun1
    @seventhsun1 5 днів тому +1

    Myślałem , że to test a to tylko reklama monitorów MSI..

    • @TekTesters
      @TekTesters  5 днів тому

      Jest test. Obejrzyj do końca albo chociaż do połowy. Materiał jest sponsorowany, ale jedyne co, to prezentuję specyfikację głównego monitora i tyle. Można ją skipnać btw, bo są czasówki. W czym problem?

    • @Tbnfd3
      @Tbnfd3 5 днів тому

      ​@@TekTestersto NIE jest poprawny test 1 vs 2 vs 4 vs xx monitorów... Przeczytaj główny mój komentarz (o ile ktoś go nie usunie np "yt-bot-od-komentarzy")

  • @essa-kz6cx
    @essa-kz6cx 5 днів тому

    miałem dwa monitory ale doświadczenie w grach typu gta 3 nie było fajne

  • @kam1337
    @kam1337 5 днів тому

    ja mam gtx 1060 a jak odłącze 2 monitor to mam tyle samo fps i nic nie nie zabiera XD

  • @jerekp
    @jerekp 2 дні тому

    2 monitory, najlepiej

  • @user-tc7oh1xw3l
    @user-tc7oh1xw3l 4 дні тому

    Trochę nie rzetelny filmik, moim zdaniem powinny być porównanie 3 konfigurację. Pierwsza obecną jako,,czołg ", druga lekko słabsza zaproponuje tu i3 i jakiegoś gtx-a, oraz coś najsłabszego np z kartą za powiedzmy 300 zl, prockiem takim nie za mocnym może 8 wątków 4 rdzenie. Różnica byłaby myślę zauważalna i trafiały test do szerszej publiki. Nie mierząc innych swoją miarą myślę że to może być ciekawy pomysł na powtórny materiał, może z zmaslo?

    • @user-tc7oh1xw3l
      @user-tc7oh1xw3l 4 дні тому

      Oczywiście proszę brać komentarz z lekkim dystansem specjalistą nie jestem od komputerów a materiał mi się podobał.

    • @omgoat
      @omgoat 2 дні тому

      @@user-tc7oh1xw3l ty madry jestes? takie starocie nikogo nie interesuja bo 4k nie odpala

  • @dantegamer9808
    @dantegamer9808 5 днів тому

    I Zmasło który dopiero wstał z łóżka 🤣🤣🤣🤣🤣

  • @desertvineyard
    @desertvineyard 4 дні тому

    Jak masz dobrego pcta ta nic ci nie zjada

  • @BRX_2137
    @BRX_2137 5 днів тому +1

    Ile zapłaciłeś dla Masła za zrobienie ci spotu reklamowego?

    • @TekTesters
      @TekTesters  5 днів тому +3

      Wszystkie karty mi ze studia zabrał za to :D

    • @Romek_S
      @Romek_S 5 днів тому

      @@TekTesters Pasjansa będzie układał, czy co? ;)

    • @TekTesters
      @TekTesters  5 днів тому

      @@Romek_S pająka 😁

  • @dariuszpodgorski6790
    @dariuszpodgorski6790 5 днів тому

    Jeden...QD-Oled G9 49cali.

    • @TekTesters
      @TekTesters  5 днів тому

      ale TEN jeden to robi za dwa, Panie :D

  • @boomer66
    @boomer66 5 днів тому

    3

  • @BRX_2137
    @BRX_2137 5 днів тому

    Nie wspominaj o tym czasie reakcji bo puryści się jeszcze odpalą.

  • @MarcinAltansukh
    @MarcinAltansukh 5 днів тому +1

    Zmaslo mnie tak przekonał ze odsubowałem i dałem suba jeszcze raz😁

  • @KrystekGamesOfficial
    @KrystekGamesOfficial 5 днів тому

    pierwszy

  • @kukiz2382
    @kukiz2382 2 дні тому

    Miało być a wpływie drugiego monitora na wydajność, a tym czasem ten film to reklama monitora... słabo

    • @TekTesters
      @TekTesters  2 дні тому

      Film ma 14 minut, z czego reklama monitora to niecałe dwie i możesz ją przedłużyć, bo są czasówki. Reszta to omówienie procedury i rzetelne testy. W czym problem?

  • @szymon4602
    @szymon4602 4 дні тому

    Test zupelnie z tylka. Testujecie zupelnie co innego niz w tytule i w pierwszych minutach. Gadacie zamiennie o wplywie wlaczonego monitora i wlaczonych w tle/nietle aplikacjach. Czemu jest taki chaos? Material powstal prawd. nawet be grama scenariusza. Nie wiadomo czy chodzi o jajko czy kurę. Czy film powstal, bo miala byc reklama monitora MSI, czy reklama to tylko efekt. Nie ma nic gorszego jak taka krypto reklama, ktora zaburza material.

  • @Adam-rt7vz
    @Adam-rt7vz 5 днів тому

    Ja nie marzyłem. Pozdrawiam