Słuchajcie, ważny komunikat! Niestety zbieg niefortunnych okoliczności spowodował, że ten film nie wygląda tak, jak wyglądać miał. Jakość jest znacznie poniżej tego, czego od siebie oczekuję, ale w związku ze zobowiązaniami, nie mogłem nagrać go ponownie i musiał on niestety wyjść w takiej formie, w jakiej go widzicie. Czynników było wiele, ale winą za taki rozwój sytuacji obarczam siebie, gdyż zostawiłem sobie za mało czasu na realizację filmu, który musi wyjść w określonym terminie. Przepraszam Was za tę gorszą jakość niż zwykle. Na pocieszenie, jutro będzie film w takim standardzie, do jakiego Was przyzwyczaiłem. Dzięki, że wpadliście i spokojnych Świąt! Zachęcam jeszcze do subskrypcji ➡ bit.ly/3lK7CYu I kliknięcia dzwoneczka 🔔 aby być na bieżąco z filmami. A tutaj promka partnera odcinka i karta, której użyliśmy do testów: Promocja ASUS ➡ pl.asus.click/Radeon_Promo Asus TUF Gaming Radeon RX 7600 XT OC ➡ pl.asus.click/Radeon_TekTesters
PCta mam od 1999 roku. W tym czasie najważniejszym upgradem dla mnie była przesiadka z HDD na SSD. Obecnie uważam że nastepnym kamieniem milowym sa monitory OLED
Pc mam rok krócej. Przesiadka z jedno-rdzeniowca x32 na core2duo/athlona64 x2 też dawała niezłego kopa. W warstwie oprogramowania pozytywnie również odebrałem przesiadkę z w95/98 na linię nt (2000/xp). Co do oledów, poczekamy jak stanieją, przestaną się wypalać. Producenci jeszcze przy tym grzebią :) Dyski ssd o pojemności poniżej 120gb padały swego czasu jak muchy. I o ile to nie magazyn na dane to można brać :)
@@marcinguzy Każda technologia ma wady wieku dziecięcego. Rzeczywiście w kwestii software, to prawda. Pamiętam jak wskoczyłem na 2000 a następnie XP to była zmiana. Co do procesorów to nie podzielam zdania. Na początku nikt nie potrafił wykorzystać ani 2 rdzeni, ani x64 - przynajmniej w grach :D. Zdaje sobie sprawę z wszystkich wad OLEDów, ale jak to mawiają, trumna nie ma kieszeni. Mam troszke grosika co mogłem przeznaczyć na OLED i padło na LG 27GS95QE-B. Monit ma wady, ale na serio jest wart każdej wydanej złotówki....
a co ten oled, zwykłe przesycone gówno które sie wypala, jedyne co ten ekran ma do zaoferowania to dobra czerń bo kolory to dla fanów przesyconych gówien typu samsung, dobry ips ma znacznie bardziej referencyjny obraz jak oled. No ale ludzie widocznie to lubią.
W tym roku przesiadłem się z monitora 768p TN na 1080 IPS 165 Hz. Różnica jest kolosalna. Nie sądziłem, że tyle tracę nawet jako niedzielny gracz. Siedzę 6-8h w tygodniu i za każdym razem jesten zajarany graniem.
Tak na prawdę, to jak się ma porządny monitor pod 1080p, to nie ma żadnej potrzeby przesiadać się na 1440p. Dziwne też wydaje mi się, kupowanie nowego monitora 1440p, tylko po to, żeby używać upscalingu w grach, zamiast natywnej rozdzielczości. To prowadzi do pogorszenia obrazu, zamiast do jego poprawienia. W efekcie, dostajemy taki sam obraz, jak na dobrym monitorze 1080p, tylko teraz nasz nowy monitor jest znacznie droższy... normalnie deal życia :)
Nawet upscalowane 1440p wygląda znacznie lepiej niż 1080p. Zwłaszcza w nowych grach, gdzie często domyślną metodą AA jest TAA i nie da się tego wyłączyć, wtedy DLSS wręcz poprawia jakość obrazu względem rozdzielczości natywnej z TAA.
@@stark_2991 Wciąż, różnica w obrazie, nie jest zbyt duża, zwłaszcza jeśli masz monitor 1080p z wyższej półki. Oczywiście przesiadka ma sens, jeśli masz wypasioną kartę graficzną, ale jak masz coś pokroju RX 6600/RTX 2060/RTX 3060 to taka przesiadka nie ma sensu. Poza tym, dochodzi koszt samego monitora, porządny monitor pod 1440p tani nie jest, tak na oko, 2x droższy od 1080p (zwłaszcza jak chcesz z wysokim odświeżaniem), pytanie więc, czy za 2x wyższą cenę, dostajesz 2x lepszy obraz?? Oczywiście, że nie, więc po co przepłacać :) No chyba że masz kupe kasy do wydania, to się baw, nikt ci nie broni :D
no ja niestety zostanę jeszcze długo w 1080p, mniejsze wymagania sprzętowe sprawiają że rzadziej muszę wymieniać części, jak się przestawię to raczej na 4k, a to jeszcze potrwa
W sterowniku można włączyć licznik klatek i ten wyświetla poprawną podwojoną liczbę klatek. Sprawdzone na RX 6700XT. Temat był szeroko omawiany na kanale Ancient Gameplays.
U mnie za 5 miesięcy wejdzie 7 rok z 2560 x1440 i 144 Hz na IPS. Zmieniłem na wyższą rozdzielczość, ze względu by nie zmieniać platformy LGA 1150 (Core 4 gen. z czasem z i5 do i7 4770K). Z Vegą 64 LC, monitor jest z Adaptive Sync, a że w 2017 r karty nVidia nie obsługiwały tej funkcji i dlatego wybrałem najmocniejszą kartę od AMD. Gry do 2020 r. działały całkiem, ale w nowszych zmiana ponad rok temu na Zen 5 z wspominaną kartą zyskałem sporo, bo w końcu 4 rdzenie obecnie to mało w porównaniu do sześciu. Na 6 lecie zmiany monitora w ubiegłym roku zmieniłem i kartę graficzną, bo Vega 64 LC (odpowiednik RX 6600 /RTX 2060 S) obecnie nadaje się do 1920 x 1080 na ustawieniach średniowysokich. Co do przyszłości w 4 k raczej nie będę wchodził, ze względu na wymagania od karty graficznej w takiej rozdzielczości.
@@TekTesters21:9 jako pulpit roboczy super. 35" i to trochę za duży monitor do pracy z tekstem zagęszczenie punktów na cal w granicach 100 to już dolna granica komfortu, w grach elegancko choć fakt rozdzielczość pożera FPSy. Generalnie to rozdzielczość raczej pod generację 40** a w zasadzie 50** u Nvidi. Mimo to polecam bo 4k to za dużo dla obecnych kart średniego i średniego niższego segmentu.
Fajny materiał Kamil jak zwykle, pozdrowionka! Ja siedzę na FHD 144 hz wraz z r7 7800x3d i rtx 4070s i tak sobie rozkminiam czy chcę przechodzić na 1440p. Moje oko przykuwa dużą uwagę do płynniejszej rozrywki w wysokim klatkarzu, więc ciężko jest mi zdecydować się czy warto przechodzić na ciut wyższą rozdzielczość kosztem niższej płynności
Nie wyobrażam sobie powrotu do 1080p. Nawet jak karta nie daje rady natywnie w 1440p to "teguje" sobie dlss w trybie jakość gdzie nie widzę absolutnie żadnej różnicy. Dlss i frame gen to fantastyczne opcje, ale szkoda, że są traktowane jako tania optymalizacja niż faktycznie pomoc do pchnięcia grafiki dalej.
Ja ostatnio wymieniłem na 27" 1440p 240hz. Przesiadka z esportowego Benq z matrycą TN i powiem że robi robotę, zarówno w esportowych gierkach jak i tych Triple A
@@tigerLDZja posiadam ten monitor tylko w wersji 32" od prawie roku. Jestem bardzo zadowolony i polecam w 100%. Jedyne do czego moge sie przyczepic to system ktory lubi sie czasem ladnie pobugowac lub zaczac lagowac.
raportuje się za pomocą nakładki wydajności radeon "ctrl shift o" w sterowniku w zakładce wydajność/wskaźniki->śledzenie ustawiasz co ma raportować i jak
Zaczynałem od (1996) 15` CRT wyciągał w 1024×768 100Hz, potem 19` TNT 75Hz w 1440×900, a następnie FHD w 27`TNT to był miód malina i to samo mam teraz na 32` 1440pVA zakrzywiony (oba monitory 144Hz). Dla mnie ważna jest wielkość "punktu" i oba ostatnie spełniają moje wymagania, większa rozdzielczość na mniejszej matrycy dla mnie jest nie wygodna(nieczytelna, za drobna). Co do sprzętu wychodzę z założenia, że należy wybrać największy monitor na jaki się ma miejsce i ewentualnie z chodzić z ustawieniami graficznymi danych gier. Porównanie gry na 27`(na max detalach) z grą na 32`z (na średnich ustawieniach) ma się nijak. Wielkość obrazu i przestrzeń robocza zwala z nóg, dlatego monitor kupuję raz, a dobrze, reszta i tak będzie kilka razy wymieniana. Co do odświeżania, to jest to odczucie osobiste, ja czuję dyskomfort gdy pracuję przy 60Hz 😒, za minimum dla mnie to 75Hz, a przy 100Hz moje oko odpoczywa😊. Oczywiście w grach to już inna sprawa ale to już było dużo razy poruszane. Pozdrowienia dla Stilgara robi bardzo dobrą robotę.
Bardzo dobry materiał. Dzięki. Siedzę na Full HD. Przesiadka na 2K wkrótce. Ale najpierw wymiana GPU. Pozdrowienia dla Stilgara, nie crobi matriał o monitorach 27'' :)
Ja się przesiadłem z 1920x1080p na 2560x1080p. Dla mnie fullhd na monitorze jest wystarczające, a zawsze mam dodatkowe FPS na zwiększenie detali w grach.
Mam małe biurko i siedzę blisko monitora. Niedawno poskładałem nową skrzynię. 5600x sparowałem z 6750xt i mój wybór padł na FullHD. Po przesiadce z 21" 60hz na 24" 165hz przez tydzień nie mogłem się na patrzeć jak to kozacko wygląda.
@@_nietypowy hmmmm mam 27" 240 hz i nie był to dla mnie efekt wow, raczej było coś w stylu no wydałem kasę i widać zmianę xD Czułbym się zawiedzony gdybym wydał kasę i nie zobaczyłbym żadnej równicy xD
1440p nie ma sensu jeśli tylko to ma nam się zmienić. Meine kolega miał FHD / 60Hz. Nie pytajcie mnie nie wiem dlaczego, przesiadł się na QHD / 165Hz. To wtedy miało sens (Choć ma na tyle silnego kompa że mógłby i 4K). W takim wypadku ma to jak najbardziej rację bytu ale jeśli mamy tylko zmienić rodzielczość to przepłacanie hajsu. Lepiej iść do burdelu i się zadowolić niż trwonić pieniądze.
@@Tombitp ja tam się z tym nie zgadzam chociaż sam korzystam z rozdzielczości 1440p bo żeby sobie komfortowo pograć w tej rozdzielczości nie trzeba mieć karty z najwyższej półki bo jednak do rozdzielczości 4k przyda się karta właśnie typu 4080 ti lub 4090 które są strasznie drogie, a do 1440p wystarczy karta 4070 lub 4070 super które są kilkukrotnie tańsze, a wyglądowo 1440p przebija 1080p kilkukrotnie. Chociaż ja też nie potrzebuje takiej samej wydajności jak w 1080p bo na takich kartach jak wspomniałem (4070 i 4070 super) różnica spadku przykładowo z 140 na 90 FPS nie jest widoczna gołym okiem w grach single, a wyglądowo sporo lepiej. Szanuje jednak twoją opinie :)
Spędziłem większość swojego życia na 1080p/60hz i kilka miesięcy temu skusiłem się na pewien monitor od LG 1440p/144hz polecany przez Stilgara. Nawet nie miałem pojęcia, że właśnie tego trzeba mi było. Dla moich oczu przeskok z FHD na WQHD i wyższe odświeżanie był istną przepaścią i w jakości obrazu zakochałem się już w pierwszych godzinach użytkowania. Nie wyobrażam sobie teraz zejść niżej.
Co do rozdzielczości w jakiej siedzę to jest to fullHD i nie zmienię jej zapewne nigdy, bo nie zmienię monitora na większy, a to z powodu powikłań po jaskrze, przez co mam mocno zawężone pole widzenia i co mi z większej powierzchni roboczej, jak widzieć będę tylko powiedzmy środek ekranu (no chyba, ze są monitory 21,5 cala 1440p to ja poproszę dwa na wynos). Co do zmian w wielkości to tak - popełniłem keidyś taki błąd, ale jeszcze w dawnych czasach, mianowicie przesiadając się z monitora 640x480 od razu na 1024x768, bo i specyfikacja komputera dawała radę max z 800x600, co nie do końca idealnie się skalowało. Ale i tak zmiana w jakości obrazu była odczuwalna, bo po pierwsze byłą to przesiadka z CRT na LCD i biurko było mi wdzięczne, bo mu odpadło z 8 kilo obciążenia jakoś, a i miejsca zrobiło się więcej, do tego przekątna z 15 cali podskoczyła do 17, no i nowy monitor obsługiwał 75 Hz zamiast 60 na starym. Niemniej pełnię jego możliwości zobaczyłem dopiero ze 2 lata później, gdy już natywnie grywałem w 1024x786 majac inną jednostkę.
Ponieważ gram tylko w WoTa najpierw zmieniłem kartę z dwóch GTX 460 w SLi na GTX 1050Ti potem przesiadłem się z 27''LG na 32"AOC i gram w 1440p teraz mam GTX 1650(miałem 1660Ti ale zabiłem ją przypadkiem podczas wymiany platformy)....klatki zablokowane na 75fps i naprawdę rzadko spadają poniżej tej wartości...procek Ryzen 7 5700X i ram 32GB 3600.
Na WQHD przesiadałem się od 2014 roku, wymieniając monitory do pracy i rozrywki na 2x IPS 27" + 1x VA 31.5" - Lightroom, Photoshop, postprodukcja filmów, itp. Miałem też inne monitory, łącznie z TN, ponieważ często musiałem optymalizować paletę barw. Mój dobór rozdzielczości był definiowany wielkością pikseli, dlatego do dziś dziwi mnie kupowanie monitora 21" 4K. Przesiadka z 21" czy nawet 24" FullHD na 27" QHD miała i ma nadal sens, i oczywiście widzę różnicę, stawiając dwa tej samej wielkości monitory obok siebie, o różnej rozdzielczości, ale chyba nie o to w tym wszystkich chodzi? Dla mnie czasy się zmieniły tylko o tyle, że obecnie, jeden monitor ma żona, drugi córka, trzeci druga córka, a ja... męczę się na 21" 1680x1050 i w takiej też rozdzielczości oglądałem ten film :) Do dużego się człowiek łatwo przyzwyczaja, gorzej w drugą stronę. Przed COVID-19 zrobiłem nawet doświadczenie, puszczając film z projektora na ekran ~100", gdzie pierwsza część była wyświetlona projektorem 4K skalowana ze źródła 2560x1440, a druga część tego samego filmu projektorem 1280x720. Nikt się nie połapał przy odległości 3,5m od ekranu. Tak, wiem,to akurat światło odbite więc też działa nieco inaczej. A co do ilości FPS, to i tak nie ma to większego sensu. Według najnowszych badań, z tego roku (2024), najnowszymi dostępnymi technologiami, to nawet jeśli jesteś młodą kobietą, to nic powyżej 40fps twój mózg nie zarejestruje, podobnie jak kolejnych bilionów barw. Inna sprawa, że niektóre algorytmy gier mają specjalnie tak ustawioną synchronizację, by dawać owe uczucie. Mało kto pamięta, że owe klatkaże były wymuszone częstotliwościami prądu w sieci elektrycznej, i że stosowane były zabiegi wyświetlania co drugiej linii, ale dziś nie mamy kineskopów, tylko matryce utrzymujące stan do kolejnej zmiany. The show must go on, a kasa korporacji zgadzać, więc tych, co włączają synchronizację monitorów na sztywno i ilość klatek na 50 lub 60fps, najchętniej posłali by na stos :) To samo dziś jest z aparatami, gdzie wydrukowane zdjęcie starą lustrzanką 5Mpx a nową 50Mpx jest nie do odróżnienia. Pomijam fakt, że z tego drugiego da się łatwiej uzyskać inny kadr, ale jeśli dobrze wykonamy zdjęcie, to efekt jest nie do rozpoznania nieuzbrojonym okiem. Technologia już lata temu prześcignęła próg ludzkiej fizyczności, a czymś trzeba napędzać konsumpcjonizm.
Zakup dużego monitora 4k do filmów i zmiana rozdzielczości w grach na fhd czy 2k ma sens czy nie jest to dobre rozwiazanie? Pytam bo widziałem ,że sobie zmieniłeś w cyber punku rozdziałkę i bez problemu śmiga , więc skoro kupujemy monitor na lata to zakup takiego 4k może być wyborem właśnie na lata tak?
Dochodzi jeszcze obsluga gsync/adaptive sync gdzie zakres zaczyna sie najczesciej od 48 fps zeby to dzialalo....A i jeszcze jest kwestia ze AOC ma w ofercie monitor 24 cale 1440p. Mysle ze to spoko opcja bo w razie czego mozna przeskoczyc na 1080p i miec standardowe 24 1080p
Pierwszy monitor z 1440p 27" kupiłem w 2016 roku jak tylko zaczęły się pojawiać w rozsądnych pieniądzach. Od tamtego czasu często z bólem serca pracuje mi się na fhd jeśli sytuacja tego wymaga.
Jak ktoś całe życie kupuje karty ze średniego segmentu to nie ma sensu zmieniać rozdzielczości monitora. Ładnie zostało to pokazane. Było ponad 60fps w 1080p a w 1440p ledwo 40 fps i zamiast karty za 1600 - 1700 zł trzeba kupić taką za 2000 - 2300 zł.
Zrobiłem podobnie. Przesiadłem się z FHD 27 cali na UHD 32 cale i nigdy nie wróciłem do innej rozdzielczości natywnej monitora (nie, nie mam 4090). Utrata ostrości/jakości obrazu w grach związania z niepełnym skalowaniem do 1440P, nie jest dla mnie aż tak istotna (pewnie dlatego, że PPI dla FHD przy 27 calach i 1440P dla 32 cali jest identyczne, a monitor też sam potrafi wyostrzyć to i owo niwelując problemy niepełnego skalowania - po prostu nie zauważam różnicy). Za to UHD oferuje dużą przestrzeń roboczą i chociażby możliwość oglądania materiałów video (np. takich jak ten :P ). W skrajnych przypadkach, UHD skaluje się całkowicie do FHD (tylko PPI drastycznie niskie i trzeba siedzieć dalej ... np z PADem).
Ja popełniłem błąd kilka lat temu, jak wybrałem monitor FullHD 27 cali zamiast 24, i co prawda do teraz mi służy, ale pluję sobie w brodę i następny będzie o rozdzielczości 1440p 27 cali/zaszaleję i wezmę 4K 32 cale. Wesołych i spokojnych świąt! PS Pozdro dla Stilgara ✌️
Już dawno przesiadłem na 1440p jest mega różnica kupiłem sobie samsung odyssey g5 32" 144hz i jestem bardzo zadowolony syn też ma taki a młodszy syn ma Monitor HP 27xq 27" 144Hz i powiem że to super monitor i ma super regulacje
Będę w mniejszości, ale mi wystarcza FHD, nie lubię wysilać podzespołów. Nawet kilka miesięcy temu kupiłem Gigabyte G27F 2, ale niestety wyskoczyły jakieś kreski i będę musiał zareklamować.
Na początku filmu powiedziałeś że lubisz serię 7600 od amd. A co powiesz na temat karty również od amd ale 6750xt ? Powoli zbieram części do swojego nowego PC i zastanawiam się nad tymi dwiema kartami. W testach 6750 wypada lepiej ale jest już leciwą konstrukcją, myślisz że warto iść w ten model ? Pozdrawiam.
Ja posiadam aktualnie monitor AOC 24V2Q z Full HD i 75 Hz. Jak zacząłem testować monitory z wyższym odświeżaniem na moim kanale to dopiero złapałem się za głowę i nie mogłem uwierzyć dlaczego wcześniej nie kupiłem lepszego monitora - po prostu głupi byłem, jednak parę lat temu były droższe. Teraz się zastanawiam między AOC 24G4X Full HD z 180Hz a Q27G4X z QHD 180 Hz. Jeden testowałem monitor u siebie i spodobał mi się. Mam dylemat który wybrać. Z jednej strony wybrałbym 24 cale bo w zupełności wystarczy i jest idealny do mojego małego biurka a to tego posiadam RTX 3060 Ti oraz Ryzen 7 5700X. Z drugiej strony gdybym brał 27 cali to już bym miał na przyszłość monitor i bym nie musiał zmieniać tak szybko, jednak ilość klatek miałbym mniej w grach. Zobaczę jak dostanę ten drugi na testy to sobie porównam i wtedy zdecyduję, który mam wziąć. Pozdrawiam 🙂
Przy budowie kompa jakieś 1.5 roku temu miałem ten sam dylemat. Wszyscy odradzali przejścia na 2K przy RTX 3060, ale i tak postanowiłem zaryzykować. Wszystkie gierki są całkowicie grywalne, oczywiście tytuły AAA na Ultra z RT nie przechodzą bo klatki lecą na łeb, ale realnie nie spotkałem gierki która by zmiażdżyła ten zestaw pomimo tego, że 3060 nie jest nawet stworzona do tej rozdziałki. Gry typu WoT, LoL, CS2 chodzą idealnie. Hogwarts Legacy czy Cyberpunk już gorzej bo tutaj RT musi być załączony na low, ustawienia mieszane, ale w gruncie rzeczy Ultra. Tak czy siak dla gracza, który lubi ładnie i płynnie polecałbym 1440p dopiero od 3070Ti/4070 tak, żeby nie musieć rezygnować z lepszych ustawień graficznych. Jeżeli jednak tytuły AAA nie są priorytetem to nawet na tym waflu czyli 3060 idzie grać/pracować bez żadnych problemów.
Warto zaznaczyć, że w opisie technologii fluid motion jest napisane, że ilość "wygenerowanych" klatek jest poprawnie widoczna korzystając ze wskaźników z poziomu sterownika AMD. Z tego względu, korzystając np. z Rivia Tuner (instalowane z MSI Afterburner) różnice mogą być niewidoczne - co nie oznacza, że ich nie ma ;)
Posiadam RX 6700XT, kartę na której spokojnie mogę zagrać w 1440p, ale niestety z racji małej przestrzeni roboczej jestem zmuszony grać na 24" monitorze FullHD 75Hz. Ta rozdzielczość jest dla mnie w pełni wystarczająca i póki co nie mam zamiaru przechodzić na wyższą.
Świetny i bardzo ciekawy film, aż zasubskrybowałem twój kanał👍Planuję kupić monitor 1440p 27 cali, aktualnie używam samsunga 24 cale 1080p. 27 cali 1440p to dla mnie takie optimum jeśli chodzi o monitory, większego nie potrzebuję. Pozdrawiam Stilgara!
@@gureedoteam5632 co Ty gadasz różnica między 1440 a 1080p jest ogromna ;) dla mnie 1080p już nawet na 24 calowym ekranie jest niegrywalne bo mogę liczyć piksele na placach jednej ręki 😅
Popełniłem dokładnie ten sam błąd, z 1080p 60Hz przesiadłem się na 4k 60Hz, ale naprawiłem swój błąd i przeskoczyłem na 1440p 165hz, to było już 4-5 lat temu. Teraz marzy mi się OLED coś pomiędzy rozciągniętym 1440p w proporcjach 21:9 165hz
A co myslisz o przesiadce z 27” 1080p na 32” 1440p? Czy lepiej pojsc juz w 32” 4k czy moze 27” 1440p? Karta obecnie to 6700xt ale przymierzam sie do zmiany na 4070 super.
ja posiadam 6700xt i 32 1440p 170hz. Karta jeszcze daje radę. Ale zależy w co się gra i jakie ma się oczekiwania. Też miałem zmieniać na 4070 super. Ale poczekam na kolejną generację. Bo póki co na wydajność nie narzekam.
@@tomaszcsmn.2640 no monitor mam juz pewnie z 10 lat. Kiedys to chyba byl taki standard, ogolnie fajne skalowanie bo na 100% dobra wielkosc jest ale czcionka troche poszarpana.
Ja mam dosyc stary PC. CPU fx8300 i RX580 8GB. Uzywam ekranu 1440p i dziala to zaskakujaco dobrze. W moim przypaku zejscie na 1080p strawia ze CPU staje sie botleneckiem i fps spada :D Ogolnie do gier jest sztos. Ale np netflix nie wspiera 1440p i czesto fiilmy wygladaja bardzo zle. Wydaje mi sie czy 1080p wygladalo by lepeij na ekranie 4k niz na 1440p ?
Gdzieś w 2018, z gtx 1060, przesiadłem się z 2K na FHD. Wzrost wydajności był spory. Karta wystarczyła na kolejne 2 lata. Jakość natywnego FHD bije na głowę skalowane FHD na 2K. Być może dziś z DLSS jest to mniej problematyczne.
Pozdro dla Stilgara i dla Ciebie! ;) Właśnie zbieram kasę w celu przesiadki na 1440p :) Stilgar jakiś czas temu zawrócił mi w głowie monitorem IIYAMA GCB3480WQSU-B1 34" 21:9 :D Liczę, że moja 3070 Ti podoła:D
Hardware w mojej ocenie nie jest gotowy na 4k. Również siedzę na 1440p i dla tej rozdzielczości optymalna wydaje się moja GPU tj. 7900xtx. Dopiero na tego rodzaju sprzęcie jestem w stanie dobić fps do możliwości monitora (165hz), a i to w niektórych tytułach okupione jest niska kultura pracy GPU. Na tej właśnie podstawie twierdzę, że na najnowsze tytuły w 4k, hardware nie jest gotowy. Cieszę się że przy zakupie monitora wybrałem 1440p, zamiast wyższej rozdzielczości, bo bym się zwyczajnie męczył i wkurzał, że mam zbyt słaby sprzęt. Mimo że jest to najlepszy sprzęt jaki obecnie mogę kupić od AMD. Z tego powodu wkurza mnie marketing producentów kart, te 60fps w dzisiejszych czasach to naprawdę jest bieda, a nie osiągnięcie ;(
to że 60hz to kaszana to wina technologi LCD/OLED itd 60Hz na CRT to zupełnie dwa różne światy zero laga, obraz w ruchu jak żyleta nawet wywijając myszką po całym blacie.
Na moim LG 27gp850 bardzo dobrze skaluje się rozdzielczość HD. Do tego stopnia, że wygląda lepiej niż na monitorze HD. Dobra furtka tam gdzie brakuje wydajności, choć ze względu na duży rozmiar matrycy preferuję grę w trybie okienkowym 2050x1300 co pochłania tylko 10% więcej mocy niż HD. Na szczęście dzisiejsze monitory mają już dość dobry czas reakcji matrycy więc można myśleć o wymianie monitora, ale bez tego argumentu przesiadka na wyższą rozdzielczość była by nieopłacalna.
Przesiadłem się z 25' 1080p na 32' 2160p. Moim zdaniem trochę przedobrzyłem bo ogranicza mnie karta, ale skok w ostrości i jakości obrazu jest po prostu niewyobrażalny. Chociaż mnie to aż tak nie boli bo mam pokaźną kupkę wstydu ze starszych gier do ogrania. W bardziej podbramkowych sytuacjach ratuje się FSR i zbijaniem AA na niższe ustawienia (wbrem ludowej mądrości co je możecie wyczytać w internecie AA nawet w 4k jest ciągle potrzebne, ale mniej więc ustawiam je na minimum). W ogóle temat optymalizacji ustawień pod 4k jest ciekawy bo wbrew pozorom nie zachodzi tu prosta zależność FPS4k = FPSFullHD/4.
Jeśli chodzi afmf, u mnie wskakuje bez minimalizowania gry. Działa dość dobrze ale zbyt duże opóźnienie. U mnie przy ok. natywnych 60 FPS podbija do ok 120 ale przy 30 ms opóźnienia. Co jest wyczuwalne, szkoda że nie ma suwaka żeby np dokładało co 4 klatka przy mniejszych opóźnieniach. Wtedy bym używał.
Przy sterownikach AMD, jak się włączy wbudowany w adrenaline monitor, to wtedy można śmiało zobaczyć monitorowanie procka, karty, pamięci i FPS. Jedyny problem, jaki mi się czasem zdarza z tym wbudowanym miernikiem od AMD to to, że mi czasem nie pokazuje taktowania procka i temperatury, i muszę go resetować by poprawnie pokazał. Ja poszedłem w 4K, tyle że 28 cali, bo jednak nieco mniej miejsca było i bym się jeszcze nie zmieścił cenowo w moim zestawie, na początek 60 Hz mi w 4K styknie. Jak technologia będzie bardziej przystępna cenowo, to zmienię na coś mocniejszego.
Faktycznie jeśli chodzi o wygląd systemu, aplikacji, czcionek, zmieniając z natywnej 1440p do 1080p, widać rozmycie. Jednak jak testowałem to w Baldur's Gate 3, nie zauważyłem różnicy w jakości obrazu, więc może w grach jednak inaczej to działa? Testowane na ekranie laptopa z taką samą kartą jak w filmiku (jednak wersja mobilna, więc trochę mniej wydajna, ale i tak jest OK).
Zamówiłem matryce do laptopa która zalałem . Ta okazała sie 1440 p . Obraz jest o niebo lepszy ale FPSy spadły i to o 1/4 . Wcześniej miałem 1080. Karte w lapku mam GTX 1060 i daje rade . CS GO około 110 kl/s na wysokich.
Zrobiłem ten sam błąd, co Kamil - przesiadka z 1080p na 4k. Gdybym mógł cofnąć czas, to faktycznie 1440p byłoby lepszym wyborem. Teraz szkoda dobry monitor sprzedawać za półdarmo. Jednak nie jest tak źle - właściwie wszystkie gry udaje się grywalnie odpalić w 4k. Monitor ma świetną paletę barw, ale niskie odświeżanie - 60Hz, więc przy synchronizacji 60 klatek jest osiągalne na 3060Ti GDDR6X. W nowszych grach trzeba nieco zejść z ustawieniami, ale z DLSS/FSR niewiele. Obraz piękny np. w God of War, AC Valhala, Wiedźmin3 - 4k na 60Hz bez zarzutu; grywalność też. Aplikacji szczególnie wyszukanych nie używam, ale faktycznie skalowanie potrafi być irytujące.
Nie - monitor kupiłem dużo wcześniej; żeby było ciekawiej - do 1060. Jednak wówczas nie zależało mi na graniu, tylko na innym hobby - malarstwie i tu paleta barw była kluczowa (wyświetlanie obrazów, nie przetwarzanie). Później wzięło mnie trochę na giercolenie i kupiłem 3060 Ti, bo wyższe modele były w całkiem kosmicznych cenach.
Ja siedzę na 2 monitorach 1440p w proporcjach 16:9 i 21:9 ale posiadam jedynie kartę gtx 1660S. Jeśli gra daje mi chociaż te 40 klatek to gram w takiej rozdzielczości, jeśli nie to zmuszony jestem grać w FHD, bądź korzystam z GFN w wersji founders, gdzie też jest FHD, ale przynajmniej mogę ustawić lepszą jakość grafiki.
aktualnie mam laptopa z 4060 ktory ma ekran 2k i zastanawiam sie nad wiekszym ekranem, myslalem o wielkościach 24-27 i wacham sie nad rozdzielczościa 1080p a 2k czasami pogram sobie na podzielonym ekranie wiec wiekszy ekran był by dobrym wyborem, jednak nigdy nie korzystałem z 27 cali aktualnie mam tv 40 cali 60hz full hd jednak granie na nim to udręka jest za duży / pixeloza i 60hz kłuje w oczy. czy 27 cali na 1080p był by kiepskim wyborem ? troche sie obawiam że niektóre gry nie pociągnał na 2k
ja mam 27 cali 1080p, jak dla mnie w grach i filmach bez różnicy, jedynie jak się trochę przybliżę do monitora podczas czytania tekstu to 24 wypada trochę lepiej
Ja wymieniałem 1080p na coś lepszego i w sumie nie mogłem się zdecydować w którą stronę iść - UWQHD 34" czy 4K 32". Ostatecznie wybrałem monitor 21:9 i nie żałuję. Jakbym wybrał ten drugi, to pewnie też bym nie żałował.
Grając na ps5 cenię sobie rozdziałkę 4k przy 49 calach telewizora ale do użytkowania/grania na PC - monitor 1440p w zupełności mi wystarcza 😊 Pozdrawiam Stilgara 😁
No właśnie w połowie się zczaiłem, że coś tu nie tak. Nie wiem o jakiej jakości tutaj mowa, której rzekomo brakuje, ale ja zwróciłem uwagę na to, że film jest głównie na temat systemów AMD, jak podbić wydajność i ilość FPS. Dziwny tytuł filmu... Mam wrażenie, że trochę na siłę podciągnięcie tematu z oczywistą odpowiedzią pod tematykę AMD i tych dobroci, które oferuje w celu podbicia wydajności w grach ;)
Ponieważ jest sponsorowany przez AMD - zauważ, że nawet nie wypowiedział słowa NVIDIA tylko z delikatnym zastanowieniem "konkurencja od zielonych" :) Lubię oglądać filmy na temat testów i wydajności nowych technologii, ale zawsze trzeba mieć z tyłu głowy czy to jest w 100% niezależna opinia. Do Kamila i kolegów z innych kanałów nic nie mam, robią świetną robotę pokazując rzetelne testy i o to chodzi, ale zarabiać też muszą na swoje rodziny i głupio byłoby odmówić, a wnioski jaki sprzęt wybrać trzeba samemu wyciągnąć :) Niestety w tej branży nawięcej zarabia się przez dobry marketing, bo komputer ma każdy, ale niewiele osób potrafi go wybrać dla siebie w dobrym stosunku cena-wydajność pod konkretne przeznaczenie.
Mam 1440p ze względu na fakt że 4070Ti już dobrze sobie radzi z 1080p... No i... 4K by się przydało przy tych 27 calach, ale jest wystarczająco dobrze żeby nie narzekać jak to występowało (rzadko, ale było) przy 1080p ze względu na screendoor effect
Kupiłem 3 lata temu 1440p 170hz 27" do tego szeroki gamut. Zamierzam orzrz kolejne kilka lat korzystać az OLED z 240 hz 2k o proporcjach przynajmniej 21/9 nie będzie kosztować za duzo
3060Ti i monitor główny 4k też da radę. Tylko irytuje mnie 1 rzecz, statyczne obiekty (np. licznik, pasek przeglądarki) odciskają się na jakiś 3cm od krawędzi. Taka budżetówka. Zastanawiam się nad 27M1N3500LS (też budżetowo, niestety mniejsza rozdzielczość, ale miejsca na biurku nie przybywa)
W praktyce 1080p źle wygląda na monitorach o przekątnej większej niż 24". Poza tym w nowych grach nie ma sensu ustawiać ręcznie niższej rozdzielczości. Zamiast tego korzystaj z DLSS/FSR. W 4K DLSS w trybie Performance renderuje obraz w 1080p, ale dodatkowo jest on poprawiany przez algorytmy i wygląda znacznie lepiej niż takie ręcznie ustawione 1080p.
@@TekTesters Póki co jestem nastawiony w kierunku Iiyamy. iiyama G-Master G2770QSU-B1 lub G-Master GB2770QSU-B5. Aktualnie mam od nich GB2570HSU i jestem bardzo zadowolony. Zastanawiam się właśnie czy może nie lepiej od razu 32" zamiast 27" ale ciężko mi to ocenić.
Jestem posiadaczem KTC H27T22 i muszę przyznać, że bardzo fajny monitor. Chyba największym jego plusem jest cena. Jednak chętnie obejrzę jego recenzję od Stilgara
Jak korzystam z monitora 1080p z włączoną funkcją DLDSR w sterowniku Nvidia, skalującą wyświetlanie rozdzielczości do 1440p. Dla mnie obraz jest wyraźnie lepszy i nie mam większej potrzeby wymieniać na nowy monitor.
Dla mnie problemem nie jest wydajność, tylko pamięć vRAM. RTX 3080 10GB zupełnie nie radzi sobie na monitorze 3440x1440. A ja głupi dałem za nią półtorej roku temu 4500zł
Poniekąd można powiedzieć że każda karta jest do FullHD bo tylko chyba 4090 i 7900 są wstanie dać natywny obraz 4k itd w rozsądnym klatkażu. Do tej pory gdy włączam DLSS czuje się oszukiwany. W metro exodus na DLSS niebyłe w stanie korzystać z dziennika bo napisy były rozmazane. Natywna rozdzielczość to natywna rozdzielczość.
Gram teraz w Metro Exodus w wersji EE (gdzie jest już DLSS 2.x, w wersji podstawowej było DLSS 1. generacji - tragedia) i bardzo dobrze to wygląda, a jestem wyczulony na mydło w grach.
Jeśli chodzi o raportowanie klatek z afmf to sterownik AMD ma nakładkę do pokazywania FPS i ona poprawnie raportuje te klatki. Co do samego afmf to fajna funkcja, ale moim zdaniem trzeba mieć i tak 40fps+ bez niej, żeby jakoś to działało. Gram w wiedźmina (dx12) w 4k na Uber z fsr i używam afmf z poziomu sterownika bo gram na tv 144hz z vrr i ta funkcja robi robotę i w wiedźminie działa ok, w Hogwarts legacy też. Jedyne co zauważyłem na minus to afmf z poziomu sterownika nie radzi sobie z Ray tracingiem, jak włączymy Ray tracing to gra chodzi lepiej bez afmf niż z nim. Ogólnie jak ktoś gra na tv 4k i grafika mu trochę nie wyrabia w 4k z fsr to polecam rozdzielczość 3200x1800 z fsr, nie wygląda to dużo gorzej, a jest zauważalnie płynniej, przy 1440p na dużym tv już widać gorszą jakość, a 1080p nawet natywne to już jest pikseloza.
U mnie osobiście zmiana kompa na nowszy = pójście krok w przód z rozdziałką. Komp z 2013 roku to było przejście na Full HD, komp z końcówki 2018 to było przejście na 1440p a następny PC którego złożę w przeciągu mniej więcej 2 lat to będzie UWQHD lub 4K.
Jako, że gry to medium, w którym występuje dużo ruchu, z którym wchodzimy w interakcję osobiście wolę mieć te powiedzmy 100fps w 1080p niż 60fps w 1440p. Co z tego, że statyczny obraz na wyższej rozdzielczości wygląda lepiej, ale w grę gramy, ruszamy kamerą, a nie stoimy wpatrując się w jeden punkt, a im więcej fps ten obraz w ruchu jest ostrzejszy i ładniejszy.
Slogan 4k tyczy się głownie konsol a nie PC bo rozdzielczość koreluje z rozmiarem monitora, jeżeli ktoś zostaje na 24 calach to nie ma sensu by zwiększać rozdzielczość obraz tak czy siak będzie ostry a wymagania mniejsze, wraz z wzrostem przekątnej musi iść wzrost rozdzielczości 27 to taki idealny rozmiar do 1440p, dla 4k to jak autor mówi 32+ tylko że monitor to nie jest telewizor, wiele gier takich jak StarCraft, LoL CS lepiej sprawują się na matrycy 24 calowych, mój 27 jest za wielki więc jaki jest sens przesiadać sie na 4k? Moim zdaniem żaden, tak jak na samym początku napisałem inaczej ma się sprawa z 4k i 55 calowym telewizorem tam widać różnice gołym okiem. Ludzie poniżej piszą że przeskok jest ogromny ale w olbrzymiej mierze jest to spowodowane nie wzrostem rozdzielczości tylko wymianą samego panelu na nowy bo 10 letni dogorywający monitor na matrycy VA nie będzie miał podjazdu do nowego nano IPS.
15 lat temu w lokalnym sklepie komputerowym rodzice kupili mi pierwszy komputer z największym monitorem jaki tam był. LG flatron w2242T, czyli 22" 1680x1050 i 60hz. Nadal na nim działam i jest wystarczający dla obecnego gtx 1650 super. W planach mam w tym roku wymienić procesor ryzen 3 3100 na 7 5800x3d. A dopiero w następnym roku zmiana monitora na 1440p.
Wcześniej miałem 24' w Fhd, wielkość optymalna, ale chcialem podbić rozdzielczość. Ostatecznie kupiłem 2k ale w 27'. Niby fajnie, ale choć mam go już kilka ladnych miesięcy i cały czas wydaje mi się za wielki... Czemu nie kupiłem 24' 2k? Praktycznie nieosiągalne. A jak są to w zaporowych cenach. Nie wiem czemu producenci nie oferują 24' z takimi matrycami, a już w 4k bez problemu. Pozdrawiam.
Ja też kupiłem 27 cali, ale z rozdzielczością 4K i tak samo jak dla ciebie - był dla mnie za wielki. To już nie jest monitor, a telewizor... Niekomfortowo się tego używa z tak bliskiej odległości jak się siedzi przy biurku. Bardziej męczy oczy, ciężko ogarniać to co się dzieje na rogach ekranu w grach, bo jest to po prostu zbyt duże. Na dniach wracam do 24 cali. Niestety wybór nie jest zbyt duży bo są albo delle 24 cale 1440p i 60Hz za powyżej 1000zł, albo iiyamy 1440p, 100Hz za 800zł.
O czym ty chłopie mówisz jakby w 3 minucie od razu stawiasz tezę xD Przesiadka z 24 cali full hd na 27 cali 1440p to na prawdę duża zmiana w grach zwłaszcza w teksturach lepszej jakości i obraz jest znacznie ostrzejszy.
"Naprawdę duża zmiana"?? chyba na wypasionych kartach :) Na większości kart, do płynnej rozgrywki będzie potrzebny upscaling, a to już pogorszy obraz. Może się więc nagle okazać, że obraz na monitorze 1440p, będzie bardzo podobny do tego z 1080p :)
ja myślę że wystarczyło podać równanie że 1440p jest o ileś procent bardziej gęste niż 1080p i karta graficzna też musi być o ileś procent mocniejsza i materiał można było zrobić w 5 minut
Bzdurki piszesz, PPI jest zależne od rozmiaru ekranu również a nie tylko rozdzielczości, można mieć takie samo PPI w monitorze 32 cale 1440p jak i 24 cale 1080p i to jest mega komfortowa kombinacja jak dla mnie, co do wydajności to tak, ale to też zależy. Taka porcja wiedzy może być jadnak dla kogoś wartościowa.
@@gracjans815 Problem w tym, że nie istnieje. W niektórych grach spadek liczby klatek (na tych samych ustawieniach i na tym samym GPU) w 1440p wzgledem 1080p wynosi 20%, a w innych 40 czy 50%.
Słuchajcie, ważny komunikat!
Niestety zbieg niefortunnych okoliczności spowodował, że ten film nie wygląda tak, jak wyglądać miał.
Jakość jest znacznie poniżej tego, czego od siebie oczekuję, ale w związku ze zobowiązaniami, nie mogłem nagrać go ponownie i musiał on niestety wyjść w takiej formie, w jakiej go widzicie.
Czynników było wiele, ale winą za taki rozwój sytuacji obarczam siebie, gdyż zostawiłem sobie za mało czasu na realizację filmu, który musi wyjść w określonym terminie.
Przepraszam Was za tę gorszą jakość niż zwykle. Na pocieszenie, jutro będzie film w takim standardzie, do jakiego Was przyzwyczaiłem.
Dzięki, że wpadliście i spokojnych Świąt!
Zachęcam jeszcze do subskrypcji ➡ bit.ly/3lK7CYu
I kliknięcia dzwoneczka 🔔 aby być na bieżąco z filmami.
A tutaj promka partnera odcinka i karta, której użyliśmy do testów:
Promocja ASUS ➡ pl.asus.click/Radeon_Promo
Asus TUF Gaming Radeon RX 7600 XT OC ➡ pl.asus.click/Radeon_TekTesters
Ziom - jest GIT! Jakość 4K i widać padający deszcz w CP i drobinki kurzu na podstawie monitora :D
Ale ze chodzi ci o to że musiałeś obniżyć jakoś puszczając w materiale te parę sekund z Forespoken? Jakoś dałem radę ^^ Dzięki za ciekawa analize^^
Jakbyś nic nie napisał to bym nawet nie zauważył.
Szczerze nie zwróciłem na to nawet uwagi bo merytorycznie usłyszałem to co chciałem, każdemu się może zdarzyć.
PCta mam od 1999 roku. W tym czasie najważniejszym upgradem dla mnie była przesiadka z HDD na SSD. Obecnie uważam że nastepnym kamieniem milowym sa monitory OLED
w pełni się z tobą zgodzę, monitory/tv oled to rewolucja, dziś robią tak dobre wrażenie jak plazmy w 2010-14, wspaniała jakość w każdym aspekcie
Pc mam rok krócej. Przesiadka z jedno-rdzeniowca x32 na core2duo/athlona64 x2 też dawała niezłego kopa. W warstwie oprogramowania pozytywnie również odebrałem przesiadkę z w95/98 na linię nt (2000/xp). Co do oledów, poczekamy jak stanieją, przestaną się wypalać. Producenci jeszcze przy tym grzebią :) Dyski ssd o pojemności poniżej 120gb padały swego czasu jak muchy. I o ile to nie magazyn na dane to można brać :)
@@marcinguzy Każda technologia ma wady wieku dziecięcego. Rzeczywiście w kwestii software, to prawda. Pamiętam jak wskoczyłem na 2000 a następnie XP to była zmiana. Co do procesorów to nie podzielam zdania. Na początku nikt nie potrafił wykorzystać ani 2 rdzeni, ani x64 - przynajmniej w grach :D. Zdaje sobie sprawę z wszystkich wad OLEDów, ale jak to mawiają, trumna nie ma kieszeni. Mam troszke grosika co mogłem przeznaczyć na OLED i padło na LG 27GS95QE-B. Monit ma wady, ale na serio jest wart każdej wydanej złotówki....
a co ten oled, zwykłe przesycone gówno które sie wypala, jedyne co ten ekran ma do zaoferowania to dobra czerń bo kolory to dla fanów przesyconych gówien typu samsung, dobry ips ma znacznie bardziej referencyjny obraz jak oled. No ale ludzie widocznie to lubią.
Ten 1 ziomek co kupił monitor 2k żeby mu sie lepiej z 720p skalowało
😆😆😆
Ja z rtx 3090 oraz monitor lg24gm77 tn
To jest dobry trop. Miałem wątpliwości przy kupowaniu, a tak to i na starość da radę
A no tak 720p razy dwa to 1440p
Ja bym tak zrobił
W tym roku przesiadłem się z monitora 768p TN na 1080 IPS 165 Hz. Różnica jest kolosalna.
Nie sądziłem, że tyle tracę nawet jako niedzielny gracz. Siedzę 6-8h w tygodniu i za każdym razem jesten zajarany graniem.
Tak na prawdę, to jak się ma porządny monitor pod 1080p, to nie ma żadnej potrzeby przesiadać się na 1440p. Dziwne też wydaje mi się, kupowanie nowego monitora 1440p, tylko po to, żeby używać upscalingu w grach, zamiast natywnej rozdzielczości. To prowadzi do pogorszenia obrazu, zamiast do jego poprawienia. W efekcie, dostajemy taki sam obraz, jak na dobrym monitorze 1080p, tylko teraz nasz nowy monitor jest znacznie droższy... normalnie deal życia :)
Nawet upscalowane 1440p wygląda znacznie lepiej niż 1080p. Zwłaszcza w nowych grach, gdzie często domyślną metodą AA jest TAA i nie da się tego wyłączyć, wtedy DLSS wręcz poprawia jakość obrazu względem rozdzielczości natywnej z TAA.
@@stark_2991 Wciąż, różnica w obrazie, nie jest zbyt duża, zwłaszcza jeśli masz monitor 1080p z wyższej półki. Oczywiście przesiadka ma sens, jeśli masz wypasioną kartę graficzną, ale jak masz coś pokroju RX 6600/RTX 2060/RTX 3060 to taka przesiadka nie ma sensu. Poza tym, dochodzi koszt samego monitora, porządny monitor pod 1440p tani nie jest, tak na oko, 2x droższy od 1080p (zwłaszcza jak chcesz z wysokim odświeżaniem), pytanie więc, czy za 2x wyższą cenę, dostajesz 2x lepszy obraz?? Oczywiście, że nie, więc po co przepłacać :)
No chyba że masz kupe kasy do wydania, to się baw, nikt ci nie broni :D
@@gureedoteam5632 Ty jesteś teoretykiem, a ja praktykiem. Zrozumiesz kiedy w końcu kupisz taki monitor.
@@stark_2991 Mam bardzo fajnego Philipsa 1080p, a brat LG 1440p, więc tak, mam porównanie :)
@@gureedoteam5632 Więc mamy po prostu inne opinie na ten sam temat.
no ja niestety zostanę jeszcze długo w 1080p, mniejsze wymagania sprzętowe sprawiają że rzadziej muszę wymieniać części, jak się przestawię to raczej na 4k, a to jeszcze potrwa
No z 15 lat :P
2k to jest sweet spot
W tych czasach to kazdy średniej jakość sprzęt uciagnie ci 1440p
@@krzys0302 Mój rx 6600 z wielkim trudem..
@@natenexx9974 Średni nie budżetowy ...
UWQHD 120Hz od lat, ciężko przesiąść się na inne proporcje i rozdzielczość.
Kto choć przez chwilę używał panoramy, już nie wróci do klasycznych proporcji.
@@mbwrobel dlatego ja nie używam
W sterowniku można włączyć licznik klatek i ten wyświetla poprawną podwojoną liczbę klatek. Sprawdzone na RX 6700XT. Temat był szeroko omawiany na kanale Ancient Gameplays.
U mnie za 5 miesięcy wejdzie 7 rok z 2560 x1440 i 144 Hz na IPS.
Zmieniłem na wyższą rozdzielczość, ze względu by nie zmieniać platformy LGA 1150 (Core 4 gen. z czasem z i5 do i7 4770K).
Z Vegą 64 LC, monitor jest z Adaptive Sync, a że w 2017 r karty nVidia nie obsługiwały tej funkcji i dlatego wybrałem najmocniejszą kartę od AMD.
Gry do 2020 r. działały całkiem, ale w nowszych zmiana ponad rok temu na Zen 5 z wspominaną kartą zyskałem sporo, bo w końcu 4 rdzenie obecnie to mało w porównaniu do sześciu.
Na 6 lecie zmiany monitora w ubiegłym roku zmieniłem i kartę graficzną, bo Vega 64 LC (odpowiednik RX 6600 /RTX 2060 S) obecnie nadaje się do 1920 x 1080 na ustawieniach średniowysokich.
Co do przyszłości w 4 k raczej nie będę wchodził, ze względu na wymagania od karty graficznej w takiej rozdzielczości.
Generator klatek nie poprawia wydajności, tylko poprawia uczucie płynności. ;)
Za to kosztem ghostingu i responsywnosci
Aktualnie na 21/9 3440/14440 IPS polecam , sterownik Radeonów ma wbudowany własny licznik klatek i wszystkie wykresy i wszystko działa pozdrawiam
O patrz, zapomniałem, faktycznie 😁
A jak Ci się na 21:9 siedzi? Gra wszystko?
do tego jest jeszcze oprócz FSR wbudowany w sterownik FMF
@@TekTesters21:9 jako pulpit roboczy super. 35" i to trochę za duży monitor do pracy z tekstem zagęszczenie punktów na cal w granicach 100 to już dolna granica komfortu, w grach elegancko choć fakt rozdzielczość pożera FPSy. Generalnie to rozdzielczość raczej pod generację 40** a w zasadzie 50** u Nvidi. Mimo to polecam bo 4k to za dużo dla obecnych kart średniego i średniego niższego segmentu.
UWQHD to jest coś do czego się mega przyzwyczaiłem i myślę że powrót do wąskich monitorów może być bolesny :)
Fajny materiał Kamil jak zwykle, pozdrowionka! Ja siedzę na FHD 144 hz wraz z r7 7800x3d i rtx 4070s i tak sobie rozkminiam czy chcę przechodzić na 1440p. Moje oko przykuwa dużą uwagę do płynniejszej rozrywki w wysokim klatkarzu, więc ciężko jest mi zdecydować się czy warto przechodzić na ciut wyższą rozdzielczość kosztem niższej płynności
Nie wiem po co ci 4070S jak masz ekran full hd. Bierz 1440p, bo to co masz teraz jest bez sensu
4070ti daje idealnie radę w 1440p, więc jak najbardziej.
Typ ma kartę do 1440p i siedzi na 1080
Nie wyobrażam sobie powrotu do 1080p. Nawet jak karta nie daje rady natywnie w 1440p to "teguje" sobie dlss w trybie jakość gdzie nie widzę absolutnie żadnej różnicy. Dlss i frame gen to fantastyczne opcje, ale szkoda, że są traktowane jako tania optymalizacja niż faktycznie pomoc do pchnięcia grafiki dalej.
Ja ostatnio wymieniłem na 27" 1440p 240hz. Przesiadka z esportowego Benq z matrycą TN i powiem że robi robotę, zarówno w esportowych gierkach jak i tych Triple A
Jaki monitor wziales? Bo wlasnie zastanawiam sie nad kupnem Samsunga Odyssey g7 VA 240hz 27" curved
@@tigerLDZ Gigabyte M27QX
@@tigerLDZja posiadam ten monitor tylko w wersji 32" od prawie roku. Jestem bardzo zadowolony i polecam w 100%. Jedyne do czego moge sie przyczepic to system ktory lubi sie czasem ladnie pobugowac lub zaczac lagowac.
raportuje się za pomocą nakładki wydajności radeon "ctrl shift o" w sterowniku w zakładce wydajność/wskaźniki->śledzenie ustawiasz co ma raportować i jak
Właśnie miałem pisać żeby tak spróbować, z poziomu sterownika.
Zaczynałem od (1996) 15` CRT wyciągał w 1024×768 100Hz, potem 19` TNT 75Hz w 1440×900, a następnie FHD w 27`TNT to był miód malina i to samo mam teraz na 32` 1440pVA zakrzywiony (oba monitory 144Hz). Dla mnie ważna jest wielkość "punktu" i oba ostatnie spełniają moje wymagania, większa rozdzielczość na mniejszej matrycy dla mnie jest nie wygodna(nieczytelna, za drobna). Co do sprzętu wychodzę z założenia, że należy wybrać największy monitor na jaki się ma miejsce i ewentualnie z chodzić z ustawieniami graficznymi danych gier. Porównanie gry na 27`(na max detalach) z grą na 32`z (na średnich ustawieniach) ma się nijak. Wielkość obrazu i przestrzeń robocza zwala z nóg, dlatego monitor kupuję raz, a dobrze, reszta i tak będzie kilka razy wymieniana. Co do odświeżania, to jest to odczucie osobiste, ja czuję dyskomfort gdy pracuję przy 60Hz 😒, za minimum dla mnie to 75Hz, a przy 100Hz moje oko odpoczywa😊. Oczywiście w grach to już inna sprawa ale to już było dużo razy poruszane. Pozdrowienia dla Stilgara robi bardzo dobrą robotę.
Moim najgorszym wyborem była przesiadka z FULL HD 60Hz na 4K 60Hz
Rozwiń
@@absurdchaos2759 nie ma chłop na częsci
@@absurdchaos2759 Może dlatego że nigdy nie ma więcej jak 60 klatek
Bardzo dobry materiał. Dzięki. Siedzę na Full HD. Przesiadka na 2K wkrótce. Ale najpierw wymiana GPU. Pozdrowienia dla Stilgara, nie crobi matriał o monitorach 27'' :)
Też niedawno przeskoczyłem na 1440p i jest fajnie !
Ja się przesiadłem z 1920x1080p na 2560x1080p. Dla mnie fullhd na monitorze jest wystarczające, a zawsze mam dodatkowe FPS na zwiększenie detali w grach.
Czy windows też bedzie w wyzszej rozdzialce alboprzeglafarka... czy tylko gry ?
@@bertold-ms1oo Windows tez
też o tym myślę. W wyścigach ważniejsze są fps niż rozdzielczość. Chcę monitor 34 cale ale 2560x1080p
Mam małe biurko i siedzę blisko monitora. Niedawno poskładałem nową skrzynię. 5600x sparowałem z 6750xt i mój wybór padł na FullHD. Po przesiadce z 21" 60hz na 24" 165hz przez tydzień nie mogłem się na patrzeć jak to kozacko wygląda.
No, a teraz sobie wyobraź, że istnieją osoby, które po takiej przesiadce nie maja efektu wow... Nie pojmuje tego
@@_nietypowy hmmmm mam 27" 240 hz i nie był to dla mnie efekt wow, raczej było coś w stylu no wydałem kasę i widać zmianę xD Czułbym się zawiedzony gdybym wydał kasę i nie zobaczyłbym żadnej równicy xD
@@mariuszstaron2245 efekt wow = widac róznice :P
Przesiadłem się z 1080 Full HD na 4K. A jak zobaczyłem tą ostrość obrazu w grach jak np. Wiedźmin 2 to się zakochałem.
Dokładnie, wielu się nie przesiada bo nie wie co traci.
@@ukasz7073 Większość sie nie przesiada na 4k bo by im sie piekarnik zrobił z komputera
1440p nie ma sensu jeśli tylko to ma nam się zmienić. Meine kolega miał FHD / 60Hz. Nie pytajcie mnie nie wiem dlaczego, przesiadł się na QHD / 165Hz. To wtedy miało sens (Choć ma na tyle silnego kompa że mógłby i 4K). W takim wypadku ma to jak najbardziej rację bytu ale jeśli mamy tylko zmienić rodzielczość to przepłacanie hajsu. Lepiej iść do burdelu i się zadowolić niż trwonić pieniądze.
Przesiadłem się niedawno z 1080p na 1440 p. Niebo a ziemia. Serdecznie polecam. Zmieniłem kartę z rx 6600 xt na tx 7800 xt :)
Ja na tym rx 7800 xt w 4k gram. Jak dla mnie super karta. Pozdro
@@Tombitp ja tam się z tym nie zgadzam chociaż sam korzystam z rozdzielczości 1440p bo żeby sobie komfortowo pograć w tej rozdzielczości nie trzeba mieć karty z najwyższej półki bo jednak do rozdzielczości 4k przyda się karta właśnie typu 4080 ti lub 4090 które są strasznie drogie, a do 1440p wystarczy karta 4070 lub 4070 super które są kilkukrotnie tańsze, a wyglądowo 1440p przebija 1080p kilkukrotnie. Chociaż ja też nie potrzebuje takiej samej wydajności jak w 1080p bo na takich kartach jak wspomniałem (4070 i 4070 super) różnica spadku przykładowo z 140 na 90 FPS nie jest widoczna gołym okiem w grach single, a wyglądowo sporo lepiej. Szanuje jednak twoją opinie :)
@@szymonczernek2067nie ma karty 4080 ti jedynie super
Piszczą u Ciebie cewki, 7800xt?
Bo ja kupiłem Asusa, ale odesłałem przez cewki.
@@andrzejprzytua592 nic nie piszczy u mnie. Ja mam model od XFX- speedster merc 319 :)
Spędziłem większość swojego życia na 1080p/60hz i kilka miesięcy temu skusiłem się na pewien monitor od LG 1440p/144hz polecany przez Stilgara. Nawet nie miałem pojęcia, że właśnie tego trzeba mi było. Dla moich oczu przeskok z FHD na WQHD i wyższe odświeżanie był istną przepaścią i w jakości obrazu zakochałem się już w pierwszych godzinach użytkowania. Nie wyobrażam sobie teraz zejść niżej.
a rozmiar?
@@danielkowalski7527 27 cali
Stawiam, że to był lg ultragear 27-850pb 😂
@@Lodiczek bardzo blisko, 27GN800P-B. 850 ma odświeżanie 165hz
@@Butcher_666 a rozmiar drugiego? ;-D
Info o przesiadce dalej niepełne ;P
Co do rozdzielczości w jakiej siedzę to jest to fullHD i nie zmienię jej zapewne nigdy, bo nie zmienię monitora na większy, a to z powodu powikłań po jaskrze, przez co mam mocno zawężone pole widzenia i co mi z większej powierzchni roboczej, jak widzieć będę tylko powiedzmy środek ekranu (no chyba, ze są monitory 21,5 cala 1440p to ja poproszę dwa na wynos).
Co do zmian w wielkości to tak - popełniłem keidyś taki błąd, ale jeszcze w dawnych czasach, mianowicie przesiadając się z monitora 640x480 od razu na 1024x768, bo i specyfikacja komputera dawała radę max z 800x600, co nie do końca idealnie się skalowało. Ale i tak zmiana w jakości obrazu była odczuwalna, bo po pierwsze byłą to przesiadka z CRT na LCD i biurko było mi wdzięczne, bo mu odpadło z 8 kilo obciążenia jakoś, a i miejsca zrobiło się więcej, do tego przekątna z 15 cali podskoczyła do 17, no i nowy monitor obsługiwał 75 Hz zamiast 60 na starym. Niemniej pełnię jego możliwości zobaczyłem dopiero ze 2 lata później, gdy już natywnie grywałem w 1024x786 majac inną jednostkę.
Najmniej to 24 cale dla 1440p jak sam szukałem, z czego to były tylko 2 modele.
@@Smok1125 no właśnie. A to już za duży dla mnie
Ja z kolei mam małe biurko i też nie mogę poświęcić na nim tyle miejsca na duży monitor i też ubolewam że rynek 19 i 22 cale się praktycznie skończył
@@xflashu8075 kup sobie dokręcane do blatu ramię i powieś na montażu vesa, choćby i 32 cale. Wielkość biurka to mały problem
@@nihilistycznyateista cena tego to też dla mnie problem
Ponieważ gram tylko w WoTa najpierw zmieniłem kartę z dwóch GTX 460 w SLi na GTX 1050Ti potem przesiadłem się z 27''LG na 32"AOC i gram w 1440p teraz mam GTX 1650(miałem 1660Ti ale zabiłem ją przypadkiem podczas wymiany platformy)....klatki zablokowane na 75fps i naprawdę rzadko spadają poniżej tej wartości...procek Ryzen 7 5700X i ram 32GB 3600.
Na WQHD przesiadałem się od 2014 roku, wymieniając monitory do pracy i rozrywki na 2x IPS 27" + 1x VA 31.5" - Lightroom, Photoshop, postprodukcja filmów, itp. Miałem też inne monitory, łącznie z TN, ponieważ często musiałem optymalizować paletę barw. Mój dobór rozdzielczości był definiowany wielkością pikseli, dlatego do dziś dziwi mnie kupowanie monitora 21" 4K. Przesiadka z 21" czy nawet 24" FullHD na 27" QHD miała i ma nadal sens, i oczywiście widzę różnicę, stawiając dwa tej samej wielkości monitory obok siebie, o różnej rozdzielczości, ale chyba nie o to w tym wszystkich chodzi? Dla mnie czasy się zmieniły tylko o tyle, że obecnie, jeden monitor ma żona, drugi córka, trzeci druga córka, a ja... męczę się na 21" 1680x1050 i w takiej też rozdzielczości oglądałem ten film :) Do dużego się człowiek łatwo przyzwyczaja, gorzej w drugą stronę. Przed COVID-19 zrobiłem nawet doświadczenie, puszczając film z projektora na ekran ~100", gdzie pierwsza część była wyświetlona projektorem 4K skalowana ze źródła 2560x1440, a druga część tego samego filmu projektorem 1280x720. Nikt się nie połapał przy odległości 3,5m od ekranu. Tak, wiem,to akurat światło odbite więc też działa nieco inaczej. A co do ilości FPS, to i tak nie ma to większego sensu. Według najnowszych badań, z tego roku (2024), najnowszymi dostępnymi technologiami, to nawet jeśli jesteś młodą kobietą, to nic powyżej 40fps twój mózg nie zarejestruje, podobnie jak kolejnych bilionów barw. Inna sprawa, że niektóre algorytmy gier mają specjalnie tak ustawioną synchronizację, by dawać owe uczucie. Mało kto pamięta, że owe klatkaże były wymuszone częstotliwościami prądu w sieci elektrycznej, i że stosowane były zabiegi wyświetlania co drugiej linii, ale dziś nie mamy kineskopów, tylko matryce utrzymujące stan do kolejnej zmiany. The show must go on, a kasa korporacji zgadzać, więc tych, co włączają synchronizację monitorów na sztywno i ilość klatek na 50 lub 60fps, najchętniej posłali by na stos :) To samo dziś jest z aparatami, gdzie wydrukowane zdjęcie starą lustrzanką 5Mpx a nową 50Mpx jest nie do odróżnienia. Pomijam fakt, że z tego drugiego da się łatwiej uzyskać inny kadr, ale jeśli dobrze wykonamy zdjęcie, to efekt jest nie do rozpoznania nieuzbrojonym okiem. Technologia już lata temu prześcignęła próg ludzkiej fizyczności, a czymś trzeba napędzać konsumpcjonizm.
Zakup dużego monitora 4k do filmów i zmiana rozdzielczości w grach na fhd czy 2k ma sens czy nie jest to dobre rozwiazanie? Pytam bo widziałem ,że sobie zmieniłeś w cyber punku rozdziałkę i bez problemu śmiga , więc skoro kupujemy monitor na lata to zakup takiego 4k może być wyborem właśnie na lata tak?
Dochodzi jeszcze obsluga gsync/adaptive sync gdzie zakres zaczyna sie najczesciej od 48 fps zeby to dzialalo....A i jeszcze jest kwestia ze AOC ma w ofercie monitor 24 cale 1440p. Mysle ze to spoko opcja bo w razie czego mozna przeskoczyc na 1080p i miec standardowe 24 1080p
Pierwszy monitor z 1440p 27" kupiłem w 2016 roku jak tylko zaczęły się pojawiać w rozsądnych pieniądzach. Od tamtego czasu często z bólem serca pracuje mi się na fhd jeśli sytuacja tego wymaga.
Jak ktoś całe życie kupuje karty ze średniego segmentu to nie ma sensu zmieniać rozdzielczości monitora. Ładnie zostało to pokazane. Było ponad 60fps w 1080p a w 1440p ledwo 40 fps i zamiast karty za 1600 - 1700 zł trzeba kupić taką za 2000 - 2300 zł.
Zrobiłem podobnie. Przesiadłem się z FHD 27 cali na UHD 32 cale i nigdy nie wróciłem do innej rozdzielczości natywnej monitora (nie, nie mam 4090). Utrata ostrości/jakości obrazu w grach związania z niepełnym skalowaniem do 1440P, nie jest dla mnie aż tak istotna (pewnie dlatego, że PPI dla FHD przy 27 calach i 1440P dla 32 cali jest identyczne, a monitor też sam potrafi wyostrzyć to i owo niwelując problemy niepełnego skalowania - po prostu nie zauważam różnicy). Za to UHD oferuje dużą przestrzeń roboczą i chociażby możliwość oglądania materiałów video (np. takich jak ten :P ). W skrajnych przypadkach, UHD skaluje się całkowicie do FHD (tylko PPI drastycznie niskie i trzeba siedzieć dalej ... np z PADem).
Ja popełniłem błąd kilka lat temu, jak wybrałem monitor FullHD 27 cali zamiast 24, i co prawda do teraz mi służy, ale pluję sobie w brodę i następny będzie o rozdzielczości 1440p 27 cali/zaszaleję i wezmę 4K 32 cale. Wesołych i spokojnych świąt!
PS Pozdro dla Stilgara ✌️
Już dawno przesiadłem na 1440p jest mega różnica kupiłem sobie samsung odyssey g5 32" 144hz i jestem bardzo zadowolony syn też ma taki a młodszy syn ma Monitor HP 27xq 27" 144Hz i powiem że to super monitor i ma super regulacje
32 cale jak dla mnie ma lepsze PPI - bardziej ergonomiczne i komfortowe jak nie używasz skalowania do pracy.
Będę w mniejszości, ale mi wystarcza FHD, nie lubię wysilać podzespołów. Nawet kilka miesięcy temu kupiłem Gigabyte G27F 2, ale niestety wyskoczyły jakieś kreski i będę musiał zareklamować.
Dobre pytanie - a czy warto używać mikroskopu zamiast okularów ???
Na początku filmu powiedziałeś że lubisz serię 7600 od amd. A co powiesz na temat karty również od amd ale 6750xt ? Powoli zbieram części do swojego nowego PC i zastanawiam się nad tymi dwiema kartami. W testach 6750 wypada lepiej ale jest już leciwą konstrukcją, myślisz że warto iść w ten model ? Pozdrawiam.
Na pewno lepiej kupić niż 7600 XT.
AMD w przeciwieństwie do Nvidii oferuje najnowsze technologie także dla starszych kart.
Akurat stoję przed wyborem monitora więc materiał idealnie siądzie
Hey... jak masz monitor 4k to może takie porównanie - skalowane 4k z trybu wydajność (50% czyli 1080p) do natywnego 1080p. Jakie róznice w wydajności?
Ja posiadam aktualnie monitor AOC 24V2Q z Full HD i 75 Hz. Jak zacząłem testować monitory z wyższym odświeżaniem na moim kanale to dopiero złapałem się za głowę i nie mogłem uwierzyć dlaczego wcześniej nie kupiłem lepszego monitora - po prostu głupi byłem, jednak parę lat temu były droższe. Teraz się zastanawiam między AOC 24G4X Full HD z 180Hz a Q27G4X z QHD 180 Hz. Jeden testowałem monitor u siebie i spodobał mi się. Mam dylemat który wybrać. Z jednej strony wybrałbym 24 cale bo w zupełności wystarczy i jest idealny do mojego małego biurka a to tego posiadam RTX 3060 Ti oraz Ryzen 7 5700X. Z drugiej strony gdybym brał 27 cali to już bym miał na przyszłość monitor i bym nie musiał zmieniać tak szybko, jednak ilość klatek miałbym mniej w grach. Zobaczę jak dostanę ten drugi na testy to sobie porównam i wtedy zdecyduję, który mam wziąć. Pozdrawiam 🙂
Przy budowie kompa jakieś 1.5 roku temu miałem ten sam dylemat. Wszyscy odradzali przejścia na 2K przy RTX 3060, ale i tak postanowiłem zaryzykować. Wszystkie gierki są całkowicie grywalne, oczywiście tytuły AAA na Ultra z RT nie przechodzą bo klatki lecą na łeb, ale realnie nie spotkałem gierki która by zmiażdżyła ten zestaw pomimo tego, że 3060 nie jest nawet stworzona do tej rozdziałki. Gry typu WoT, LoL, CS2 chodzą idealnie. Hogwarts Legacy czy Cyberpunk już gorzej bo tutaj RT musi być załączony na low, ustawienia mieszane, ale w gruncie rzeczy Ultra. Tak czy siak dla gracza, który lubi ładnie i płynnie polecałbym 1440p dopiero od 3070Ti/4070 tak, żeby nie musieć rezygnować z lepszych ustawień graficznych. Jeżeli jednak tytuły AAA nie są priorytetem to nawet na tym waflu czyli 3060 idzie grać/pracować bez żadnych problemów.
Warto zaznaczyć, że w opisie technologii fluid motion jest napisane, że ilość "wygenerowanych" klatek jest poprawnie widoczna korzystając ze wskaźników z poziomu sterownika AMD. Z tego względu, korzystając np. z Rivia Tuner (instalowane z MSI Afterburner) różnice mogą być niewidoczne - co nie oznacza, że ich nie ma ;)
Posiadam RX 6700XT, kartę na której spokojnie mogę zagrać w 1440p, ale niestety z racji małej przestrzeni roboczej jestem zmuszony grać na 24" monitorze FullHD 75Hz. Ta rozdzielczość jest dla mnie w pełni wystarczająca i póki co nie mam zamiaru przechodzić na wyższą.
Ja się przesiadłem z monitora IPS FHD 24' 60Hz na TV OLED 4k LG C1 48' 120Hz, przeskok niesamowity.
Świetny i bardzo ciekawy film, aż zasubskrybowałem twój kanał👍Planuję kupić monitor 1440p 27 cali, aktualnie używam samsunga 24 cale 1080p. 27 cali 1440p to dla mnie takie optimum jeśli chodzi o monitory, większego nie potrzebuję. Pozdrawiam Stilgara!
Jak masz porządny monitot 1080p, to przesiadka na 1440p, może być nieco rozczarowująca. Te rozdzielczości nie różnią się aż tak bardzo :)
@@gureedoteam5632 co Ty gadasz różnica między 1440 a 1080p jest ogromna ;) dla mnie 1080p już nawet na 24 calowym ekranie jest niegrywalne bo mogę liczyć piksele na placach jednej ręki 😅
@@fronttliner01 to masz głowę 10 cm od monitora albo taką chujową matrycę
kiedyś grałem na monitorze 1280x1024; przesiadka na Fhd była porównywalna do przesiadki z hdd na ssd; póki co zostanę na Fhd
Popełniłem dokładnie ten sam błąd, z 1080p 60Hz przesiadłem się na 4k 60Hz, ale naprawiłem swój błąd i przeskoczyłem na 1440p 165hz, to było już 4-5 lat temu. Teraz marzy mi się OLED coś pomiędzy rozciągniętym 1440p w proporcjach 21:9 165hz
Ilość klatek po włączeniu afmf można zanotować włączajac z poziomu sterownika licznik fps itp
A co myslisz o przesiadce z 27” 1080p na 32” 1440p? Czy lepiej pojsc juz w 32” 4k czy moze 27” 1440p? Karta obecnie to 6700xt ale przymierzam sie do zmiany na 4070 super.
ja posiadam 6700xt i 32 1440p 170hz. Karta jeszcze daje radę. Ale zależy w co się gra i jakie ma się oczekiwania. Też miałem zmieniać na 4070 super. Ale poczekam na kolejną generację. Bo póki co na wydajność nie narzekam.
27 cali w 1080p to porażka, max 24 cale do 1080p
@@tomaszcsmn.2640 no monitor mam juz pewnie z 10 lat. Kiedys to chyba byl taki standard, ogolnie fajne skalowanie bo na 100% dobra wielkosc jest ale czcionka troche poszarpana.
Przerzuciłem się z 1080p na 1440p mając RX 6700 XT i jestem mega zadowolony.
Ja mam dosyc stary PC. CPU fx8300 i RX580 8GB. Uzywam ekranu 1440p i dziala to zaskakujaco dobrze. W moim przypaku zejscie na 1080p strawia ze CPU staje sie botleneckiem i fps spada :D Ogolnie do gier jest sztos. Ale np netflix nie wspiera 1440p i czesto fiilmy wygladaja bardzo zle.
Wydaje mi sie czy 1080p wygladalo by lepeij na ekranie 4k niz na 1440p ?
Gdzieś w 2018, z gtx 1060, przesiadłem się z 2K na FHD. Wzrost wydajności był spory. Karta wystarczyła na kolejne 2 lata. Jakość natywnego FHD bije na głowę skalowane FHD na 2K. Być może dziś z DLSS jest to mniej problematyczne.
Pozdro dla Stilgara i dla Ciebie! ;) Właśnie zbieram kasę w celu przesiadki na 1440p :) Stilgar jakiś czas temu zawrócił mi w głowie monitorem IIYAMA GCB3480WQSU-B1 34" 21:9 :D
Liczę, że moja 3070 Ti podoła:D
kiedy wybielisz monitor crt ?
Chyba podoba mi się taki, jaki jest teraz
ja siedzę na 1080p i narazie nie mam zamiaru zmieniać p jak już to przesiadłbym się z 144hz na 360hz ale też na 1080p
Hardware w mojej ocenie nie jest gotowy na 4k. Również siedzę na 1440p i dla tej rozdzielczości optymalna wydaje się moja GPU tj. 7900xtx. Dopiero na tego rodzaju sprzęcie jestem w stanie dobić fps do możliwości monitora (165hz), a i to w niektórych tytułach okupione jest niska kultura pracy GPU. Na tej właśnie podstawie twierdzę, że na najnowsze tytuły w 4k, hardware nie jest gotowy. Cieszę się że przy zakupie monitora wybrałem 1440p, zamiast wyższej rozdzielczości, bo bym się zwyczajnie męczył i wkurzał, że mam zbyt słaby sprzęt. Mimo że jest to najlepszy sprzęt jaki obecnie mogę kupić od AMD. Z tego powodu wkurza mnie marketing producentów kart, te 60fps w dzisiejszych czasach to naprawdę jest bieda, a nie osiągnięcie ;(
to że 60hz to kaszana to wina technologi LCD/OLED itd 60Hz na CRT to zupełnie dwa różne światy zero laga, obraz w ruchu jak żyleta nawet wywijając myszką po całym blacie.
Na moim LG 27gp850 bardzo dobrze skaluje się rozdzielczość HD. Do tego stopnia, że wygląda lepiej niż na monitorze HD. Dobra furtka tam gdzie brakuje wydajności, choć ze względu na duży rozmiar matrycy preferuję grę w trybie okienkowym 2050x1300 co pochłania tylko 10% więcej mocy niż HD. Na szczęście dzisiejsze monitory mają już dość dobry czas reakcji matrycy więc można myśleć o wymianie monitora, ale bez tego argumentu przesiadka na wyższą rozdzielczość była by nieopłacalna.
Przesiadłem się z 25' 1080p na 32' 2160p. Moim zdaniem trochę przedobrzyłem bo ogranicza mnie karta, ale skok w ostrości i jakości obrazu jest po prostu niewyobrażalny. Chociaż mnie to aż tak nie boli bo mam pokaźną kupkę wstydu ze starszych gier do ogrania. W bardziej podbramkowych sytuacjach ratuje się FSR i zbijaniem AA na niższe ustawienia (wbrem ludowej mądrości co je możecie wyczytać w internecie AA nawet w 4k jest ciągle potrzebne, ale mniej więc ustawiam je na minimum). W ogóle temat optymalizacji ustawień pod 4k jest ciekawy bo wbrew pozorom nie zachodzi tu prosta zależność FPS4k = FPSFullHD/4.
11:59 to nie mozna bylo na moment włączyć wbudowanej w sterownik nakladki zeby pokazac przyrost fps? Przeciez to 2 kliknięcia w nakladce amd.
Jeśli chodzi afmf, u mnie wskakuje bez minimalizowania gry. Działa dość dobrze ale zbyt duże opóźnienie. U mnie przy ok. natywnych 60 FPS podbija do ok 120 ale przy 30 ms opóźnienia. Co jest wyczuwalne, szkoda że nie ma suwaka żeby np dokładało co 4 klatka przy mniejszych opóźnieniach. Wtedy bym używał.
Przy sterownikach AMD, jak się włączy wbudowany w adrenaline monitor, to wtedy można śmiało zobaczyć monitorowanie procka, karty, pamięci i FPS. Jedyny problem, jaki mi się czasem zdarza z tym wbudowanym miernikiem od AMD to to, że mi czasem nie pokazuje taktowania procka i temperatury, i muszę go resetować by poprawnie pokazał. Ja poszedłem w 4K, tyle że 28 cali, bo jednak nieco mniej miejsca było i bym się jeszcze nie zmieścił cenowo w moim zestawie, na początek 60 Hz mi w 4K styknie. Jak technologia będzie bardziej przystępna cenowo, to zmienię na coś mocniejszego.
Faktycznie jeśli chodzi o wygląd systemu, aplikacji, czcionek, zmieniając z natywnej 1440p do 1080p, widać rozmycie. Jednak jak testowałem to w Baldur's Gate 3, nie zauważyłem różnicy w jakości obrazu, więc może w grach jednak inaczej to działa? Testowane na ekranie laptopa z taką samą kartą jak w filmiku (jednak wersja mobilna, więc trochę mniej wydajna, ale i tak jest OK).
Posiadam Rx 7600 + Ryzen 5 5600. Warto przechodzić na 1440p? Uciągnie ten sprzęt taką rozdzielczość w najnowszych grach na maksymalnych ustawieniach?
I jak.?
Bardzo fajny i pomocny materiał wesołych świąt życzę Pozdrawiam
Zamówiłem matryce do laptopa która zalałem . Ta okazała sie 1440 p . Obraz jest o niebo lepszy ale FPSy spadły i to o 1/4 . Wcześniej miałem 1080. Karte w lapku mam GTX 1060 i daje rade . CS GO około 110 kl/s na wysokich.
Zrobiłem ten sam błąd, co Kamil - przesiadka z 1080p na 4k. Gdybym mógł cofnąć czas, to faktycznie 1440p byłoby lepszym wyborem. Teraz szkoda dobry monitor sprzedawać za półdarmo. Jednak nie jest tak źle - właściwie wszystkie gry udaje się grywalnie odpalić w 4k. Monitor ma świetną paletę barw, ale niskie odświeżanie - 60Hz, więc przy synchronizacji 60 klatek jest osiągalne na 3060Ti GDDR6X. W nowszych grach trzeba nieco zejść z ustawieniami, ale z DLSS/FSR niewiele. Obraz piękny np. w God of War, AC Valhala, Wiedźmin3 - 4k na 60Hz bez zarzutu; grywalność też. Aplikacji szczególnie wyszukanych nie używam, ale faktycznie skalowanie potrafi być irytujące.
Kupiłeś monitor 4k do 3060 ti ? :)
Nie - monitor kupiłem dużo wcześniej; żeby było ciekawiej - do 1060. Jednak wówczas nie zależało mi na graniu, tylko na innym hobby - malarstwie i tu paleta barw była kluczowa (wyświetlanie obrazów, nie przetwarzanie). Później wzięło mnie trochę na giercolenie i kupiłem 3060 Ti, bo wyższe modele były w całkiem kosmicznych cenach.
W każdym razie w grach grafika w 4k z obniżonymi detalami i tak jest lepsza, niż w 1440p z maksymalnymi - Blacku kiedyś robił takie porównanie.
Ja siedzę na 2 monitorach 1440p w proporcjach 16:9 i 21:9 ale posiadam jedynie kartę gtx 1660S. Jeśli gra daje mi chociaż te 40 klatek to gram w takiej rozdzielczości, jeśli nie to zmuszony jestem grać w FHD, bądź korzystam z GFN w wersji founders, gdzie też jest FHD, ale przynajmniej mogę ustawić lepszą jakość grafiki.
A jak wyglada sytuacja z dlss w grze ktora tego nie ma? W sterownikach nvidii chyba tez jest opcja wlaczenia.
Ja tam mam monitor 24 cale i 2k i jest kozakiem w grach i jak codziennym użytku
aktualnie mam laptopa z 4060 ktory ma ekran 2k i zastanawiam sie nad wiekszym ekranem, myslalem o wielkościach 24-27 i wacham sie nad rozdzielczościa 1080p a 2k czasami pogram sobie na podzielonym ekranie wiec wiekszy ekran był by dobrym wyborem, jednak nigdy nie korzystałem z 27 cali aktualnie mam tv 40 cali 60hz full hd jednak granie na nim to udręka jest za duży / pixeloza i 60hz kłuje w oczy. czy 27 cali na 1080p był by kiepskim wyborem ? troche sie obawiam że niektóre gry nie pociągnał na 2k
ja mam 27 cali 1080p, jak dla mnie w grach i filmach bez różnicy, jedynie jak się trochę przybliżę do monitora podczas czytania tekstu to 24 wypada trochę lepiej
Ja wymieniałem 1080p na coś lepszego i w sumie nie mogłem się zdecydować w którą stronę iść - UWQHD 34" czy 4K 32".
Ostatecznie wybrałem monitor 21:9 i nie żałuję. Jakbym wybrał ten drugi, to pewnie też bym nie żałował.
Grając na ps5 cenię sobie rozdziałkę 4k przy 49 calach telewizora ale do użytkowania/grania na PC - monitor 1440p w zupełności mi wystarcza 😊
Pozdrawiam Stilgara 😁
Alt + shift + g szybciej włączysz afmf i działa w locie w każdej chwili a w sterowniku masz zakładkę do śledzenia wydajności
w cp2077 nie ma sensu używać FSR gdy masz XESS, który jest akurat jedną z lepszych implementacji tej technologi
No właśnie w połowie się zczaiłem, że coś tu nie tak. Nie wiem o jakiej jakości tutaj mowa, której rzekomo brakuje, ale ja zwróciłem uwagę na to, że film jest głównie na temat systemów AMD, jak podbić wydajność i ilość FPS. Dziwny tytuł filmu... Mam wrażenie, że trochę na siłę podciągnięcie tematu z oczywistą odpowiedzią pod tematykę AMD i tych dobroci, które oferuje w celu podbicia wydajności w grach ;)
Ponieważ jest sponsorowany przez AMD - zauważ, że nawet nie wypowiedział słowa NVIDIA tylko z delikatnym zastanowieniem "konkurencja od zielonych" :) Lubię oglądać filmy na temat testów i wydajności nowych technologii, ale zawsze trzeba mieć z tyłu głowy czy to jest w 100% niezależna opinia. Do Kamila i kolegów z innych kanałów nic nie mam, robią świetną robotę pokazując rzetelne testy i o to chodzi, ale zarabiać też muszą na swoje rodziny i głupio byłoby odmówić, a wnioski jaki sprzęt wybrać trzeba samemu wyciągnąć :) Niestety w tej branży nawięcej zarabia się przez dobry marketing, bo komputer ma każdy, ale niewiele osób potrafi go wybrać dla siebie w dobrym stosunku cena-wydajność pod konkretne przeznaczenie.
Gram w 1080p. Uważam, że jest to optymalna rozdzielczość do grania jak dla mnie.
Monitor to LG 22MP58VQ-P.
Pozdrawiam
Mam 1440p ze względu na fakt że 4070Ti już dobrze sobie radzi z 1080p... No i... 4K by się przydało przy tych 27 calach, ale jest wystarczająco dobrze żeby nie narzekać jak to występowało (rzadko, ale było) przy 1080p ze względu na screendoor effect
Kupiłem 3 lata temu 1440p 170hz 27" do tego szeroki gamut. Zamierzam orzrz kolejne kilka lat korzystać az OLED z 240 hz 2k o proporcjach przynajmniej 21/9 nie będzie kosztować za duzo
3060Ti i monitor główny 4k też da radę. Tylko irytuje mnie 1 rzecz, statyczne obiekty (np. licznik, pasek przeglądarki) odciskają się na jakiś 3cm od krawędzi. Taka budżetówka. Zastanawiam się nad 27M1N3500LS (też budżetowo, niestety mniejsza rozdzielczość, ale miejsca na biurku nie przybywa)
A czy na monitorze 4k ma sens w grach ustawiać 1080p? W teorii dobrze się skaluje ale jak jest w praktyce?
W praktyce 1080p źle wygląda na monitorach o przekątnej większej niż 24". Poza tym w nowych grach nie ma sensu ustawiać ręcznie niższej rozdzielczości. Zamiast tego korzystaj z DLSS/FSR. W 4K DLSS w trybie Performance renderuje obraz w 1080p, ale dodatkowo jest on poprawiany przez algorytmy i wygląda znacznie lepiej niż takie ręcznie ustawione 1080p.
Ile cali ma Twój monitor ?
Ja siedzę na 1080p 165 Hz 24" i planuję właśnie przesiadkę na 1440p 165Hz 27". :)
Ja mam 32 i jestem bardzo zadowolony. Jeśli masz możliwość, warto pochodzić po sklepach i popróbować.
@@TekTesters Póki co jestem nastawiony w kierunku Iiyamy.
iiyama G-Master G2770QSU-B1 lub G-Master GB2770QSU-B5.
Aktualnie mam od nich GB2570HSU i jestem bardzo zadowolony.
Zastanawiam się właśnie czy może nie lepiej od razu 32" zamiast 27" ale ciężko mi to ocenić.
27cali 1440p ta takie max bo wyżej tego to tylko 2160p ponieważ zagęszczenie pixeli jest większe
Jestem posiadaczem KTC H27T22 i muszę przyznać, że bardzo fajny monitor. Chyba największym jego plusem jest cena. Jednak chętnie obejrzę jego recenzję od Stilgara
2 lata temu zmieniłem monitor FullHD 24" na 32 cali 1440p 165 Hz i jest mega.
Uważam że 27" cali do 1440 jest za mało. 32" jest idealnie.
@Ewenement44 mam Gigabyte G32QC 165 Hz. I też jestem zadowolony. Również ostry.
Jak korzystam z monitora 1080p z włączoną funkcją DLDSR w sterowniku Nvidia, skalującą wyświetlanie rozdzielczości do 1440p. Dla mnie obraz jest wyraźnie lepszy i nie mam większej potrzeby wymieniać na nowy monitor.
Dzięki za info😊
Co to masz za wyimaginowane problemy z 4K 42"-48", że musiałeś zejść do mikrusa 1440p ?
Mam dylemat jaki monitor wybrać...MSI G321Q czy LG UltraGear 32GR75Q-B pomocy
Dla mnie problemem nie jest wydajność, tylko pamięć vRAM. RTX 3080 10GB zupełnie nie radzi sobie na monitorze 3440x1440. A ja głupi dałem za nią półtorej roku temu 4500zł
Półtorej odnosi się do rodzaju żeńskiego. Rok, to męski. Co Ty, nie umiesz odróżnić? Półtora roku!
No okej gry w rozdziallce fhd na, monitorze 1440 będą bardziej rozmazane, a, filmy także?
RTX 3060 Ti 8GB. Czy jest sens wejść w 1440?
Poniekąd można powiedzieć że każda karta jest do FullHD bo tylko chyba 4090 i 7900 są wstanie dać natywny obraz 4k itd w rozsądnym klatkażu. Do tej pory gdy włączam DLSS czuje się oszukiwany. W metro exodus na DLSS niebyłe w stanie korzystać z dziennika bo napisy były rozmazane. Natywna rozdzielczość to natywna rozdzielczość.
4080 też daje radę, tylko w niektórych grach dałem limit na 60fps, żeby nie było dużych skoków
TO tylko teraz tak szajba odbiła graczom. Po prostu zawsze cięło się jakieś ustawienia graficzne, albo były chrupnięcia.
Mysle ze wszystko powyżej rtx3080ti. Wiadomo sa wyjątki jak ktos chce grac w cp77 path tracing.
Gram teraz w Metro Exodus w wersji EE (gdzie jest już DLSS 2.x, w wersji podstawowej było DLSS 1. generacji - tragedia) i bardzo dobrze to wygląda, a jestem wyczulony na mydło w grach.
Jeśli chodzi o raportowanie klatek z afmf to sterownik AMD ma nakładkę do pokazywania FPS i ona poprawnie raportuje te klatki. Co do samego afmf to fajna funkcja, ale moim zdaniem trzeba mieć i tak 40fps+ bez niej, żeby jakoś to działało. Gram w wiedźmina (dx12) w 4k na Uber z fsr i używam afmf z poziomu sterownika bo gram na tv 144hz z vrr i ta funkcja robi robotę i w wiedźminie działa ok, w Hogwarts legacy też. Jedyne co zauważyłem na minus to afmf z poziomu sterownika nie radzi sobie z Ray tracingiem, jak włączymy Ray tracing to gra chodzi lepiej bez afmf niż z nim. Ogólnie jak ktoś gra na tv 4k i grafika mu trochę nie wyrabia w 4k z fsr to polecam rozdzielczość 3200x1800 z fsr, nie wygląda to dużo gorzej, a jest zauważalnie płynniej, przy 1440p na dużym tv już widać gorszą jakość, a 1080p nawet natywne to już jest pikseloza.
U mnie od trzech lat 27 cali Aorus 1440p i 165Hz. Wcześniej 24 cale od LG z rozdziałką FHD i 75Hz.
U mnie osobiście zmiana kompa na nowszy = pójście krok w przód z rozdziałką. Komp z 2013 roku to było przejście na Full HD, komp z końcówki 2018 to było przejście na 1440p a następny PC którego złożę w przeciągu mniej więcej 2 lat to będzie UWQHD lub 4K.
a rozmiary monitorów? bo rozdzielka nic nie mówi
@@danielkowalski7527 A faktycznie, w 2013 było to 24 cale a od połowy 2018 to 27 cali. Plan jest oczywiście by przekroczyć magiczną barierę 32 cali.
Jako, że gry to medium, w którym występuje dużo ruchu, z którym wchodzimy w interakcję osobiście wolę mieć te powiedzmy 100fps w 1080p niż 60fps w 1440p. Co z tego, że statyczny obraz na wyższej rozdzielczości wygląda lepiej, ale w grę gramy, ruszamy kamerą, a nie stoimy wpatrując się w jeden punkt, a im więcej fps ten obraz w ruchu jest ostrzejszy i ładniejszy.
Slogan 4k tyczy się głownie konsol a nie PC bo rozdzielczość koreluje z rozmiarem monitora, jeżeli ktoś zostaje na 24 calach to nie ma sensu by zwiększać rozdzielczość obraz tak czy siak będzie ostry a wymagania mniejsze, wraz z wzrostem przekątnej musi iść wzrost rozdzielczości 27 to taki idealny rozmiar do 1440p, dla 4k to jak autor mówi 32+ tylko że monitor to nie jest telewizor, wiele gier takich jak StarCraft, LoL CS lepiej sprawują się na matrycy 24 calowych, mój 27 jest za wielki więc jaki jest sens przesiadać sie na 4k? Moim zdaniem żaden, tak jak na samym początku napisałem inaczej ma się sprawa z 4k i 55 calowym telewizorem tam widać różnice gołym okiem. Ludzie poniżej piszą że przeskok jest ogromny ale w olbrzymiej mierze jest to spowodowane nie wzrostem rozdzielczości tylko wymianą samego panelu na nowy bo 10 letni dogorywający monitor na matrycy VA nie będzie miał podjazdu do nowego nano IPS.
15 lat temu w lokalnym sklepie komputerowym rodzice kupili mi pierwszy komputer z największym monitorem jaki tam był. LG flatron w2242T, czyli 22" 1680x1050 i 60hz. Nadal na nim działam i jest wystarczający dla obecnego gtx 1650 super.
W planach mam w tym roku wymienić procesor ryzen 3 3100 na 7 5800x3d. A dopiero w następnym roku zmiana monitora na 1440p.
Wcześniej miałem 24' w Fhd, wielkość optymalna, ale chcialem podbić rozdzielczość. Ostatecznie kupiłem 2k ale w 27'. Niby fajnie, ale choć mam go już kilka ladnych miesięcy i cały czas wydaje mi się za wielki... Czemu nie kupiłem 24' 2k? Praktycznie nieosiągalne. A jak są to w zaporowych cenach. Nie wiem czemu producenci nie oferują 24' z takimi matrycami, a już w 4k bez problemu. Pozdrawiam.
Ja też kupiłem 27 cali, ale z rozdzielczością 4K i tak samo jak dla ciebie - był dla mnie za wielki. To już nie jest monitor, a telewizor... Niekomfortowo się tego używa z tak bliskiej odległości jak się siedzi przy biurku. Bardziej męczy oczy, ciężko ogarniać to co się dzieje na rogach ekranu w grach, bo jest to po prostu zbyt duże. Na dniach wracam do 24 cali. Niestety wybór nie jest zbyt duży bo są albo delle 24 cale 1440p i 60Hz za powyżej 1000zł, albo iiyamy 1440p, 100Hz za 800zł.
O czym ty chłopie mówisz jakby w 3 minucie od razu stawiasz tezę xD Przesiadka z 24 cali full hd na 27 cali 1440p to na prawdę duża zmiana w grach zwłaszcza w teksturach lepszej jakości i obraz jest znacznie ostrzejszy.
"Naprawdę duża zmiana"?? chyba na wypasionych kartach :) Na większości kart, do płynnej rozgrywki będzie potrzebny upscaling, a to już pogorszy obraz. Może się więc nagle okazać, że obraz na monitorze 1440p, będzie bardzo podobny do tego z 1080p :)
@@gureedoteam56321440p z dlls quality wyglada duzo lepiej niz 1080p native : )
@@Rajd3rs To zależy, jak masz dobrej jakości monitor pod 1080p, to różnica owszem będzie, ale niewielka :)
@@gureedoteam5632Zamiast się mądrzyć może kup sobie takie monitory i porównaj xD
@@Rajd3rs Nie muszę, mam monitor Philipsa 1080p, a brat LG 1440p, więc mam porównanie :)
ja myślę że wystarczyło podać równanie że 1440p jest o ileś procent bardziej gęste niż 1080p i karta graficzna też musi być o ileś procent mocniejsza i materiał można było zrobić w 5 minut
Zależy czy zmieniasz przekątna monitora czy nie...
Bzdurki piszesz, PPI jest zależne od rozmiaru ekranu również a nie tylko rozdzielczości, można mieć takie samo PPI w monitorze 32 cale 1440p jak i 24 cale 1080p i to jest mega komfortowa kombinacja jak dla mnie, co do wydajności to tak, ale to też zależy. Taka porcja wiedzy może być jadnak dla kogoś wartościowa.
Ilość klatek nie spada proporcjonalnie do wzrostu liczby renderowanych pikseli.
nie musi być wprost proporcjonalna, wystarczy że istnieje jakaś sensowna zależność. Łatwo określić karty do 4k, karty do 2k i karty do FHD
@@gracjans815 Problem w tym, że nie istnieje. W niektórych grach spadek liczby klatek (na tych samych ustawieniach i na tym samym GPU) w 1440p wzgledem 1080p wynosi 20%, a w innych 40 czy 50%.