Hejo! Moi drodzy, ale premiera! Piękny jest ten RTX 4090. Bałem się jednak że Wam go nie dowiozę, jeszcze na godzinę przed zejściem NDA nie miałem gotowego filmu (eh, ten render!). Udało się, ale nie wprowadziłem 2-3 poprawek. 04:20 mówię o różnicach względem RTX 3090, ale miałem tu na myśli 3090 Ti. 04:58 - w Diablo RR dzieją się dziwne rzeczy z 1% 3090 Ti. Wygląda to na problemy z narzutem, zresztą w kilku innych grach 1% FT szaleje właśnie ze względu na bottleneck CPU. RTX 4090 radzi sobie z tym dużo lepiej, ale niekiedy może przegrać z Radeonem ;) 7:33 - wydajność w RT może ulec zmianie po wprowadzeniu trybu Ray Tracing: Overdrive. 10:57 - temperatury tyczą się nie wersji FE NVIDIA, a rzecz jasna tych które testowałem. Są one wcześniej wymienione na wykresach.
To ja mam pytanie. W ostatnich testach w większości gier prowadził i9 12900k (oczywiście zdarza się ze ryzen 3d gięcie intela) więc czemu testy nie odbyły się właśnie na i9 12900k? Jestem ciekaw jak wypadłyby testy wielu gier przy użyciu i9
@@Jutubee-ds1he Nawet na połowę tej karty mnie nie stać XD Przymierzam się do zakupu ale na kartę mam około 4000 i prawdę mówiąc to i tak nieporównywalnie więcej niż "typowy obywatel"
wszystko będzie zależeć od gry. Jak twórcy zrobią to jak należy to input lag się nie zwiekszy drastycznie :) w cyberze akurat DLSS jest dobrze zrobiony.
Input lag będzie zależny od ilości klatek jakies będzie wypluwać, może być dużo wyższy w dalekich przyszłych tytułach, kiedy nie będziemy obracać się w 100+fps z dlss3, ale to daleka przyszłość.
@@JuanPabloSecundo jeżeli ktoś będzie miał 30 FPS bez dlss to i tak input będzie spory. Zresztą przy 30 fps się przejmować input lagiem hmmm. Większość ludzi co gra na konsoli nawet nie wie co to jest.
Dziwnie to brzmi... fps x2 a input lag rośnie. Od zawsze jedno było synonimem drugiego, teraz trzeba będzie się 2x zastanowić nad każdym wynikiem z dlss3. Bo jednak fps fpsowi nie równy. Jak w większości grach będzie w większości na +, to jednak w fpsach to takie trochę puste ekstra klatki, chyba tylko do chwalenia się przed kolegami.
Nie masz czego żałować, mała lista obsługiwanych tytułów (sam w praktyce użyłem tylko w RDR2 i SoTR), kombinacje z konfiguracjami, błędy w działaniu. Więcej z tym problemów jak pożytku.
@@MrRobaloAmigo w laptopach mialo to sens, bo konfiguracje byly tam na sztywno i mialy dopracowane sterowniki, uzywalem, chwalilem sobie, oczywiscie nie wszedzie bylo wspierane, ale chociazby taki wiedzmin, dzialal mi na ultra na gtx 780m sli i7 4770 bodajze, nie pamietam dokladnie procka, bo bylo to lata temu, czy oplacalne? za bardzo nie, ale wydajne tak :)
@@krzysztofkowalik7306 Ja miałem MSI GT83 z 2x1080 i było źle. To był już moment widocznego schyłku tej technologii, dlatego też i sterowniki sprawiały więcej problemów, bo zapewne mniej im poświęcano już wtedy uwagi. Nawet z odpaleniem oficjalnie wspieranych tytułów musiałem się napracować w configach, prawie nic nie działało od ręki - chyba jedynie 3D Mark. Tak też zapamiętałem technologię SLI - doświadczenie ciekawe, ale nie czuję potrzeby powtórki :)
No beka a trzeba pamiętać że za jakiś czas zaczną wychodzić gry z obecnej generacji konsol PS5 i XSX gdzie większość twórców pomału będzie porzucać już stare maszynki Ps4 i XOne i wtedy dopiero wymagania gier skocza
Ja mam monitor 4K 144Hz i w komputerze RTX 2080 GAMING OC z 60 Hz jakoś sobie radzi, ale w przypadku 144 Hz co jakiś czas gaśnie obraz. Planuję przesiadkę w najbliższym czasie właśnie na RTX 4090, gdyż to zwieńczenie rozpoczętych zmian. Dzięki Lipton za materiał.
Z tym obniżeniem poboru prądu w porównaniu do 3090/3090ti to jest dobra informacja, że coś robią w tej kwestii "optymalizacji" energetycznej. Może niższe modele pójdą tym tropem i będą to naprawdę dość energooszczędne jednostki (w porównaniu do serii 30xx)
najpóźniej do czerwca 2023 kupić komputer w cenie do 3500-3600(aktualnie jestem za granicą więc mi się nie spieszy) opłaca mi się czekać że ceny spadną i kupię coś lepszego za parę miesięcy czy brać już teraz(mogę poczekać do czerwca).
Wychodzi petarda :) Swoją drogą jak dla mnie każda karta może ważyć po 2kg - byle by było chłodno i cicho :)) Właśnie Piotrze, ominąłem czy nie było podanej informacji o poziomie głośności?
przy takiej wadze chlodna moze byc co najwyzej karta. pomieszczenie w ktorym bedzie sie znajdowac, niekoniecznie, co bedzie mialo swoje plusy zimą. jak i swoje minusy latem. moj pc ciagnie 150w z gniazdka i przy 32 stopniach w pokoju, granie to byla katorga. 600w 1000w? no tak srednio bym powiedzial
@@RoPEK123xd u mnie to samo, skończyło się na ty ze latem nie grałem, albo grałem bardzo późnym wieczorem/nocą. Nie szło inaczej wytrzymać. Do takiego mocarnymi PC z 4090 to już klima w pokoju musi być :D
Podbijam. Masz ją? Ja mam okazje tanio kupic lekko uszkodzoną, ale działającą i majac 12600k i 3070tke oraz 16gb ramu ddr4 3600mhz oraz seasonica 650w platinum to mus. Miałem gigabyte gaming oc 3080 ale 350w poboru i hałas gpu mnie zabił... a zasilacz cichutki był po paru godzinach grania control w 1440p. Aiem ze 4090 to bottleneck ale za te pieniądze nawet nowej 4070tki super bym nie kupił.😂 nic tylko brac
Film pełna profeska :) Mam pytanie odnośnie zestawu polecanego za 12k, zapowiadają sie jakieś wieksze zmiany w podzespołach w najbliższym czasie na ktore warto poczekać ?
Cyberpunk ma błąd w silniku związany z opóźnieniem. Jeśli GPU jest obciążone na 100% lub bardzo blisko tej wartości, to opóźnienie znacząco rośnie. Nie jest to związane z żadnymi ustawieniami graficznymi (w tym DLSS ani RT). Dodam też, że nie jest to błąd odczytu softem od NV - różnica jest bardzo odczuwalna. Przykładowo gra na zablokowanym 80FPS gdzie karta lata na 85-95% jest dużo bardziej komfortowa, niż odblokowanie FPS i granie przy GPU na 100%. Robiłem testy tego na rtx 2080 - 80FPS przy GPU na poziomie
@@mateusz1703 U mnie w testach (i9 7920x @4.8GHz) nie ograniczał. Paradoksalnie będąc ograniczonym przez CPU miałbyś mniejsze opóźnienie bo karta nie latała by na 100%.
Ja wiem, że tu sami gracze, ale ja z punktu widzenia fotografa. Sam byłem sceptyczny, bo karty służą mi głównie do odszumiania fotografii i okazyjnie wideo i między 3060ti i 3080, które posiadam w dxo czy davinci resolve róznica to 15 i 30-40%. Co ciekawe 3090 niewiele była lepsza od 3080. Nie wiem co tu się odje.., ale wczoraj bedąc w zaprzyjaźnionej firmie, która już ma 4090 zrobiłem testy w blenderze i davinci i szczena mi opadła. W porównaniu do 3080 12gb to ta karta była grubo ponad 2 razy szybsza, gdzie między 3090 i 3080 to różnica była śmiesznie mała. Sam nie jestem zwolennikiem zmieniania sprzętu, bo boli mnie to strasznie. Lepiej update software'u zrobić czasem, bo np update dxo z 4 do 5 to był skok wydajności 100%, a z davinci 16 do 18 to lekko 25-30% i nikomu nie radzę zmiany sprzętu co roku, ale sam nie wiem czy kredyt czy nerka i 4090. W Danii 4080 i 4090 juz są i 4090 o 50%droższa od 3090 ti, ale wydajność jak nic 2 razy do przodu. Tak, 2 razy a nie 30%, bo render to mnie aż tak nie interesuje, co aplikacje polegające stricte na gpu, jak topaz czy odszumianie w davinci.
Oglądałem der Bauer i opowiadał że przy ustawieniu limitów mocy na 50-70 % karta radzi sobie równie dobrze (straty ok 5%) a spadek poboru o 100-150 w. Więc to jest ciekawe
DLSS 3 we Flight simulator czy np Cyberpunk to JAK NAJ BAR DZIEJ. W F1 której jestem ogromnym fanem , wyłaczam wogóle DLSS , RT i jedynie intereuja mnie tekstury w wysokiej jakości , w bardzo dynamicznych FPSach tego raczej nie widzę .
Widziałem opóźnienie u Blacka z dlss 3.0. w 120fps powinno być 8ms, a było grubo powyżej 30ms i to w 150fps. Nie wiem jakie będzie odczucie responsywnosci i mydła na ekranie w ruchu, bo same cyferki z FPS to nie wszystko, liczy się całość czyli opóźnienie też. Trzeba będzie zobaczyć na żywo bo to jest odczucie a odczucia nie zobaczysz na żadnym filmie.
Tutaj też podaję input całego systemu. Zdecydowanie polecam zobaczyć to na żywo, ale dla mnie wybór jest prosty: do gier AAA biorę DLSS3. Obrazek wygląda bardzo dobrze, a jako że nie jestem wytrawnym graczem to nie czuję różnicy między 10 a 30 ms. W sumie to nic dziwnego skoro od dłuższego czasu "console mode".
Pewnie do esportowych gier gdzie będziesz miał competitive nie będziesz odpalał dlss bo i tak pewnie same wyciągną dobrą liczbę klatek, a do całej reszty dlss on. Bo jednak z 40 fps zrobić 170 to masakra jakaś.
ogólnie to jest pieprzenie głupot co z tego że input lag jest mniejszy jak i tak tych 120 fps nie osiągniesz bez dlss :) więc to jest czepianie się o coś czego i tak by nie było bez dlss :) To tak jakbym miał ci powiedzieć że przy 1000 fps input lag wyniesie 1 ms a ja z dlss mam 50 input laga i 1000 fps a ty co masz ? niski input lag i 50 fps ? Myślcie :)
@@mrbeckham666 no właśnie to jest oszukane 120fps. Niby masz 120fps ale tak na prawdę to nie masz, to jest sztuczka z dlss wersji 3.0 która wstawia dodatkowa klatkę której nie powinno być naturalnie, na tym to polega i ciekawi mnie responsywnosc tego. Może być 120fps z dlss 3.0 a odczucia jak przy 80fps bez dlss. Mając oleda różnica między 60 FPS a 80fps na pc jest bardzo duża właśnie przez responsywnosc, wiadomo oledy mają 0,2ms i to zwyczajnie czuć w ilości FPS i opóźnienia z tym związane. Właśnie o czucie w ruchu mi chodzi. Sam gram na oledzie więc wiem co piszę.
Fajne testy. DDR4 na ręcznych opóźnieniach? Można by tak ustawiać przy testach GPU. Tak swoją drogą fajnie było by zobaczyć test docp vs ręczne w zestawieniu 5800x vs 5800x3d (by zobaczyć, ile dają ręczne opóźnienia przy pamięciach 3d - czyli % przyrost na 5800x vs % przyrost na 5800x3d).
Odnośnie Ampere to te karty dostały na starcie bardzo duże napięcie, na moim TUF 3080 udało się zejść poprzez UV do wartości 0.880v co dało poniżej 200W pobór prądu i temperatury w granicach 50-60c rdzeń i pamięci około 75. Ale na standardowych ustawieniach to ponad 350W czasem szło
Pokaż mi szczególnie na xkomie (nie wiem czemu tel był tak złośliwy i zmienił mi tak brzydko nazwę sklepu) gdzie macie te promocje za trochę ponad 5tys zł 3090ti ?U zachodnich sąsiadów to owszem bywają takie promocje... Co do ceny to ta karta jest totalnie nie dostępna dla zwykłego gracza :)
Może i generuje te przyzwoite klatki w 4K ale za jaką cenę, czy o to nam chodzi w wychodzeniu z FHD to kupowanie kart po 10tysi? Ciężko. Wiadomo chętnych nie zbraknie ale pytanie czy jest to droga którą chcemy kroczyć. Osobiście czekam na wydajność RTX 4080 12GB aby stwierdzić ile racji ma ta generacja :)
@@sawomirbartosiak2487 No nie wiem czy wyszlismy zdecydowana wieksząśc nadal uzywa full hd i to sie nie zmieni ^^. Co najwyżej 2k ma sens a 4k nie jest dla kazdego za drogie i nie potrzebne
@TechLipton Pytanie apropo poboru prądu, gdy w grze mam ustawienia gdzie gra może wyciska 100 FPSów i nie chce nic więcej/nic mniej. To np na GTX 1080 zjada to 200W prądu, RTX30xx/40xx będzie zjadał więcej czy mniej od tego GTX - są jakieś testy/wykresy na to? Rozumiem, że czym lepsza karta to więcej FPS i może być większe zużycie prądu - ale teraz konkretne ustawienia i czy na tym samym nowa karta leci bardziej EKO?
Ja czekam na RTXa 4070. Bardzo jestem ciekaw jak ta karta będzie się prezentować, bo jak wszyscy wiemy mamy już "pseudo RTXa 4070" ukrytego pod RTXem 4080 12GB. Jeżeli ceny RTXów 3080 nie spadną, to poczekam na RTXa 4070, bo mój 1060 już kwiczy xD
Już nie mogę się doczekać rtx 4080 16g/12g i ich testów. Może się skuszę na 4080 12g. Jeżeli chodzi o 4090 to to jest po prostu potwór który nie żre za dużo prądu(możliwe że 850w starczy), następnie temperatury są niskie jak na topowy model. Z dlss 3 może być różne jak i z rt ale jedno jest pewne- ta karta to tylko do 4K ewentualnie 2k.
@@jarekzahary Ich pojebało z tymi cenami... jesli ver. 12gb to odpowiednik standardowych xx80 to mamy tutaj przeskok ceny prawie dwukrotny względem poprzedników. Zastanawiałem się nad kupnem, ale jak zobaczyłem sugerowaną cenę to podziękowałem. Zostanę przy mojej nadal dającej radę 1070
@@nicolaos355 miałem GTX-a 1070. Świetna karta, w sumie nie musiałem się łakomić na 3070 i korzystać z niej śmiało do dziś, ale tak jakoś ogólny hype na karty 3xxx na mnie podziałał.
Hej mam takie pytanie do osób bardziej śledzących nowinki techniczne w zakresie sprzętu. Mam tą kartę RTX 4090 Gigabyte OC w zestawie z prockiem Ryzen 9 3900X. Czy mój proc nie będzie jakoś drastycznie ograniczał mozliwości tej karty w rozdziałce 1440p? o ile w CP 2077 mam 60-80 FPS o tyle w Wieśku 3 next gen mam jakieś takie niskie użycie GPU - 30-40% i tyle samo FPSów czyli 30-40.
Skoro temat kart graficznych to może ktoś mi podpowie czy warto w 2022 roku zakupić 3060Ti? Tym bardziej że w przyszłym roku ukaże się pewnie 4060 bo w średni segment celuję. Chodzi mi głównie o normalny rozmiar karty i rozsądny pobór mocy. 3060Ti te warunku spełnia ale pytanie czy poczekać na 4060 czy kupić to co jest ktoś chciałby doradzić?
Ja na przyszly rok biorę już sobie OLEDa 42" jako monitor, ale 3060Ti zamieniam na 3080Ti i 4K 100fps zamiast 200fps do wszystkich gier singlowych spokojnie mi wystarczy 😅
Za 2 lata 5090, który będzie wydajniejszy od 4090 o 50-70% będzie kosztować zgodnie z przewidywaniem około 20.000 zł - czajcie to? Dolar pewnie będzie po 7 zł.
ogólnie to moim zdaniem te karty są bardzo dobre lecz cena zawsze mogła by być chociaż o te 500 zł tańsza. A tak wg mógłbyś podać mi linka do muzyki z początku filmu ?
mysle ze ludzie nie zdają sobie sprawy jak trudne jest osiagniecie dobrego ray tracingu, ktory jest wyjątkowo trudny w implementacji ze wzgledu na obliczenia matematyczne. myślę że wydajny RT będzie dużo później niż stałe 240 fpsow w 4k na mainstreamowych kartach
ukróćmy to tak gdyby nie osłabienie złotówki i wzrost podatków 4090 ka by kosztowała 6-7k zł co już nie jest tak straszną kwotą jak 10k+ zł ale wszyscy wiemy komu dziękować za to
Jestem trochę zawiedziony że Lipton nawet nie wspomniał o braku DP 2.0. Śmieszne że karta tej półki ogranicza użytkownika do DP 1.4 - co z tego że ta karta wyciąga więcej niż 120 fpsów w 4k skoro DP 1.4 nie obsługuje więcej HZ w tej rozdzielczości. Karta zaprezentowana w samych superlatywach troche tak jakby sponsorowana bez kompletnej informacji o tym.
Wydaję mi się że w samych superlatywach o niej nie mówiłem. Fakt, zapomniałem wspomnieć o DP 2.0, natomiast nie uważam tego za jakiejś specjalnie dużej wady. Może dlatego że do tej pory 4K 240 Hz dla AAA było totalną abstrakcją.
DLSS niby spoko, ale w cyberpunku na przykład, te migające światełka, które pojawiają się po włączeniu są nie do zniesienia. Wolałbym jednak nie zostawać epileptykiem.
Ską wziałeś cenę dla 3090Ti? ASUS TUF GeForce RTX 3090 Ti OC Edition 24GB GDDR6X kosztuje w De 5975zł a w PL pewnie kilka stówek więcej - ale nie 11k zł!
4090Ti która powstanie pewnie nieznacznie jeszcze dołoży do pieca;). Ogólnie spodziewałem sie lepszych osiągów z RT, ale Cyberbug 2077 z DLSS 3 w trybie wydajności 140fps...to robi wrażenie. A kultura pracy cos pieknego to moja 3080 od Gigabyte wymieka choc suszarka nie moge jej nazwać. Jednak mam duze obawy o wydajność 4080. O ile wersja 16GB zapewne straci ok 30% względem 4090 to jej kastrat 12GB względem 3090Ti może w normalnej rasteryzacji nic nie zyskać a nawet stracić.
@@dzikimalpiszon tylko ponoć na 1440p właśnie lepiej na takim zestawie grać bo bardziej ciągnie z karty czy coś takiego, a grałeś może kiedyś na tej konfiguracji w 1080p w rdr 2 lub jakiegos coda battlefielda?
@@Paniczan012 w Battlefieldy owszem, grałem sporo ale raczej w wyższej rozdziałce. Jeżeli pytasz o radę, to imo lepiej zmienić procek na nowszy, niż wkładać lepszą kartę, niż 1660 super :)
@@dzikimalpiszon tylko właśnie nowy procek nowa karta nowy ram itd niestety trochę będzie kosztowało i chciałbym polecieć nieco budżetowo tylko właśnie czy jest sens kupować takiego gtx 1660 super jak będę miał i tak przycinki w grach czy już powoli budować kompa od nowa
Kupować Rtx tylko po to żeby go nie włączać? To lepiej czekać na radeona . Sam posiadam 3090Ti myślałem że w końcu na 4090 pogram w 4K z RT na maxa a tu co 😞 . Zaczekał bym na 4090 Ti ale jak przecieki z poborem mocy się sprawdzą to nie będzie mnie stać na prąd. Pozdrawiam
I tak i nie, DLSS3 na pewno wyprodukuje sporo klatek i może gra działać płynnie nawet, ale przy małej ilości klatek input lag jest jeszcze większy, a to pięta Achillesowa DLSS3
ta karta ma tyle mocy ze robienie na niej OC jest nie potrzebne wprost nie zalecane. Teraz jest kwestie taka jaki procesor do niej i do gry w 2k [1440p] jeśli mam procesor 10 generacji 10600k od Intela z możliwością adaptacji do 11 generacji na płycie z490 i szybki ram 16gb ddr4 4400mhz. Czy to nie będzie hamulcowym dla tej karty ? Czy trzeba zmienić platformę ? czy lepiej kupić słabsza kartę np 4080 czy 4070 ? Dodam ze mam obecnie Aorust Master 3060TI 8gb ddr6
Jakośc jest pogorszona sam to testowałem w dodatku moja,starą karta rtx 3080 działała lepiej i płynniej w 90 klatkach na monitorze 165hz niż rtx 4070ti na 120 klatkach 😢
no i tutaj haczyk bo ta karta ma DP 1.4 co znaczy że monitor nie obsłuży więcej niż 120fps w 4k... masakryczna wpadka NVIDII a lipton o tym 0 wspomnienia
@@jonyasdasd8841 jest to absolutny top nie ma nawet o czym rozmawiać... Natomiast spójrz z innej strony za 10 tys możesz złożyć super komputer z Radeonem 6950 xt gdzie z rtx 3090 ti będzie to 13 tyś a 4090 15-16 tys ja osobiście wybrałbym Radeona i poszedł w taka samą wydajność co rtx 3090 ti Ti...chociaż i tak wolę Xboxa za 2500zl :p
@Mateusz Graczyk Damn, nie chce mi sie zmieniać PSU na cos mocniejszego gdybym wzial GPU z serii 4xxx, bo rozgrzebywanie i wyjmowanie tych kabli, a potem montowanie i ukladanie wszystkiego od nowa w srodku po zmianie PSU to czesto nightmare fuel dla mnie :D
@Mateusz Graczyk BlackWhite mowil ze referent 4090 ponoc zjada mniej niz referent 3090 Ti, wiec 850W-tka powinna dawac rade. Ale pewnie i tak skonczy sie zmiana PSU eh, tym razem wezme 1200W zeby byl spokoj mysle.
Ja Cię kręcę CPU 8/16 + RTX4090 + 32GB DDR4 3600mhz + 2TB SSD NVME system + 2x 2TB SSD NVME na dane + chłodzenia to pożeracz prądu :D Granie w 4K na takim PC jest cudne lecz kosztowne :P XSX lub PS5 ewentualnie generacja wstecz XOX lub PS4 Pro W dobie z drogim prądem i limitami od 2023r to taki komputer z monitorem 4K144hz spokojnie miesięcznie może wyciągać 80 kWh
@@sawomirbartosiak2487 210W max bierze + monitor 4K to e sumie 300W weźmie. Komputer z 4K ekranem 800-900 W jest różnica jest . Ps5 czy Xbox series X mają już dobra oprawę graficzną i muzyczną :) Więc można spokojnie pograć i nie płacić krocie z prąd. Proszę bardzo korzystać jak chcesz ale będziesz w szoku jak po 10 miesiącach ponad 2MWh zużyjesz... Pamiętaj ze w domu oprócz komputera mamy inne urządzenia.. u mnie laserowa drukarka przy drukowaniu miesięcznym zużywa 400W :) + lodówka pralka itd i 120 kWh miesięcznie nie ma :) a orzy takim PC 250kwh jak nic strzeliło by
Hejo! Moi drodzy, ale premiera! Piękny jest ten RTX 4090. Bałem się jednak że Wam go nie dowiozę, jeszcze na godzinę przed zejściem NDA nie miałem gotowego filmu (eh, ten render!). Udało się, ale nie wprowadziłem 2-3 poprawek.
04:20 mówię o różnicach względem RTX 3090, ale miałem tu na myśli 3090 Ti.
04:58 - w Diablo RR dzieją się dziwne rzeczy z 1% 3090 Ti. Wygląda to na problemy z narzutem, zresztą w kilku innych grach 1% FT szaleje właśnie ze względu na bottleneck CPU. RTX 4090 radzi sobie z tym dużo lepiej, ale niekiedy może przegrać z Radeonem ;)
7:33 - wydajność w RT może ulec zmianie po wprowadzeniu trybu Ray Tracing: Overdrive.
10:57 - temperatury tyczą się nie wersji FE NVIDIA, a rzecz jasna tych które testowałem. Są one wcześniej wymienione na wykresach.
Podawaj prawdziwe ceny 4090 .
Sorry ale wycena 4090 jest bardzo dobra niczym się nie różni od 3090 oprócz wspaniałym kursem $
Hejo! Jak metodę pomiarową zastosowałeś do pomiaru poboru mocy?
To dlatego, że nie korzystałeś z rtx 4090, a tak w ogoóle to ile za tę reklamę dostaliście??
To ja mam pytanie. W ostatnich testach w większości gier prowadził i9 12900k (oczywiście zdarza się ze ryzen 3d gięcie intela) więc czemu testy nie odbyły się właśnie na i9 12900k?
Jestem ciekaw jak wypadłyby testy wielu gier przy użyciu i9
Nie stać mnie, ale i tak czekałem
Teraz na kartę a niedługo i na prąd...😛
@@Jutubee-ds1he Nawet na połowę tej karty mnie nie stać XD Przymierzam się do zakupu ale na kartę mam około 4000 i prawdę mówiąc to i tak nieporównywalnie więcej niż "typowy obywatel"
@@bartoszgotlib2658 to 40xx.nie kupisz 😂
@@jarekzahary Liczę na RXy, jak nie nowa generacja to 6000 biorę
@@bartoszgotlib2658 3080 ti spróbuj złapać na promocji. Albo 3080 z dobrym chłodzeniem
Kurde jest lepiej niż myślałem. Najbardziej obawiałem się tego inputlaga przy DLSS3, ale wygląda to naprawdę fajnie.
wszystko będzie zależeć od gry. Jak twórcy zrobią to jak należy to input lag się nie zwiekszy drastycznie :) w cyberze akurat DLSS jest dobrze zrobiony.
Input lag będzie zależny od ilości klatek jakies będzie wypluwać, może być dużo wyższy w dalekich przyszłych tytułach, kiedy nie będziemy obracać się w 100+fps z dlss3, ale to daleka przyszłość.
@@JuanPabloSecundo jeżeli ktoś będzie miał 30 FPS bez dlss to i tak input będzie spory. Zresztą przy 30 fps się przejmować input lagiem hmmm. Większość ludzi co gra na konsoli nawet nie wie co to jest.
Dziwnie to brzmi... fps x2 a input lag rośnie. Od zawsze jedno było synonimem drugiego, teraz trzeba będzie się 2x zastanowić nad każdym wynikiem z dlss3. Bo jednak fps fpsowi nie równy. Jak w większości grach będzie w większości na +, to jednak w fpsach to takie trochę puste ekstra klatki, chyba tylko do chwalenia się przed kolegami.
@@dragzzt nie do końca mając np ekran 140 hz te 60 a 90 FPS robi sporą różnicę i to nawet udawane klatki
to już koniec SLI ? ! A ja jeszcze przez te 20 lat nie zdążyłem wypróbować tej technologii xDD
Nie była opłacalna
Nie masz czego żałować, mała lista obsługiwanych tytułów (sam w praktyce użyłem tylko w RDR2 i SoTR), kombinacje z konfiguracjami, błędy w działaniu. Więcej z tym problemów jak pożytku.
@@MrRobaloAmigo uf, no to rzeczywiście może i lepiej
@@MrRobaloAmigo w laptopach mialo to sens, bo konfiguracje byly tam na sztywno i mialy dopracowane sterowniki, uzywalem, chwalilem sobie, oczywiscie nie wszedzie bylo wspierane, ale chociazby taki wiedzmin, dzialal mi na ultra na gtx 780m sli i7 4770 bodajze, nie pamietam dokladnie procka, bo bylo to lata temu, czy oplacalne? za bardzo nie, ale wydajne tak :)
@@krzysztofkowalik7306 Ja miałem MSI GT83 z 2x1080 i było źle. To był już moment widocznego schyłku tej technologii, dlatego też i sterowniki sprawiały więcej problemów, bo zapewne mniej im poświęcano już wtedy uwagi. Nawet z odpaleniem oficjalnie wspieranych tytułów musiałem się napracować w configach, prawie nic nie działało od ręki - chyba jedynie 3D Mark. Tak też zapamiętałem technologię SLI - doświadczenie ciekawe, ale nie czuję potrzeby powtórki :)
Wydajnosc w 4k mnie zaskoczyła, zmasakrowała starsze modele
Oglądam twoje materiały już bardzo długo i nie wiem jak to się stało że suba dopiero teraz zostawiłem 🤣 cóż lepiej późno niż wcale 😎 Pozdrawiam
8:53 - też tego trochę szukałem w F1 i to ta opcja bez opisu pod "Ostrość DLSS" 😂 taki urok testowych buildów
Tak myślałem, ale wolałem nie ryzykować. Sprawdzę zatem niebawem!
No jest sieka 💪 pozazdrościć każdemu przyszłemu właścicielowi 😂
Super. Tylko czym się podniecać jak gry stoją w miejscu ? Testami na tytuach z przed 3 lat? Portów starych gier z konsol .....
Crysis w końcu pujdzie
No beka a trzeba pamiętać że za jakiś czas zaczną wychodzić gry z obecnej generacji konsol PS5 i XSX gdzie większość twórców pomału będzie porzucać już stare maszynki Ps4 i XOne i wtedy dopiero wymagania gier skocza
Lipton a jak temperatury pamięci i sekcji zasilania? pomyśleli chociaż o dobrym odprowadzaniu ciepła czy znów skupili się na gpu ?
Nie podłączałem jeszcze sond.
Okej, słyszałem że w HWinfo jest widoczna temperatura. Zastosuję to w testach nieref.
Ja mam monitor 4K 144Hz i w komputerze RTX 2080 GAMING OC z 60 Hz jakoś sobie radzi, ale w przypadku 144 Hz co jakiś czas gaśnie obraz. Planuję przesiadkę w najbliższym czasie właśnie na RTX 4090, gdyż to zwieńczenie rozpoczętych zmian. Dzięki Lipton za materiał.
Mogę zapytać Cię dokładniej o ten monitor? Producent, i cena, no i przede wszystkim: czy jesteś zadowolony?
Z tym obniżeniem poboru prądu w porównaniu do 3090/3090ti to jest dobra informacja, że coś robią w tej kwestii "optymalizacji" energetycznej. Może niższe modele pójdą tym tropem i będą to naprawdę dość energooszczędne jednostki (w porównaniu do serii 30xx)
4nm proces robi swoje
najpóźniej do czerwca 2023 kupić komputer w cenie do 3500-3600(aktualnie jestem za granicą więc mi się nie spieszy) opłaca mi się czekać że ceny spadną i kupię coś lepszego za parę miesięcy czy brać już teraz(mogę poczekać do czerwca).
Wychodzi petarda :)
Swoją drogą jak dla mnie każda karta może ważyć po 2kg - byle by było chłodno i cicho :))
Właśnie Piotrze, ominąłem czy nie było podanej informacji o poziomie głośności?
przy takiej wadze chlodna moze byc co najwyzej karta. pomieszczenie w ktorym bedzie sie znajdowac, niekoniecznie, co bedzie mialo swoje plusy zimą.
jak i swoje minusy latem. moj pc ciagnie 150w z gniazdka i przy 32 stopniach w pokoju, granie to byla katorga. 600w 1000w? no tak srednio bym powiedzial
@@RoPEK123xd u mnie to samo, skończyło się na ty ze latem nie grałem, albo grałem bardzo późnym wieczorem/nocą. Nie szło inaczej wytrzymać. Do takiego mocarnymi PC z 4090 to już klima w pokoju musi być :D
@@RoPEK123xd Jak najbardziej czaje :) Ale co zrobisz, wszystko wydziela ciepełko, w zimie będzie można się dogrzać taką 4090tką :D
@@niemyknox to jest ta jasna strona medalu, haha
@@niemyknox Farelka 4090 ;-)
Mozna liczyc na wstawke jak wypda UV na tej karcie?
ponoc ustawienie powerlimitu na 60% redukuje wydajnosc tylko o 10%
Podbijam. Masz ją? Ja mam okazje tanio kupic lekko uszkodzoną, ale działającą i majac 12600k i 3070tke oraz 16gb ramu ddr4 3600mhz oraz seasonica 650w platinum to mus. Miałem gigabyte gaming oc 3080 ale 350w poboru i hałas gpu mnie zabił... a zasilacz cichutki był po paru godzinach grania control w 1440p. Aiem ze 4090 to bottleneck ale za te pieniądze nawet nowej 4070tki super bym nie kupił.😂 nic tylko brac
Film pełna profeska :) Mam pytanie odnośnie zestawu polecanego za 12k, zapowiadają sie jakieś wieksze zmiany w podzespołach w najbliższym czasie na ktore warto poczekać ?
Witam, a jak to jest obecnie z niereferentami? Który model ze względu na wydajność, w tym chłodzenie warto wybrać ponad innymi? :)
Cyberpunk ma błąd w silniku związany z opóźnieniem. Jeśli GPU jest obciążone na 100% lub bardzo blisko tej wartości, to opóźnienie znacząco rośnie. Nie jest to związane z żadnymi ustawieniami graficznymi (w tym DLSS ani RT). Dodam też, że nie jest to błąd odczytu softem od NV - różnica jest bardzo odczuwalna. Przykładowo gra na zablokowanym 80FPS gdzie karta lata na 85-95% jest dużo bardziej komfortowa, niż odblokowanie FPS i granie przy GPU na 100%.
Robiłem testy tego na rtx 2080 - 80FPS przy GPU na poziomie
@@mateusz1703 U mnie w testach (i9 7920x @4.8GHz) nie ograniczał. Paradoksalnie będąc ograniczonym przez CPU miałbyś mniejsze opóźnienie bo karta nie latała by na 100%.
Pierwszy raz o tym słyszę. Sprawdzę tak czy siak.
Ja wiem, że tu sami gracze, ale ja z punktu widzenia fotografa. Sam byłem sceptyczny, bo karty służą mi głównie do odszumiania fotografii i okazyjnie wideo i między 3060ti i 3080, które posiadam w dxo czy davinci resolve róznica to 15 i 30-40%. Co ciekawe 3090 niewiele była lepsza od 3080. Nie wiem co tu się odje.., ale wczoraj bedąc w zaprzyjaźnionej firmie, która już ma 4090 zrobiłem testy w blenderze i davinci i szczena mi opadła. W porównaniu do 3080 12gb to ta karta była grubo ponad 2 razy szybsza, gdzie między 3090 i 3080 to różnica była śmiesznie mała. Sam nie jestem zwolennikiem zmieniania sprzętu, bo boli mnie to strasznie. Lepiej update software'u zrobić czasem, bo np update dxo z 4 do 5 to był skok wydajności 100%, a z davinci 16 do 18 to lekko 25-30% i nikomu nie radzę zmiany sprzętu co roku, ale sam nie wiem czy kredyt czy nerka i 4090. W Danii 4080 i 4090 juz są i 4090 o 50%droższa od 3090 ti, ale wydajność jak nic 2 razy do przodu. Tak, 2 razy a nie 30%, bo render to mnie aż tak nie interesuje, co aplikacje polegające stricte na gpu, jak topaz czy odszumianie w davinci.
Oglądałem der Bauer i opowiadał że przy ustawieniu limitów mocy na 50-70 % karta radzi sobie równie dobrze (straty ok 5%) a spadek poboru o 100-150 w. Więc to jest ciekawe
DLSS 3 we Flight simulator czy np Cyberpunk to JAK NAJ BAR DZIEJ. W F1 której jestem ogromnym fanem , wyłaczam wogóle DLSS , RT i jedynie intereuja mnie tekstury w wysokiej jakości , w bardzo dynamicznych FPSach tego raczej nie widzę .
Widziałem opóźnienie u Blacka z dlss 3.0. w 120fps powinno być 8ms, a było grubo powyżej 30ms i to w 150fps. Nie wiem jakie będzie odczucie responsywnosci i mydła na ekranie w ruchu, bo same cyferki z FPS to nie wszystko, liczy się całość czyli opóźnienie też. Trzeba będzie zobaczyć na żywo bo to jest odczucie a odczucia nie zobaczysz na żadnym filmie.
Tutaj też podaję input całego systemu. Zdecydowanie polecam zobaczyć to na żywo, ale dla mnie wybór jest prosty: do gier AAA biorę DLSS3. Obrazek wygląda bardzo dobrze, a jako że nie jestem wytrawnym graczem to nie czuję różnicy między 10 a 30 ms. W sumie to nic dziwnego skoro od dłuższego czasu "console mode".
Pewnie do esportowych gier gdzie będziesz miał competitive nie będziesz odpalał dlss bo i tak pewnie same wyciągną dobrą liczbę klatek, a do całej reszty dlss on. Bo jednak z 40 fps zrobić 170 to masakra jakaś.
ogólnie to jest pieprzenie głupot co z tego że input lag jest mniejszy jak i tak tych 120 fps nie osiągniesz bez dlss :) więc to jest czepianie się o coś czego i tak by nie było bez dlss :) To tak jakbym miał ci powiedzieć że przy 1000 fps input lag wyniesie 1 ms a ja z dlss mam 50 input laga i 1000 fps a ty co masz ? niski input lag i 50 fps ? Myślcie :)
@@mrbeckham666 no właśnie to jest oszukane 120fps. Niby masz 120fps ale tak na prawdę to nie masz, to jest sztuczka z dlss wersji 3.0 która wstawia dodatkowa klatkę której nie powinno być naturalnie, na tym to polega i ciekawi mnie responsywnosc tego. Może być 120fps z dlss 3.0 a odczucia jak przy 80fps bez dlss. Mając oleda różnica między 60 FPS a 80fps na pc jest bardzo duża właśnie przez responsywnosc, wiadomo oledy mają 0,2ms i to zwyczajnie czuć w ilości FPS i opóźnienia z tym związane. Właśnie o czucie w ruchu mi chodzi. Sam gram na oledzie więc wiem co piszę.
@@tomaszrzeznik3444 0,2 ms 😹
Fajne testy. DDR4 na ręcznych opóźnieniach? Można by tak ustawiać przy testach GPU. Tak swoją drogą fajnie było by zobaczyć test docp vs ręczne w zestawieniu 5800x vs 5800x3d (by zobaczyć, ile dają ręczne opóźnienia przy pamięciach 3d - czyli % przyrost na 5800x vs % przyrost na 5800x3d).
W swoich platformach zawsze ustawiam ręcznie opóźnienia.
Odnośnie Ampere to te karty dostały na starcie bardzo duże napięcie, na moim TUF 3080 udało się zejść poprzez UV do wartości 0.880v co dało poniżej 200W pobór prądu i temperatury w granicach 50-60c rdzeń i pamięci około 75. Ale na standardowych ustawieniach to ponad 350W czasem szło
RTXy jarają!!! Czekam na zestawy z takim GPU. Szczególnie ciekawe może być 4080, chociaż ceny straszne.
No tak tylko w co grać? W Remastery non stop?
Coś tam wychodzi
Też się zastanawiam do czego nam teraz te nowe karty🤔 mogli dać sobie spokój i przeskoczyć o generację.
@@matiolok2429 nie stać cie to siedź cicho
Stalker 2!
@@jarekzahary co siedź cicho ja za 10 klocków oczekuję więcej człowieku biegnijcie i nie pozabijajcie się o te cegły🤣
posiadam 4090 od zotac i bardzo mnie ciekawi co oznacza świecąca czerwona dioda przy wejściu kabli od zasilania
Pokaż mi szczególnie na xkomie (nie wiem czemu tel był tak złośliwy i zmienił mi tak brzydko nazwę sklepu) gdzie macie te promocje za trochę ponad 5tys zł 3090ti ?U zachodnich sąsiadów to owszem bywają takie promocje... Co do ceny to ta karta jest totalnie nie dostępna dla zwykłego gracza :)
13:46 Taa, tylko czy taki skok wydajności będzie w przypadku każdego modelu RTX4xxx w stosunku do poprzednika? A no nie. 🤣
Jak się mają osiągi, do przewidywań sprzed 10-15 lat?
A jakie byly?
Za jakieś dwa lata chętnie zmienię moją 3080 na 4090TI.
Lubisz przepłacać? 🤣
Produkt ciekawostka. Czekam na AMD. Kompletnie nieopłacalny zakup. Owszem niesamowita wydajność ale 10k? Halo.... :)
No raczej. Tragedia ta cena. Wydajność w stosunku do ceny tez nie powala
AMD dostosuje ceny do konkurenta. Tanie AMD już było.
@@marcin2256 wiadomo. Nawet jeśli to 10% max
Może i generuje te przyzwoite klatki w 4K ale za jaką cenę, czy o to nam chodzi w wychodzeniu z FHD to kupowanie kart po 10tysi? Ciężko. Wiadomo chętnych nie zbraknie ale pytanie czy jest to droga którą chcemy kroczyć. Osobiście czekam na wydajność RTX 4080 12GB aby stwierdzić ile racji ma ta generacja :)
FHD to juz dawno wyszliśmy i starczy Ci karta za 1500-2000zł. W tej rozdzielczości blokuje nas po prostu wydajność CPU i to widać na wielu testach.
@@sawomirbartosiak2487 No nie wiem czy wyszlismy zdecydowana wieksząśc nadal uzywa full hd i to sie nie zmieni ^^. Co najwyżej 2k ma sens a 4k nie jest dla kazdego za drogie i nie potrzebne
@@diablo4624 Przecież stoi wołami, że chodzi o full HD.
@@VVilkacy Mój błąd, źle przeczytałem.
@@Fugger6 Keep fooling yourself 🤡
@TechLipton Pytanie apropo poboru prądu, gdy w grze mam ustawienia gdzie gra może wyciska 100 FPSów i nie chce nic więcej/nic mniej.
To np na GTX 1080 zjada to 200W prądu, RTX30xx/40xx będzie zjadał więcej czy mniej od tego GTX - są jakieś testy/wykresy na to?
Rozumiem, że czym lepsza karta to więcej FPS i może być większe zużycie prądu - ale teraz konkretne ustawienia i czy na tym samym nowa karta leci bardziej EKO?
Jak ustawisz limit fps lub vsynch to będzie mniej prundu jeść niż poprzednia seria
@@piksodriver undervolting też by swoje zrobił :)
Ja czekam na RTXa 4070. Bardzo jestem ciekaw jak ta karta będzie się prezentować, bo jak wszyscy wiemy mamy już "pseudo RTXa 4070" ukrytego pod RTXem 4080 12GB. Jeżeli ceny RTXów 3080 nie spadną, to poczekam na RTXa 4070, bo mój 1060 już kwiczy xD
tymczasem ja który się cieszy że kupił 1050 ti :|
@@witek_nowaczewski 🫵😂🤡
Powtór, nic dodać nic ująć 😍
Techlipton jaki masz prywatny komputer pc ?
Wpisz w YT: TeaMaster.
lipton, siema, kiedy bedą dostępne niereferenty w sklepie
Już nie mogę się doczekać rtx 4080 16g/12g i ich testów. Może się skuszę na 4080 12g. Jeżeli chodzi o 4090 to to jest po prostu potwór który nie żre za dużo prądu(możliwe że 850w starczy), następnie temperatury są niskie jak na topowy model. Z dlss 3 może być różne jak i z rt ale jedno jest pewne- ta karta to tylko do 4K ewentualnie 2k.
5,2k za wykastrowany produkt 😂 Śmiało kupuj 🤣
@@jarekzahary Ich pojebało z tymi cenami... jesli ver. 12gb to odpowiednik standardowych xx80 to mamy tutaj przeskok ceny prawie dwukrotny względem poprzedników. Zastanawiałem się nad kupnem, ale jak zobaczyłem sugerowaną cenę to podziękowałem. Zostanę przy mojej nadal dającej radę 1070
@@nicolaos355 miałem GTX-a 1070. Świetna karta, w sumie nie musiałem się łakomić na 3070 i korzystać z niej śmiało do dziś, ale tak jakoś ogólny hype na karty 3xxx na mnie podziałał.
Hej mam takie pytanie do osób bardziej śledzących nowinki techniczne w zakresie sprzętu. Mam tą kartę RTX 4090 Gigabyte OC w zestawie z prockiem Ryzen 9 3900X. Czy mój proc nie będzie jakoś drastycznie ograniczał mozliwości tej karty w rozdziałce 1440p? o ile w CP 2077 mam 60-80 FPS o tyle w Wieśku 3 next gen mam jakieś takie niskie użycie GPU - 30-40% i tyle samo FPSów czyli 30-40.
To już jestem pewny że będę samochód sprzedawać.
Do tego rowerek albo miesięczny. Nie głupi pomysł. Przelicz rośnie ile zyskasz nie płacąc za paliwo i ubezpieczenie ✌️
Skoro temat kart graficznych to może ktoś mi podpowie czy warto w 2022 roku zakupić 3060Ti? Tym bardziej że w przyszłym roku ukaże się pewnie 4060 bo w średni segment celuję. Chodzi mi głównie o normalny rozmiar karty i rozsądny pobór mocy. 3060Ti te warunku spełnia ale pytanie czy poczekać na 4060 czy kupić to co jest ktoś chciałby doradzić?
Szklana kula mi śnieży. O RTX 4060 nie wiadomo zbyt wiele, w plotkach wygląda nieciekawie.
Ja na przyszly rok biorę już sobie OLEDa 42" jako monitor, ale 3060Ti zamieniam na 3080Ti i 4K 100fps zamiast 200fps do wszystkich gier singlowych spokojnie mi wystarczy 😅
Małe oledy są marne i jakie 200 fps 🤣
@@jarekzaharya ja w przyszłym roku lece na marsa. 200fps w 4k, chyba w saperze...🤣
Czy tylko ja zwróciłem uwagę na przesunięcie się wskaźnika temperatury nvidi 3090 ti OC 11:02?
Za 2 lata 5090, który będzie wydajniejszy od 4090 o 50-70% będzie kosztować zgodnie z przewidywaniem około 20.000 zł - czajcie to? Dolar pewnie będzie po 7 zł.
efektywność energetyczna i temp nie robią wraenia, jeśli spojrzymy na to kto produkował sam rdzeń.
ogólnie to moim zdaniem te karty są bardzo dobre lecz cena zawsze mogła by być chociaż o te 500 zł tańsza.
A tak wg mógłbyś podać mi linka do muzyki z początku filmu ?
mysle ze ludzie nie zdają sobie sprawy jak trudne jest osiagniecie dobrego ray tracingu, ktory jest wyjątkowo trudny w implementacji ze wzgledu na obliczenia matematyczne. myślę że wydajny RT będzie dużo później niż stałe 240 fpsow w 4k na mainstreamowych kartach
6:50 Izak 😄
Ja nadal siedzę na 1080 Ti z poborem 250 - 300 W całego zestawu. Kurs 4.94 zł za dolara.
Nie wiem czemu to takie wielkie. Wersje na wodnym chłodzeniu są 2 razy krótsze np GeForce RTX 4090 iCHILL Frostbite 24GB GDDR6X (C4090-246XX-1833FB)
ukróćmy to tak
gdyby nie osłabienie złotówki i wzrost podatków
4090 ka by kosztowała 6-7k zł
co już nie jest tak straszną kwotą jak 10k+ zł
ale wszyscy wiemy komu dziękować za to
@TechLipton: zapomniales dodac zeby zebysmy kompa polozyli poziomo bo ta karta bedzie lamac plyty glowne ze az milo :)
w większości modeli są podpórki pod kartą.
Jaka odpowiedz Raja Koduriego i kart INTELA na tą kartę ? Co wypuszczą konkurencyjnego?
Nic?
@@jarekzahary może wypuszczą jakiegoś asa z rękawa
@@mariuszsaassa414 😂
Jakie były temperatury na hot spocie i pamięciach ?
Nie ma czujników, a sond jeszcze nie podpinałem.
dzięki za materiał, pozdro!
Jestem trochę zawiedziony że Lipton nawet nie wspomniał o braku DP 2.0. Śmieszne że karta tej półki ogranicza użytkownika do DP 1.4 - co z tego że ta karta wyciąga więcej niż 120 fpsów w 4k skoro DP 1.4 nie obsługuje więcej HZ w tej rozdzielczości.
Karta zaprezentowana w samych superlatywach troche tak jakby sponsorowana bez kompletnej informacji o tym.
Wydaję mi się że w samych superlatywach o niej nie mówiłem. Fakt, zapomniałem wspomnieć o DP 2.0, natomiast nie uważam tego za jakiejś specjalnie dużej wady. Może dlatego że do tej pory 4K 240 Hz dla AAA było totalną abstrakcją.
I mowie tutaj o zadnych wspomagaczy dlls czy fg bo zaraz bedzie ze nowe rtx maja dlls 3.0 a nie 2.0 dlatego tak sie dzieje
No to jak mówimy o kartach to potrzebuje dobrać komponenty do mojej karty AMD Radeon rx580 8gb od xfx
Jak zmierzyłeś input lag systemowy jakims programem?
Frameview, to rozwiązanie od NVIDIA.
DLSS niby spoko, ale w cyberpunku na przykład, te migające światełka, które pojawiają się po włączeniu są nie do zniesienia. Wolałbym jednak nie zostawać epileptykiem.
Ja z RTX 3070 Ti, chyba dopiero na kartę serii RTX 50XX się przesiade, może na RTX 5080...
Timer resuluson obiniża opuźnienie o 5-7ms u mnie w laptopue to moze przy 4090 też by coś dało
Tylko w co się gra na takiej karcie wykorzystując w pełni jej moc? Prawie same szmiry i odgrzewane kotlety co rok.
ogromne różnice w wyższych rozdzielczościach :O
Ja tak z innej beczki. Już nie będzie wiecej PCranks?
Ską wziałeś cenę dla 3090Ti? ASUS TUF GeForce RTX 3090 Ti OC Edition 24GB GDDR6X kosztuje w De 5975zł a w PL pewnie kilka stówek więcej - ale nie 11k zł!
Tyle w polin właśnie kosztuje w sklepach januszy biznesu, co myślą że krypto jest jeszcze na topie i znajdą frajerów na drogie karty
a ja się zapytam jak zakupić 4090 FE, bo Nvidia nie oferuje takiej opcji ; p
Mnie to najbardziej interesuje jak karta reaguje na undervolt lub power limit 90% :).
@Agrafka Agrafka jak to obnizonej żywotności?
Nie prościej po prostu ograniczyć FPS-y?
@Agrafka Agrafka W jaki sposób? Niższa temperatura raczej będzie bezpieczniejsza. W idlu cały czas są znacznie niższe napięcia tyle, że A też niski...
4090Ti która powstanie pewnie nieznacznie jeszcze dołoży do pieca;). Ogólnie spodziewałem sie lepszych osiągów z RT, ale Cyberbug 2077 z DLSS 3 w trybie wydajności 140fps...to robi wrażenie. A kultura pracy cos pieknego to moja 3080 od Gigabyte wymieka choc suszarka nie moge jej nazwać. Jednak mam duze obawy o wydajność 4080. O ile wersja 16GB zapewne straci ok 30% względem 4090 to jej kastrat 12GB względem 3090Ti może w normalnej rasteryzacji nic nie zyskać a nawet stracić.
nie powstanie.
rtx 4090 koszt 7500 zl w wersji Founders Edition ciekawe ile bedzie chodzic wersja ti
Mój biedny 3090 jest juz obsolete :c A co z tym trybem Overdrive do Cyberpunka? Tego nie udostepnili?
Nie ma jeszcze.
@@TechLipton Szkoda, mam chociaz nadzieje ze w odroznieniu od DLSS 3.0 tryb overdrive bedzie mozliwy do uruchomienia na 3000 series
Cześć, proszę podpowiedzcie czy gtx 1660 super będzie dobry z i5 4670 do gier 1080p ?
Będzie spoko, u mnie z i5-3570k na tej karcie gram w 1440p i jest zadowalająco :)
@@dzikimalpiszon tylko ponoć na 1440p właśnie lepiej na takim zestawie grać bo bardziej ciągnie z karty czy coś takiego, a grałeś może kiedyś na tej konfiguracji w 1080p w rdr 2 lub jakiegos coda battlefielda?
@@Paniczan012 w Battlefieldy owszem, grałem sporo ale raczej w wyższej rozdziałce. Jeżeli pytasz o radę, to imo lepiej zmienić procek na nowszy, niż wkładać lepszą kartę, niż 1660 super :)
@@dzikimalpiszon tylko właśnie nowy procek nowa karta nowy ram itd niestety trochę będzie kosztowało i chciałbym polecieć nieco budżetowo tylko właśnie czy jest sens kupować takiego gtx 1660 super jak będę miał i tak przycinki w grach czy już powoli budować kompa od nowa
W końcu dobra karta do grania w tibijke
Szkoda ze nikt nie mówi o tym że ta karta daje całkiem inny obraz grafiki niż karty z serii 3000
Kupować Rtx tylko po to żeby go nie włączać? To lepiej czekać na radeona . Sam posiadam 3090Ti myślałem że w końcu na 4090 pogram w 4K z RT na maxa a tu co 😞 . Zaczekał bym na 4090 Ti ale jak przecieki z poborem mocy się sprawdzą to nie będzie mnie stać na prąd. Pozdrawiam
Z dlss nie daje rady? 🤣
@@jarekzahary Nie no daje zrade z dlss ale nie każda gra ma dlss . Więc ogólnie rozczarowałem tym przyrostem z Rt.
@@sebkatp4798 co nie ma dlss?
@@sebkatp4798 Zazwyczaj DLSS i RT idą ze sobą w parze, chyba że nie chcesz rozmydlacza podczas RT to rozumiem
@@jarekzahary źle się wyraziłem ,nie każda ma tak dobry dlss jak w cyberpunka i mnie osobiście źle gra jak włączę.
Przy obecnych cenach to trochę jak czytanie o Ferrari w Auto Świat.
Dlatego mam nadzieję, że intelowi sie powiedzie na rynku gpu tym razem, moze nie skonczymy wtedy pomiedzy cenami lamborghini, porshe i ferrari
9:32 miga lewe tylne światło przy DLSS
Warto brać do Ryzena 3700X? Gram głównie z CP2077, Anno 1800 i Cities: Skylines
Nie, to chyba oczywiste. Szczególnie mając na uwadze Cities i Anno.
@@TechLipton Mam kilka tys wolnych na wydanie na coś do kompa, to pomyślałem, że najlepiej będzie kupić wypasioną grafę, a pozbyć się 3060Ti.
Super test, pozdro
Czyli w natywnym 4k, z RT, nadal nie idzie pograć w 60fps 😂.
własnie to jest problem dlss, który powoduje, że producenci gierek będą mniej skupiać się na optymalizacji bo przecież jest dlss...
Dla 4k warta każdej złotówki! Będzie trzeba pogonić RTX 3090
🤣
Ciągnie dużo prądu,nawet bardzo ale w sumie 100w mniej a wydajność sporo większą. Czekam na testy 4070
4070 to 4080 12GB
Czy wiadomo kiedy seria RTX 4000 trafi do laptopów? Pozdrawiam:)
A po co ci to wiedzieć? 🤣
@@jarekzahary Być może w celu chęci zakupu?🤷♂️
@@adRianwuRbanistyce laptopa? 🤣
no niezły kocur :D i jeszcze mniej prądu żre, taki rozwój lubie :)
Kiedyś normalnie można by sobie pozwolić na premierowa kartę dziś traktuje to jako ciekawostkę
Kiedy testy "węgierek" w 8K ? 4090 chyba już można zacząc testować w takiej rozdzielczości ?
I tak i nie, DLSS3 na pewno wyprodukuje sporo klatek i może gra działać płynnie nawet, ale przy małej ilości klatek input lag jest jeszcze większy, a to pięta Achillesowa DLSS3
Mogę zacząć testować, to nie problem.
najka jeśli chodzi o serie 4xxx to jedyna torpeda , reszta niewiele podskoczy . Pobór mocy i temperatury są rewelacyjne jak na tak wydajną kartę .
ta karta ma tyle mocy ze robienie na niej OC jest nie potrzebne wprost nie zalecane. Teraz jest kwestie taka jaki procesor do niej i do gry w 2k [1440p] jeśli mam procesor 10 generacji 10600k od Intela z możliwością adaptacji do 11 generacji na płycie z490 i szybki ram 16gb ddr4 4400mhz. Czy to nie będzie hamulcowym dla tej karty ? Czy trzeba zmienić platformę ? czy lepiej kupić słabsza kartę np 4080 czy 4070 ? Dodam ze mam obecnie Aorust Master 3060TI 8gb ddr6
2k 🤣 Tak lubisz mizerną jakość? 😂
@Mateusz Graczyk zasilacz mam Oki 850w.
@@jarekzahary Dam ci młody numer do zaufanego lekarza. Może pomoże.
@@pawkalichorecki9634 nie ma tu się katuje w marnej jakości XDD
@Mateusz Graczyk kto ci takich głupot nagadał 😂
Ja chciałem kupić mieszkam w DE ale nie ma aktualnie karty dostępnej w sklepie wszystkie zostały wykupione w dniu premiery 😉
jak zwykle...
Po oficjalnej prezentancji kart serii 4000, zawały, marudzenia, że drogo, że gorąco, że dużo prądu, i Nvidia oszalała, a teraz zachwyty i pogrom?
Najwięcej hejtu oberwało się za 4080 i "4080" ;)
Jakośc jest pogorszona sam to testowałem w dodatku moja,starą karta rtx 3080 działała lepiej i płynniej w 90 klatkach na monitorze 165hz niż rtx 4070ti na 120 klatkach 😢
A można gdzieś w ogóle dostać wersję FE?
Przemyśleć zakup monitora dla 4090? I obowiązkowo 4k? A jeszcze będzie potrzebne w takim monitorze przynajmniej 144 Hz. ;)
no i tutaj haczyk bo ta karta ma DP 1.4 co znaczy że monitor nie obsłuży więcej niż 120fps w 4k... masakryczna wpadka NVIDII a lipton o tym 0 wspomnienia
@@bossofthisgym3945 żaden problem jak monitory są marne 💩
@@bossofthisgym3945 na 2 kable sie podlącza 😉 (tak serio to jest jakaś technologia nie pamiętam nazwy, mój LG daje 165Hz w 4K
Krytyczna rzecz jeszcze ta wtyczka 12 pin podobno jest problematyczna i było już kilka przypadków, gdy ludziom coś się zakopciło.
zbieram na kartę ponad rok a nadal nie stać mnie na nowego kompa, producenci zwariowali
Radeon 6950 xt cena około 4000 - 4500 zł i nie mam więcej nic do powiedzenia :)
no tak 4500 a tan 9200 ale ta zjada ta karte na sniadanie a z dls 3.0 masakratuje totalnie fakt cena x2 ale wydajnosc tez swoje robi
@@jonyasdasd8841 jest to absolutny top nie ma nawet o czym rozmawiać... Natomiast spójrz z innej strony za 10 tys możesz złożyć super komputer z Radeonem 6950 xt gdzie z rtx 3090 ti będzie to 13 tyś a 4090 15-16 tys ja osobiście wybrałbym Radeona i poszedł w taka samą wydajność co rtx 3090 ti Ti...chociaż i tak wolę Xboxa za 2500zl :p
@@grzegorzsobon6909 radeona xddd
4K na YT będzie niedługo płatne więc ;))) Ale nikt o tym nie mówi...
udalo mi sie dzis kupic nowego rtx ze sklepu za 1300euro warto bylo czekac
czy dobrej jakosci zasilacz 850W styknie rzeczywiscie pod taka karte? (RTX 4090)
@Mateusz Graczyk Damn, nie chce mi sie zmieniać PSU na cos mocniejszego gdybym wzial GPU z serii 4xxx, bo rozgrzebywanie i wyjmowanie tych kabli, a potem montowanie i ukladanie wszystkiego od nowa w srodku po zmianie PSU to czesto nightmare fuel dla mnie :D
@Mateusz Graczyk BlackWhite mowil ze referent 4090 ponoc zjada mniej niz referent 3090 Ti, wiec 850W-tka powinna dawac rade.
Ale pewnie i tak skonczy sie zmiana PSU eh, tym razem wezme 1200W zeby byl spokoj mysle.
Ja Cię kręcę CPU 8/16 + RTX4090 + 32GB DDR4 3600mhz + 2TB SSD NVME system + 2x 2TB SSD NVME na dane + chłodzenia to pożeracz prądu :D Granie w 4K na takim PC jest cudne lecz kosztowne :P XSX lub PS5 ewentualnie generacja wstecz XOX lub PS4 Pro
W dobie z drogim prądem i limitami od 2023r to taki komputer z monitorem 4K144hz spokojnie miesięcznie może wyciągać 80 kWh
To może czas pomyśleć o fotowoltaice dla samego kompa XD.
@@madchaos9285 haha w bloku ciężko 🤣🤣🤣
Ale coś za coś PS5 też polyka prawie 300W. Będziesz miał 60 fps bez RT z uciętymi detalami w 1080p lub 1440P. Na tyle teraz stać konsole
@@sawomirbartosiak2487 210W max bierze + monitor 4K to e sumie 300W weźmie. Komputer z 4K ekranem 800-900 W jest różnica jest . Ps5 czy Xbox series X mają już dobra oprawę graficzną i muzyczną :) Więc można spokojnie pograć i nie płacić krocie z prąd. Proszę bardzo korzystać jak chcesz ale będziesz w szoku jak po 10 miesiącach ponad 2MWh zużyjesz... Pamiętaj ze w domu oprócz komputera mamy inne urządzenia.. u mnie laserowa drukarka przy drukowaniu miesięcznym zużywa 400W :) + lodówka pralka itd i 120 kWh miesięcznie nie ma :) a orzy takim PC 250kwh jak nic strzeliło by
@@dziczkupl8674 konsole dobrą oprawę mają w nielicznych grach, otwórz 👀