Czy NVIDIA oszukuje na FPSach?

Поділитися
Вставка
  • Опубліковано 12 лип 2024
  • 👍 Subskrybuj moreleTV ➡️ morele.tv/subskrybuj
    🛒 Karty NVIDIA z serii 40 ➡️ morele.tv/41K9tit
    ⚠️ A tu znajdziecie najnowsze promocje na Morele ➡️ morele.tv/3UWXYAq
    Dziś ‪@TekTesters‬ i ‪@ZMASLO‬ wgryzą się w temat DLSS 3. Omówiony zostanie w szczególności Frame Generation, jego wpływ na wygląd gier, to ile daje pod względem wydajności, a także ile opóźnień generuje.
    0:00 - Wstęp
    1:02 - Czym jest DLSS?
    2:08 - Jak działa DLSS 3 Frame Generation?
    2:53 - Jak wyglądają generowane klatki?
    10:12 - Jak Frame Generation wpływa na wydajność?
    13:30 - Jak sprawdzić opóźnienia?
    15:47 - Jak działa NVIDIA Reflex?
    17:48 - Ile opóźnienia dodaje Frame Generation?
    21:19 - Kiedy Frame Generation warto włączyć?
    22:19 - Alternatywa dla Frame Generation?
    #framegeneration #dlss3 #nvidiareflex
    __________
    👍 Facebook ➡️ / morele.net
    📸 Instagram ➡️ / morele_net
    🐦 Twitter ➡️ / morele_net
    🤪 TikTok ➡️ / morelenet
    📨 Zapisz się na newsletter i bądź na bieżąco ➡️ morele.tv/newsletter
    Obserwuj Tek Testers:
    📹UA-cam ➡️ / tektesters
    👍Facebook ➡️ / tektesters
    📸Instagram ➡️ / tektesters.pl
    🐦Twitter ➡️ / tektesters
    Obserwuj ZMASLO:
    📹 UA-cam ➡️ / zmaslo
    👍 Facebook ➡️ / zmasl0
    📷 Instagram ➡️ / zmaslo_official
    ---
    Cześć, miło Cię widzieć na kanale moreleTV! 👍
    Konieczne zostaw suba, żeby nie przegapić najlepszych materiałów ➡️ morele.tv/subskrybuj (z góry dzięki!)
    MoreleTV to kanał, na którym znajdziesz materiały z recenzjami sprzętu komputerowego (i szeroko pojętej elektroniki), testami, poradnikami, zestawami PC w różnych budżetach, premierami produktów etc. Dowiesz się tu: jaką klawiaturę mechaniczną wybrać, jak przyspieszyć swój komputer, albo jaki monitor będzie najlepszy do CS:GO lub do pracy.
    Mamy też specjalnie dla Ciebie szalone, geekowe projekty, od komputera za 30 000 PLN w Multipli, przez granie na silniku od pralki (tak, dobrze czytasz), zalewanie klawiatur membranowych, po chłodzenie procesora ciekłym azotem. A wszystko to w wykonaniu najlepszych twórców!
    Chcesz zobaczyć u nas konkretny materiał? Daj znać w komentarzach :)
    A może widzisz siebie w ekipie moreleTV? Koniecznie daj znać!
    Pozdrawiamy!
    PS. To jak z tym subem? Jest? ➡️ morele.tv/subskrybuj
  • Наука та технологія

КОМЕНТАРІ • 278

  • @MoreleTV
    @MoreleTV  Рік тому +3

    👍 Subskrybuj moreleTV ➡ morele.tv/subskrybuj
    🛒 Karty NVIDIA z serii 40 ➡ morele.tv/41K9tit
    ⚠ A tu znajdziecie najnowsze promocje na Morele ➡ morele.tv/3UWXYAq

  • @bobieplorg8830
    @bobieplorg8830 Рік тому +56

    Dobrze zrobiony materiał, wszystko wyjaśnia - jak DLSS3 działa, jak zwiększa wydajność oraz porównania. Oby więcej takich filmów 👍

    • @TekTesters
      @TekTesters Рік тому +2

      Wiadomo, u nas same dobre :D
      Dzięki za komentarz!

    • @AlphaCentauri69
      @AlphaCentauri69 Рік тому +4

      Nie zwiększa wydajności tylko płynność kosztem jakości i opóźnienia.

    • @bobieplorg8830
      @bobieplorg8830 Рік тому +1

      @@AlphaCentauri69 Zwiększa wydajność, czyli jest w stanie wygenerować więcej klatek, ale niestety tak jak powiedziałeś, mogą zawierać artefakty oraz zwiększają opoźnienie, co ma wpływ w grach e sportowych, ale w grach single to aż takiego dużego znaczenia nie ma
      A i tak, DLSS3 zwiększa płynność dzięki wyższej liczbie klatek

    • @carvideos5276
      @carvideos5276 5 місяців тому

      ⁠​⁠@@AlphaCentauri69Kolego mówisz chyba o AMD FSR bo DLSS 3 od nvidia nie zmniejsza efektywności w żaden sposób

    • @AlphaCentauri69
      @AlphaCentauri69 5 місяців тому +1

      @@carvideos5276 O obydwu tych technikach. Zarówno DLSS jak i FSR pogarszają jakość obrazu tylko DLSS jest lepiej wykonany i mniej rozmydla obraz. Dodatkowo dodają one input laga dlatego są bezsensu do gier typu CS, Valorant, Mc itd.

  • @sauron2012lifad
    @sauron2012lifad Рік тому +11

    Nie żałuje kupna 4070. Cyberpunk na Ultra RT w 95-110 fps to sztos. Overdrive działa w 50-60 fps. Input Lag na poziomie 60-70ms który jest prawie nieodczuwalny na monitorze 1ms 165hz. Polecam, warto było. :)

    • @sauron2012lifad
      @sauron2012lifad Рік тому +1

      @@xanxenon1934 Gram na procesorze i5 11400f w 2560x1440 oraz podaje wartości otrzymane w centrum miasta gdzie wydajność najbardziej spada. Pewnie na i5/i7 13 generacji byłoby 130fps, ale i tak jest okej. Użycie procesora 40-50% a GPU 95-97%, także Bottlenecku nie ma. Do starszych procesorów idealna karta.

    • @xanxenon1934
      @xanxenon1934 Рік тому

      @@sauron2012lifad Ok, dzięki za info. Miłego grania. :)

  • @beltoru
    @beltoru Рік тому +57

    hehe RTX 4070 sie nie sprzedaje??? Jak nvidia tak dobrze sobie radzi z generowanie klatek, proponuje jej wygenerowac sobie wiecej $$$. Za reszte dolozyc ramu do kart serii 40...

    • @Aristosek
      @Aristosek Рік тому +4

      łap kciuki i leć na górę komentów

    • @michterion
      @michterion Рік тому +8

      Nwm ja mam np 4070Ti. I działa bardzo dobrze. Płacz ludzi wynika chyba tylko z cen

    • @beltoru
      @beltoru Рік тому +2

      @@michterion Raczej potencjalni klienci sa niezadowoleni z innego powodu. Ten "placz" moim zdaniem wynika z tego, ze wzrost ceny nie idzie w parze z wydajnoscia. Na wykresach swietnie wyglada wydajnosc, tylko szkoda ze w grach obslugujacych DLSS 3.0 (marketingowcy dzialaja pelna para 😀). Na koniec chcialem ci uzmyslowic, ze jestes beneficjentem "placzu" ludzi. Twoja karta kosztowala duzo drozej gdyby nazywala sie 4080 12gb.

    • @slizki5777
      @slizki5777 Рік тому +2

      ​@@beltoru A twój płacz wynika z posiadania Radeona xD

    • @beltoru
      @beltoru Рік тому +2

      @@slizki5777 lol jaki placz??? Uwazasz, ze seria 4070 (oraz nizsze modele) jest udana??? AMD nie jest lepsze. Serie 7xxx uwazam tez za niewypal. BTW. twoja docinka wynika z posadania karty geforce???

  • @micha8707
    @micha8707 Рік тому +4

    Pamiętacie te czasy gdy grało się na Pegasusie albo za słabym pc. Nie liczyła się jakość a zabawa.

  • @anemusek
    @anemusek Рік тому +10

    Mam jakoś małe zaufanie do przeprowadzania pomiarów skuteczności rozwiązań Nvidii za pomocą softu Nvidii czy chipu Nvidii. To trochę sprzeczne z "rzetelnością naukową"
    Co do frame generator się nie wypowiem do póki nie zakupię karty i nie sprawdzę działania. Na to się nie zanosi ponieważ wykorzystuję karty też do dziwnych innych rzeczy i tu bardziej sprawdzają się karty AMD. Dwa razy lepiej więc celuję w RX7800XT/XTX ;)
    BTW Nvidia prowadzi jakąś kampanię? Jeden materiał o zaletach DLSS to ok, dwa, to robi się podejrzane, a trzy i dopiski "zawiera płatną promocje" już bardzo, bardzo podejrzane ;)

    • @Venom-gs4nz
      @Venom-gs4nz Рік тому +1

      zycze milegooo dooktoryzowania sie w zakresie rzetenoosci dzalania technologi nv ;)

    • @Durzy007
      @Durzy007 10 місяців тому

      Weź pod uwagę, że istnieję internet. Gdyby nvidia oszukiwałaby przy tak podstawowej sprawie jak pomiar kratek, to wszyscy by o tym wiedzieli. Ryzyko olbrzymie, zyski żadne. Zwyczajnie się nie opłaca.

  • @Aristosek
    @Aristosek Рік тому +21

    Tytuł powinien brzmieć: 'Czy Nvidia ma problem ze sprzedaniem górek magazynowych po zawyżonych cenach'. Ewentualnie: 'Czy ma czkawkę po co\/idowo/kryptowalutowym eldorado'?

  • @Fooxs
    @Fooxs Рік тому +10

    To jest właśnie ten problem. Kiedy to najlepiej działa? Na już osiągniętych wysokich fpsach i wysokim odświeżaniu, a kiedy to faktycznie potrzebujemy? A no właśnie wtedy kiedy nam brakuje fpsów czyli na 50~60fps oraz niskim odświeżaniu. Także w skrócie dla biedaków to nie jest żaden ratunek, ficzer dla tych którzy już mają full klatek i odświeżania i chcą mieć jeszcze więcej - choć nie wiem po co skoro jest to kosztem jakości.

    • @matiolok2429
      @matiolok2429 Рік тому +1

      DLSS rozmazuje obraz ale wystarczy w tym przypadku pobawić się suwakami ostrości tymi w sterownikach w danej grze i w samym monitorze i problem znika no chyba że jest włączony tryb ultrawydajności to z tego nie polecam korzystać tryb wydajności najniżej.

    • @de_iure
      @de_iure Рік тому

      To nie jest problem, to jest niezrozumienie techniki jaką wykorzystuje ta technologia. To działa na zasadzie animacji poklatkowej, więc jeśli GPU się nie wyrabia z renderowaniem normalnych klatek, to nie ma też czasu na wysyłanie danych do CPU i z powrotem. Do tego oczywiście dochodzi zależność "im więcej danych wejściowych, tym więcej informacji = mniej artefaktów".

    • @Smok1125
      @Smok1125 Рік тому +3

      @@de_iure Czyli całkowicie nieprzydatna i bezsensowna rzecz. Po co włączać coś co pogarsza obraz skoro do działania potrzeba, dla przykładu 100 klatek, skoro gra i tak działa dobrze?

    • @api3de
      @api3de Рік тому +1

      bzdury totalne. włącz sobie chłopie w cyberpunku pt przy 1440p i będziesz mieć 15-20fps na rtx 4070,włącz dlss3 i fg i będzie 60-80fps właśnie twoja teoria legła w gruzach. nie mam ,nie wiem ,ale się wypowiem... ja mam ,wiem i musiałem skomentować te brednie.

    • @api3de
      @api3de Рік тому +1

      @@matiolok2429 prawda jest taka ,że jak włączysz dlss i wyostrzanie obrazu przy przeskalowaniu w górę to wygląda to dużo lepiej niż w natywnej rozdzielczości bez przeskalowania. więc te rozmazanie obrazu to pikuś bo dopalasz obraz sharpeningiem i wygląda to bosko.

  • @grzegorz_iwan_ivanov
    @grzegorz_iwan_ivanov Рік тому

    Elegancko wytłumaczone wszystko :)

  • @MsJaro89
    @MsJaro89 Рік тому +8

    Szczerze. Mam 3080 ti i nie powiem, że teraz żałuje z przesiadki ale potrzebujemy dlls (oczywiście ja dlls 3 nie mam na tej generacji) głównie jak używamy RT. Szczerze preferuję grę bez RT i mogę sobie pozwolić na wyższą rozdzielczość nawet bez dlls na podbijanie rozdziałki. I chyba tak jest lepiej. RT rozpoczął wyścig, który moim zdaniem idzie w złym kierunku i wymaga zbyt wiele poświęceń.

  • @KoW
    @KoW Рік тому +7

    Czekaj czekaj, ale z tym input lagiem wydaje mi się, że zaszedł pewien błąd logiczny. Bo nigdzie nie jest powiedziane o input-lagu której klatki mówimy? Jeżeli jest to "lag" między prawdziwą klatką, a tą "dorabianą" to mija się to trochę z celem, ponieważ ta kolejna "prawdziwa" klatka czeka jeszcze na swoje wyświetlenie, a na niej akcja jest w teorii o 50% dalej. Stąd w grach typowo na refleks jak CS:GO będziemy widzieć o 50% mniej niż przeciwnik, a doliczając ten czas w którym zobaczymy to co faktycznie powinniśmy widzieć inputlag może wyjść o wiele większy. Tak w teorii ten inputlag powinien się zwiększyć o 1 / (ilość klatek * 2) (sekundy) o ile uznajemy klatkę "sztuczną" jako połowę "odkrycia obrazu". Jeżeli nie uznajemy jej w ogóle, to inputlag według moich obliczeń będzie wynosił dodatkowe: 1 / ilość klatek (sekundy).
    Zabrakło trochę moim zdaniem doprecyzowania tego co tak naprawdę mierzymy. Bo wiadomo, że klatka środkowa będzie miała szczątkowe informacje na temat tego "co się za chwilę wydarzy" bo zna niejako "przyszłość" i w czystej teorii jest wstawiana w miejsce drugiej prawdziwej klatki. Więc inputlag jaki tutaj powstaje to tylko i wyłącznie czas potrzebny na sklejenie 1 sztucznej klatki z 2 prawdziwych. Ale z drugiej strony będzie to tylko maksymalnie połowa postaci wychodzącej zza ściany niż to co byśmy widzieli przy tylko prawdziwych klatkach. Moim zdaniem było by to trzeba zmierzyć w 2 wariantach: Tak jak domyślam się, że było to zrobione w tym teście, czyli akcja - reakcja na "półklatce" i drugi wariant akcja - reakcja na prawdziwej klatce i wtedy jeszcze te dwa czasy ze sobą porównać.

    • @piernik987
      @piernik987 Рік тому +1

      W grach typu CS:GO nie używasz tej technologii. /eot

    • @AK-vg6ci
      @AK-vg6ci Рік тому

      Jeśli na wyświetlenie czeka tylko jedna prawdziwa klatka podczas gdy wyświetlana jest akurat wygenerowana to przy 200fps w csie to tak jakbyś dodał 0.5-2 do pingu (jak ktoś jest lepszy z matmy niech powie dokładnie). Gorzej jeśli algorytm nie jest tak idealny jak mówią i czasem dlss dostanie czkawki to wtedy 5-10 do pingu (uproszczając oczywiście bo wiadomo że ping nie równa się input lag) to w przypadku grania półprofesjonalnego robi różnicę.

    • @AK-vg6ci
      @AK-vg6ci Рік тому +1

      A nie sory porąbało mi się że sekunda ma 100ms a ma 1000, to w sumie przy 200fps w cs, dzielisz sekundę na 200fps to jedną klatkę masz co 5ms. Czyli tak jakbyś dodał 5 do pingu. Plus jakaś randomowa czkawka to może i czasem wyjść 20ms input lag. W przypadku jakiegoś śmiesznego spidermana dla przedszkolaków to im nie robi różnicy ale jak grasz ćwierćfinały esla to niuja

    • @KoW
      @KoW Рік тому

      @@AK-vg6ci otóż to, a do CS, gdzie mam 200 klatek raczej i tak bym nie stosował DLLS 3. Częstszym zastosowaniem tej technologii będzie sytuacja w której mamy 30-40 fps i chcemy zwiększyć tą ilość x2 do 60 fps. Wtedy czas akcja-reakcja czyli input-lag może być już naprawdę spory i na takie wyniki nastawiałem się w tym teście.

    • @KoW
      @KoW Рік тому

      Pozatym, teraz sobie uświadomiłem faktycznie jakie bezcelowe wydaje się mierzenie tej wartości pomiędzy prawdziwą klatką, a najbliższą wygenerowaną. Bo teraz taki przypadek: ok, ktoś widzi zmianę w "sztucznej klatce" i chce w 100% zmienić swoją decyzję, czyli np. skręcić w lewo samochodem zamiast w prawo jak miało to miejsce między 1 a 2 prawdziwą klatką. Gracz reaguje na 1 sztuczną klatkę między 1 a 2 prawdziwą, zmienia kierunek ruchu, jednak gra wyświetla mu dalszą drogę w poprzednim kierunku (2 prawdziwa klatka) gracz widzi, że gra nie słucha jego poleceń. Dopiero kolejna wygenerowana klatka (między 2 a 3 prawdziwą) daje mu obraz tego, że jego reakcja została wczytana do gry, jednak pojawiła się z opóźnieniem. Wniosek jaki z tego wynika, inputlag przy DLLS 3 powinien być mierzony albo do najbliższej prawdziwej klatki, albo do najbliższej wygenerowanej (ale zawsze trzymać się jednego wyboru). Innymi słowy inputlag w tej sytuacji powinien być liczony do drugiej klatki wyświetlonej po zdarzeniu (np. kliknięcia), jedną klatkę powinniśmy zupełnie pominąć. I jestem ciekaw jakie będą wtedy wyniki.

  • @errr9408
    @errr9408 Рік тому +1

    Konkretnie i na temat. ZMASLO pytanie do wykresów, tam gdzie masz opóźnienia pierwsze od góry NVIDIA Reflex (WYŁ) to jest opóźnienie natywne bez żadnego dlss?

  • @fabiankowalski2675
    @fabiankowalski2675 Рік тому +1

    Super materiał

  • @elkikoriko
    @elkikoriko Рік тому +4

    Zauważyłem tez ze youtube strasznie obniża jakość obrazu, wiec na pewno róznice jak by ktos grał na swoim komputerze bedą bardziej zauważalne pomiędzy fałszywą a prawdziwą klatką. Rożnicę można dostrzec na większym monitorze/telewizorze, ja mam 55cali i jak nie siedzę jakoś daleko Widać dużą różnicę jak oglądam jakąś gierkę, a potem uruchomię jak na swoim kompie. Tak samo granie na większym calażu siedząc dosyć blisko z właczonym dlss nie jest takie przyjemne dalsze obiekty maja strasznie słabą jakość, ale testowałem to w sumie na dosyć starym dlss prawie rok temu.

    • @sacek7398
      @sacek7398 Рік тому +1

      jeśli 1.0 to dla mnie był nie do użytku, w Rise of the tomb raider obraz był całkowicie nieostry i rozmyty. Od razu wyłączyłem tę opcję. W Cyberpunku z 2.0. lub 3.0 ciężko mi było coś zauważyć nie tak z obrazem. Za to płynność jest dużo lepsza i gra się dużo lepiej.

  • @dominikjabonski5383
    @dominikjabonski5383 Рік тому

    Ogólnie materiał super, wszystko pięknie wytłumaczone. Chciałem tylko się czepić (bądź źle coś rozumiem) bo z tego co mi się wydawało to właśnie Frame Generation był potocznie nazywany DLSS 3, a w materiale mówisz jakby to były osobne rzeczy. I druga sprawa (którą być może też źle rozumiem) jak to czekamy na FSR jak przecież już w kilku grach go widziałem i to nawet w wersji 2.1

    • @Luk9105
      @Luk9105 Рік тому +2

      Czekamy na FSR 3.0... Zapewne to mieli na myśli

  • @UnstoppabIe
    @UnstoppabIe Рік тому +4

    Każdą wiedzę przyjmę 😊

  • @xW3rder
    @xW3rder Рік тому +9

    Właśnie dzisiaj przyszła 4080 i jest super! Frame generation to dosłownie jakaś magia. Obawiałem się o artefakty w sztucznych klatkach ale gołym okiem nie jestem w stanie niczego zauważyć. Bardzo dobry materiał chłopaki!

    • @Venom-gs4nz
      @Venom-gs4nz Рік тому +5

      lubisz byc oszukiwany co ? xd

    • @xW3rder
      @xW3rder Рік тому +10

      @@Venom-gs4nz xd zazdro masz co? Xddd

    • @CncPiotr99
      @CncPiotr99 Рік тому +2

      @@Venom-gs4nz jesli to dziala to chyba dobrze. co z tego ze chlp ma swiadomosc ze jakosc miejscami spada . Nie widac tego podczas grania , za to czuc duzy wzrost klatek . i nie projcie sie ze FG psuje opoznienie. kogo obchodzi pare milisekund. Oby FSR 3 doscignelo FG a i zeby nie bylo nie jestem fanem i fanboyem nvidi.

    • @miraveilyt
      @miraveilyt Рік тому +3

      @@Venom-gs4nz niestety, siła marketingu robi swoje u niektórych

  • @marekchudy8893
    @marekchudy8893 Рік тому

    Dziękuję I pozdrawiam

  • @krzychu1766
    @krzychu1766 Рік тому +1

    Super film chłopaki , dobrze wiedzieć takie informacje

  • @robertjabonski2133
    @robertjabonski2133 Рік тому +1

    Najlepszy duet na polskim UA-cam. Pozdrawiam

  • @bartlomiejfrej1416
    @bartlomiejfrej1416 Рік тому +8

    Warto było poświęcić czas aby obejrzeć. Fajny kontent na temat nowych technologii z których korzystamy i jak działają. Trzymam kciuki za kontynuację.

  • @fabiankowalski2675
    @fabiankowalski2675 Рік тому

    Spoko poradnik

    • @Daper2920
      @Daper2920 Рік тому

      To nie poradnik debilu

  • @grajek1111111
    @grajek1111111 Рік тому

    Hejo. Śmiga także na niższych modelach jak do tej pory czy dlss 3.0 tylko na 4xxx?

  • @przemeck6378
    @przemeck6378 Рік тому +2

    Tak jest

  • @elkikoriko
    @elkikoriko Рік тому

    A czy bedą jakieś testy tej nowej funkcji od nvidia? video super resolution. W opisie tej funkcji jest napisane że, odbywa się to w zasadzie bez odczuwalnego obciążenia GPU oraz wzrostu poboru energii. Ja niestety jak włączę tą opcje na zwykłym youtube na filmie w full hd to pobór karty automatycznie podskakuje do 360w w rtx 3080 i temperatury tez siegaja 74 stopni juz po 2-3 minutach. Ciekawy jestem czy tylko u mnie tak jest, a na polskim yb nic nie znalazłem.

  • @Alderkan
    @Alderkan Рік тому +33

    najpierw nas oszukują na sztucznym jedzeniu, potem dostaniemy puste pieniądze dzięki inflacji, a teraz nawet klatki sztuczne xD

    • @koszalek
      @koszalek Рік тому +2

      To tak jak z dieselami niby dobre a wyszło górze,tylko nie rozumiem ludzi czemu nabierają się na tego typu sztuczki

  • @pooh82wawa
    @pooh82wawa Рік тому +3

    Bardzo ciekawy film. Czy można taki sam o wsparciu software'owym od AMD, czyli FSR? pozdrawiam

    • @Agrabelek_Michal_K
      @Agrabelek_Michal_K Рік тому

      Oglądałem porównania i FSR robi więcej artefaktów.

    • @qqqq1003
      @qqqq1003 Рік тому +2

      dlss działa na hardware a fsr na software wiec na pewno bedzie troche gorzej ale i tak jest bardzo dobrze jak na czyms opartym na soft

    • @Agrabelek_Michal_K
      @Agrabelek_Michal_K Рік тому

      ​@@qqqq1003 prawda.

    • @TekTesters
      @TekTesters Рік тому +1

      Będziemy robić na pewno.

  • @quakeRTX
    @quakeRTX Рік тому +3

    sam też testowałem to bardzo dokładnie w cyberpunku i ogólnie doszedłem do wniosku, że się opłaca mieć włączone zarówno DLSS jak i frame generation bo specyfika gry jest taka, że tych artefaktów czy poświaty aż tak nie widać zwłaszcza przy włączonym rozmyciu, które do gry akurat pasuje choć zawsze go wyłączałem.

  • @pejawave4103
    @pejawave4103 Рік тому +2

    Fajny feature, ale nie killer. Zdecydowanie niewarty swojej ceny, ale jakby Nvidia rozsądniej wyceniła karty to kto wie. Przykro jednak, że w takich podwyżkach dostajemy tragiczny wzrost wydajności w rasteryzacji, a korpo zasłania się sztuczkami si xD Zdecydowanie seria 40XD za bardzo poszła w eksperyment- jak dla mnie do zapomnienia. Tak źle nawet nie było za serii 20XX.

  • @Fencio_Zorza
    @Fencio_Zorza Рік тому +1

    I teraz pytanie do wszystkich
    Czy patrzenie na gry pod 4 krotnym zoomem i analizowanie kazdej klatki jesg aby napewno konieczne.
    Fakt fajnje jest jak jest ladna grafika ale to gamepley sie liczy

  • @912itachi
    @912itachi Рік тому +2

    Dopracowany film +
    11:00 jak to śmiesznie brzmi ze topowy procek za 3000 zł jest wąskim gardłem

  • @blessed747
    @blessed747 Рік тому +1

    ;) możemy się różnić w opinkach ;) ale BRATERSTWO pecetowej krwi ;) musi być więc lajk też. Pozdrawiam

  • @grzegorzryznar5101
    @grzegorzryznar5101 11 місяців тому

    Super profesjonalnie zrobione! Dzięki za materiał :)

  • @Eihei
    @Eihei Рік тому +3

    Podsumowując - frame generation nie zwiększa wydajności, jest po prostu upłynniaczem obrazu.
    Mówiąc najprościej to interpolacja z użyciem AI.
    Bez reflexa to byłby dramat.

    • @Criisko
      @Criisko Рік тому

      Ale jest reflex i w efekcie jest to game changer, jak ktoś raz spróbował FG to później będzie oczekiwał tego w każdej grze nie wyobrażając sobie powrotu do starszych kart.

    • @Eihei
      @Eihei Рік тому +1

      @@Criisko no nie wiem, mnie jakoś to nie przekonuje. Z klasycznego DLSS za to korzystam.

    • @Criisko
      @Criisko Рік тому +1

      @@Eihei Może po prostu lubisz jak Ci obraz klatkuje.

    • @de_iure
      @de_iure Рік тому +1

      @@Eihei FG nie działa przy użyciu AI. To marketingowy bełkot NV. Jedyne co tam jest w użyciu przez Tensory, to wektory ruchu. Reszta jest klasycznie realizowana przez CPU, jak każda inna animacja poklatkowa.

    • @Venom-gs4nz
      @Venom-gs4nz Рік тому

      @@de_iure przecież działanie rdzeni tensor opiera sie ich fejk ai;) panie bełkot;)

  • @wdowa94
    @wdowa94 Рік тому

    Z przyjemnością

  • @api3de
    @api3de Рік тому +1

    jako użytkownik rtx 4070 jestem zauroczony dlss+ fg+rt+sharpening+dsr całość miażdy ,cyberpunk z path tracing 1440p -> dsr przy i5 11400f to 60-80fps. szok. opóźnień nie widać ,jakość obrazu bajka. bez dzielenia włosa na czworo nie ma się do czego dowalić,można tylko psioczyć na 12gb vram,ale ogólnie technologia jest kosmiczna. fajne jest to,że im więcej dopakuje grafikę detale i rozdzielczość to procesor staje się coraz mniej znaczący,czyli przestaje być wąskim gardłem,po prostu rewelacja. przesiadka z i5 6600k + gtx 1060 to jak lot w kosmos.

  • @grzegorzmalinowski9841
    @grzegorzmalinowski9841 8 місяців тому

    Czyli jest ratunek dla mojego 2060 super 🤩 jakie ustawienia sa optymalne w takim razie ? Ustawia sie na jakość , wydajność czy pośrodku ?

  • @Commtek
    @Commtek Рік тому

    Panowie co myślicie do grania w full hd, rtx 2080 posiadam, korci mnie intel arc 770, warto zmieniac ?

  • @MichalTarach
    @MichalTarach Рік тому +2

    Frame Generation w Wiedźminie 3 po około 20 minutach wywala grę do pulpitu na RTX 4070 Ti, więc w tej grze tego nie używałem.

  • @Asus8603
    @Asus8603 Рік тому +2

    Brawo, świetny materiał, w końcu ktoś omówił temat dogłębnie 💪👍

  • @dzarod3550
    @dzarod3550 Рік тому +3

    Juz po samej premierze nowych kart oglądałem materiały jakiegos zagranicznego kanału i gość pokazywał, ze to badziew bo artefakty, a ja nawet ich zauważyć nie potrafiłem, musiałem mocno się przyglądać. Generalnie sam kupiłem kartę z nowej serii i jestem mega zadowolony, to generowanie klatek dla mnie to po prostu coś wspaniałego. Oczywiści do gier sieciowych pewnie bym tego nie włączył, ale do grania w jakies najnowsze gierki single player, które to wspierają, no po prostu bomba.

  • @iset112
    @iset112 Рік тому +1

    Używam DLSS 2 RTX 3060 póki co wystarcza i Reflex w tych grach w których jest dostępny 😀

  • @tk-ch2zh
    @tk-ch2zh Рік тому +2

    Czyli jasne jest to ze to technologia przejsciowa. Bo ma wady nie do wyeliminowania.

  • @MatthewDyn
    @MatthewDyn Рік тому +1

    Prawdziwa pozdro

  • @Furmiii
    @Furmiii Рік тому +3

    dla mnie ogólnie wolę mieć obraz jak brzytwa niż multum fps z poszczępiąnym obrazem

  • @Wiktox109
    @Wiktox109 Рік тому

    Moglibyście przetestować obudowa zalman i3 neo

  • @NOno-up1mr
    @NOno-up1mr Рік тому

    Ja to sobie policzyłem i za to szacun się należy , jak bym na swoim GTX 560 ti odpalił frame generation to bym miał w cyberpunku 21 FPS i crasha po 47 sekundach gry. Poki co szukam coś co zadziała na dx 11 czy jak to tam się zwie, bo etedy windows 10 nie wypie... mnie przez okno. A tak serio chcecie Cyberpunka na DX 10 ?

  • @sic22l
    @sic22l Рік тому +9

    Nie zapomnieliście o wzmiance o materiale sponsorowanym? Bo w ciągu ostatnich 3 dni internet zalała fala materiałów o DLSS3 i tylko część redakcji uczciwie przyznała się do finansowego wkładu nVidii.

    • @bobieplorg8830
      @bobieplorg8830 Рік тому +2

      Tutaj akurat jest nawet wiarygodnie, ale niestety jedna informacja jest fałszywa, czyli że nie zwiększa opóźnień. Otóż zwiększa, ale nie aż tak znacząco. DLSS3 z Reflexem miał 33 ms a bez dlss i bez reflexa było 26 ms, więc dużej różnicy nie ma, ale w grach e sportowych ma znaczenie

  • @p.l.ren.
    @p.l.ren. Рік тому +4

    Zastanawiam się czym Nvidia będzie chciała zaskoczyć graczy wydając serię 5xxx. Będą jaja jak odetną się od Dlss i objawią wszystkim nową cudowną technologie.

    • @xflashu8075
      @xflashu8075 2 місяці тому

      Na targach computex w czerwcu mają zaprezentować 50900👀

  • @piechcik52
    @piechcik52 Рік тому

    W Wiedzminie w 4k + dlss + frame generation mam straszne migotanie trawy. Dopiero jak wyłączę fg to problem ustępuje. Wy też tak mieliście???

  • @MarcinGustaw
    @MarcinGustaw Рік тому +3

    Kolejne testy super, zachodzę jednak w głowę, dlaczego z uporem maniaka testuje się input lag w grach w których nie ma on żadnego znaczenia. Wiedźmin, Hogwarts i Cyberpunk - wszystkie to gry RPG w których po prostu mózg potrafi się przyzwyczaić do opóźnienia a akcja toczy się powoli. OK, rozumiem, że gry esportowe czyli CSGO czy Valorant rzeczywiście powinny być z tego testu wyłączone, ale aby test był rzetelny należałoby przeprowadzić go w grach różnego rodzaju (symulatory, wyścigi, strzelanki nie esportowe), albo wyraźnie powiedzieć, że input lag wyłącznie w grach RPG z użyciem Frame Generatora nie robi różnicy a w pozostałych nie wiemy, bo nie testowaliśmy. W pozostałymi wnioskami zgadzam się w zupełności, w akcjach dynamicznych i tak przeważnie nie widać przekłamań (chociaż one potrafią wystąpić) a płynność gier jest zdecydowanie lepsza. Nadal twierdzę jednak, że te technologie (DLSS i Frame Generator) zostały źle zrozumiane przez twórców gier i zaczynają być przez nich wykorzystywane w bezczelny sposób - gra nie działa płynnie na karcie za prawie 10K? - włącz sobie generatora klatek. Pozdrawiam.

    • @ZMASLO
      @ZMASLO Рік тому

      Testuje się takie gry bo w takich grach najczęściej Frame Generation się implementuje. W grach esportowych gdzie faktycznie opóźnienia mają znaczenie tej funkcji nie ma bo jak pokazałem na tym przykładzie 20:27 tam powodowałoby to większe opóźnienia gdzie nie jest to pożądane. FG jako technologia raczej nie ma sensu w grze takiej jak overwatch czy valorant.

    • @MarcinGustaw
      @MarcinGustaw Рік тому

      ​@@ZMASLO "Testuje się takie gry bo w takich grach najczęściej Frame Generation się implementuje" - z tym się nie zgodzę - nie tylko w RPG. Oczywiście, lista gier jak na razie nie jest jakaś imponująca, ale skoro w filmie pojawił się np F1 22 to do testów input laga byłby w sam raz, ale go nie było. Jest również np. Forza 5, NFS Unbound, Microsoft Flight Simulator.

  • @chlebaQQ
    @chlebaQQ Рік тому +1

    co z input lagiem??

  • @Pieteros21
    @Pieteros21 Рік тому

    Czekamy na fsr3 ;)

  • @DiJAndy
    @DiJAndy Рік тому

    8:00 Ha! Kamil gra postacią z domu Slitherin jak ja!
    *CLICK* Noice!

    • @TekTesters
      @TekTesters Рік тому +1

      tak mi wyszło :D

    • @DiJAndy
      @DiJAndy Рік тому

      @@TekTesters Po 10 godzinach spędzonych na zadaniach pobocznych i eksploracji dopiero teraz ruszyłem z fabułą. Aktualnie jestem w połowie drogi do "Avada Kedavra" oraz dzisiaj siądę do misji z przyniesieniem książki do komnaty map

  • @adameczek91xxx20
    @adameczek91xxx20 Рік тому +1

    Dlaczego karty nvidia serii 3000 nie mają farmę generation ?

    • @Forioous
      @Forioous Рік тому +1

      Marketing, aby kupić 4000, która jest słaba ;)

  • @kubo8200
    @kubo8200 Рік тому +2

    Z dlss tak z FG nie :P moim zdaniem rtx 4070 to wielka kupa :)

  • @marcinzdunek258
    @marcinzdunek258 Рік тому

    Uwielbiam wasza dwójkę jest wesoło i na temat :D

  • @dynaxd5d
    @dynaxd5d Рік тому

    Nie. Nie korzystam z DLSS-a, bo jak ponad pół roku temu modernizowałem komputer, to najkorzystniejszym wyborem (cena/jakość) była karta RX6750. Od AMD oczywiście. Teraz trochę żałuję, że nie poczekałem trochę, ale raz już czekałem aż potanieje... Parę lat.

  • @DJPatrickHarris
    @DJPatrickHarris Рік тому

    Nie ciawki czy da sie używać dlss dla starszych kart graficznych jak moja gtx 760 bez rtx

  • @piotrbilu7037
    @piotrbilu7037 Рік тому +2

    ja włączam dlss aby znacznie zmniejszyć pobó prąduu podczas grania z 140w bez dlss do 60-80w z włączoną funkcją

    • @stark_2991
      @stark_2991 Рік тому +1

      To zadziała tylko wtedy, jeśli uzyskujesz tyle samo klatek bez DLSS i z DLSS (innymi słowy masz jakiś ogranicznik). Ale musisz chyba ustawiać jakiś niski tryb jakości?

    • @michachmielewski9577
      @michachmielewski9577 Рік тому

      Kolega gra zapewne na laptopie, też tak robie. Na Legion 7 pro w 1600p mam 120 fps na RT ultra, obniżam TGP z 170 na 100 wat i mam aż 80 fps i cisze i płynność.

  • @vito74m
    @vito74m Рік тому +1

    "podoba mi się" jak opowiadacie, że "właściwie nie widać" z FG, a nie mówicie, że bez tej technologii nie widać, bo nic nie jest psute...

  • @banc76
    @banc76 Рік тому

    DLLS najwięcej daje jeśli karta normalnie generuje 30-40 klatek a z włączonym 60. Jak się ma 4090 to można wyłączyć. Nie mam okazji używać DLLS 3 ale praktycznie zawsze używam DLLS na mobilnym 3070. Jest płynniej.

  • @vito74m
    @vito74m Рік тому +2

    A pamiętacie ja nshitia "oszukiwała" w Fallout 4? zmowa z producentem gry, "sadzenie trawy" w zbiornikach na dnie, by zajechać teselacją gpu od AMD, ale na szczęście to wyciekło... + ustawienie w sterowniku teselacji na "optymalizacja amd" załatwiało ich naciąganie maniaków. Nvidia pasuje mi do PiS, tam też tylko ślepy fanatyk widzi same zalety :D I testy na YT vs real, też pokazują, że lubi mieć w internecie więcej fps jak w rzeczywistości...

  • @wdowa94
    @wdowa94 Рік тому

    Przy 4070Ti jest niemała różnica w funkcjonowaniu Frame Generation między B450 (PCI-E 3.0) a B550 (PCI-E 4.0)

  • @matas91
    @matas91 Рік тому

    17:21 Panowie, przecież poprawa 100% to 0ms.
    Poprawę wcześniej zmierzyliście około 50%, a nie 100% xD

  • @dawid123pl
    @dawid123pl Рік тому +1

    Jedak jednej rzeczy nie sprawdziliście jeżeli mamy włączony dlss 2.0 i generator klatek dodatkowo zablokujemy klatki na np 80k/s to gra strasznie traci na płynności. Nie każdy chce mieć ile się da klatek ja na przykład lubię sobie zablokować klatki na 80 bo po co obciążać kartę i procka na full jak na 80k/s jest mega płynna gra.

    • @michachmielewski9577
      @michachmielewski9577 Рік тому

      Mam lapka z 4080 i blokada fps w riva tuner się nie sprawdza z FG ON, ale obniżam fps inaczej, zachowując płynność i ciche wentylatory, obniżam TGP karty i zamiast 120 jest 80 fps.

  • @nightstar6900
    @nightstar6900 10 місяців тому +1

    przydaje mi sie DLLS gdy gram w wymagający tytuł w 4K , RTX 3060Ti nie jest idealny do 4K ,ale z DLLS jest ponad 70 klatek np: na Battlefield 2042
    Niebawem zakupie TRX 4070Ti co pozwoli mi na używanie RT dzięki DLLS 3

    • @Blazko381
      @Blazko381 10 місяців тому

      Sprawdź czy czasem lepiej nie dołożyć do rtx4080 lub kupić AMD.

    • @nightstar6900
      @nightstar6900 10 місяців тому

      @@Blazko381 trzeba by dołożyć 2.400 zł i musiał bym jeszcze zasilacz za 500-700 kupić.
      Czyli 2 x drożej niż 4070Ti który jest 2x lepszy od mojej 3060Ti

    • @nightstar6900
      @nightstar6900 10 місяців тому

      @@Blazko381 A karty od AMD nie kupię bo lubię DLLS i raytracing

    • @Blazko381
      @Blazko381 10 місяців тому +1

      @@nightstar6900 zasilacz za 700zł do takiego GPU? To ty kupujesz tylko dlatego że jest RTX i DLSS, a nie patrzysz na wydajność xD?
      PC to wieczna skarbonka. Zobacz sobie wymagana minimalne nowych gier. Kupujesz GPU, a już za 2 lata jest za słaby.
      Ray tracing lubisz bo światełka lepsze? Na AMD też jest RT, a masz też mody na AMD FSR. DLSS nie jest idealny bo to sztuczne skalowanie a nie natywny obraz. Generowanie klatek robi jeszcze większe problemy, bo tworzy zniekształcenia obrazu. Z resztą jak masz monitor z Gsync ultimate to masz mega płynny obraz nawet od 1Hz. Mimo że to lepsza technologia, to droższa i o wiele mniej popularna.

    • @nightstar6900
      @nightstar6900 10 місяців тому

      @@Blazko381 Ja jestem bardzo zadowolony z Dlls 2
      Trzeba przyznać że 4080 jest dobry,ale drogi

  • @zGRYed
    @zGRYed 11 місяців тому

    Obejrzałem i... kurde, nie wiem co robić.
    Co lepsze - 3060 czy 4050?
    Szukam laptopa i trochę mi to namieszało.

  • @adamadamx5464
    @adamadamx5464 Рік тому +4

    Dla mnie to z tym input lagiem to trochę nie do końca. Jeśli przy natywnym 50 fps ma input laga 120ms, a przy natywnym 100 fps input lag wynosi 60ms, a po włączeniu FG przy 50 klatkach dostaję 100 fps z input lagiem 120, to dla mnie frame generator "dodaje" dodatkowe 60ms input laga, no bo z FG mam 100 FPS z lagiem 120ms, a w natywie mam 100 fps z lagiem 60ms, i tak wiem, że to nie wina FG że ten input lag jest taki duży, bo wziął się on z niskiej bazowej ilości klatek, no ale korzystanie z tej technologii kończy się właśnie takim efektem, stąd lag w cudzysłowie przypisuję FG. No i dlatego oczywiście wolę natywne klatki od FG, który jest fajny przy sporej ilości normalnych klatek i niskim input lagu, bo ze 120 klatek zrobi 240 i nasz monitor 240 Hz zostanie w pełni wykorzystany.

    • @michajanicki6860
      @michajanicki6860 Рік тому +3

      bełkot bzdur

    • @de_iure
      @de_iure Рік тому +1

      Co za bełkot. 100 FPS = frametime 10 ms w uśrednieniu.
      Nie masz również zielonego pojęcia jak działa ta technika. EOT.

  • @adamgarczarek8174
    @adamgarczarek8174 Рік тому +4

    Bardzo dobry i merytoryczny film. Dla mnie, użytkownika RTXa 4070 z monitorem 144 DLSS3 robi zdecydowanie różnice. Jako dla zwykłego użytkownika jakim jestem włączenie tej funkcji zauważalnie zwiększa płynność, a w obrazie nie dostrzegam żadnej różnicy. Jedynie słabe jest to, że ta funkcja jest niezbędna na przykład do Wiedźmina 3 z Raytracingiem. Tak wiekowa gra na takiej karcie powinna płynnie działać przy każdych ustawieniach, a niestety nie robi tego.

  • @animatiV9
    @animatiV9 Рік тому +1

    Czy to prawda że G-Sync Ultimate jeszcze bardziej obniża opóźnienia obrazu?

    • @Venom-gs4nz
      @Venom-gs4nz Рік тому +1

      każda synchronizacja obrazu to robi ;)

  • @Daper2920
    @Daper2920 Рік тому

    Mnie nie obchodzi jak to działa, ważne że działa. A tak serio to dobry materiał
    pozdrawiam.

  • @gutgut2607
    @gutgut2607 Рік тому

    za dużo mądrych rzeczy!

  • @mariuszdenys5963
    @mariuszdenys5963 Рік тому +5

    Dzięki chłopaki wkońcu zrozumiałem że dlss nie jest mi do niczego potrzebny

  • @keycloudfilms
    @keycloudfilms Рік тому +1

    Po co jakieś technologie upscalingu czy frame generation, jak można po prostu zoptymalizować grę lub nie psuć sztucznie jej wydajności? To, co robią studia z nowo wychodzącymi grami jest jakąś komedią, niedługo będzie potrzebny komputer za 20 tysięcy żeby płynnie zagrać na najwyższych ustawieniach. To wygląda nawet na celowe psucie wydajności gry, aby tylko kupować śmieciowe karty graficzne w horrendalnych cenach.

  • @stars23PL
    @stars23PL Рік тому +2

    Moim skromnym zdaniem DLSS 3 to szansa na grę w najnowsze tytuły w wysokiej płynności i w wysokiej rozdzielczości za w miarę rozsądne pieniądze (jak na dzisiejsze realia)i mowa o karcie rtx 4070 w x-com w promocji za 2750 zł. Te UDAWANE klatki i tak są niezauważalne, za to graficzne wodotryski na przykładzie najnowszego patha w cyberpunk ju są zauważalne i to kompie który można złożyć od zera za 5000 zł. Bo rtx 4070 pozwala na oszczędność na zasilaczu wystarczy 550W z kolei procek wystarczy ryzen 5 5600 i tania płyta i stokowe chłodzeni albo i5 12 lub 13 generacji od 12400 po 13500 na tanich płytach gdzie nie zaznamy wąskiego gardła. Kończąc myśl, dzięki tej technologi nie musimy kupować rtx 4080 i zestawiać z drogimi procesorami na drogich płytach głównych żeby pograć w najbardziej wymagające tytuły ze wszystkimi bajerami graficznymi i to jest piękne ❤

  • @owsianelatte5876
    @owsianelatte5876 Рік тому +2

    4050 z DLSS3 to będzie hit, chyba że wszystkie gry w 2023 będą potrzebowały min. 12GB vramu XD

    • @Venom-gs4nz
      @Venom-gs4nz Рік тому +1

      w fhd juz teraz sa takie co potrzebuja wiecej niz 12 ;) ale to tylko alokacja tekstur wiec co najwyżej bd mieć gorsza jakość wyświetlanych tekstur xd

    • @michachmielewski9577
      @michachmielewski9577 Рік тому

      DLSS W 1080p wygląda tragicznie, chyba że na laptopie.

    • @micharutkowski6029
      @micharutkowski6029 Рік тому

      ​@@michachmielewski9577 Niekoniecznie. Przynajmniej w Warzone 2 DLSS/XeSS/natywne jeden pies podczas gry o ile nie podziwia się widoków tylko strzela. Chociaż to będzie zależeć od gry w którą grasz.

    • @Maartini007
      @Maartini007 Рік тому

      @@michachmielewski9577 przez chwile myślałem, ze Ty to ja, a ja to Ty XD

  • @Meloonikk
    @Meloonikk Рік тому +1

    Największy minus tych technologii to to, że są ekskluzywne. W RTX 4080 albo 4090 to fajny dodatek, ale te karty i tak uciągną wszystko. Za to w tańszych modelach brak tych technologii w danej grze może już być odczuwalny.

    • @de_iure
      @de_iure Рік тому +1

      Nie, nie jest odczuwalny, bo ta technika się nie nadaje do słabych GPU. Ona działa tym lepiej, im mocniejsze jest GPU.

  • @marcins6071
    @marcins6071 Рік тому +1

    czemu jest aż tyle filmów które dotyczą ilości wyświetlanych klatek na sekundę w komputerach?

    • @rafals9019
      @rafals9019 Рік тому +2

      Bo wiekszość bardziej jara sie klatkami niz grami😉

  • @kaciorx
    @kaciorx Рік тому +4

    Czekam na testy ze słabszymi kartami. Wtedy będzie wiadomo jak się to zestarzeje, bo czym innym będzie wzrost z 20/30 klatek a czym inym z 60. Tak to mamy jedynie brandzlowanie się do liczb

  • @KaZuuo_
    @KaZuuo_ 10 місяців тому +1

    Ja odpaliłem wieszimina z generowaniem klatek to mi wywaliło opóźnienia do 250ms, na rtx 4060 z r5 3600, dramat

    • @KaZuuo_
      @KaZuuo_ 10 місяців тому

      Dobra, odpaliłem ponownie, wcześniej były jakieś błędy, mam teraz 70ms i 55/70fps

    • @Blazko381
      @Blazko381 10 місяців тому

      ​@@KaZuuo_to i tak duże opóźnienie. Do multi dlss3 się by nie nadał

  • @andrzejrad8327
    @andrzejrad8327 Рік тому +1

    Zmaslo, chłopaku utyłeś......😯

  • @ryszardzokowski812
    @ryszardzokowski812 Рік тому +1

    Jeśli mam 30 klatek na dajmy na to rtx 4060 czy 4070 i podbijam je za pomocą FG do 60 to przez ten lag i tak nie ma to sensu. Ma to sens jedynie przy wyższym klatkażu, ale po co mi więcej fps w grach single, bardziej istotne by to było w grach online, ale zaś lag sprawi, że było by to niegrywalne. Więc pytanie dla kogo ta technologia?

    • @Criisko
      @Criisko Рік тому +1

      Dla osób które z 60 fps robią 120, powyżej 60 klatek opóźnienia nie są wyczuwalne ale już "brak szarpania" przez dodatkowe klatki jak najbardziej.

    • @de_iure
      @de_iure Рік тому

      @@Criisko o to to.

  • @Tech_and_IT
    @Tech_and_IT Рік тому +2

    i tak nie kupimy 4070 🤣

  • @mikoajbadzielewski3396
    @mikoajbadzielewski3396 Рік тому +1

    Wszystko fajnie wytłumaczone, bez jakichś dziwactw montażowych, aj lajket

  • @Czaakki
    @Czaakki Рік тому

    Wydaje mi się że zabrakło porównania gameplayu gry np w 120 klatach "zwykłych" vs 120 klatkach generowanych tj z włączonym DLSS3. Podobno uczucie/wrażenie braku płynności i responsywności jest gorsze z DLSS3.

    • @api3de
      @api3de Рік тому

      nie ma czegoś takiego jak brak respondywności i brak płynności,to są jakieś pieprzone bzdury powielane przez radeonowców,nic takiego nie ma miejsca,a jakby było to na pewno bym to odczuł,bo jestem przewrażliwiony na tym punkcie. jedyne co może wystąpić to tearing,ale u mnie wszystko śmiga jak z vsync,wszystko super płynnie,bez rozjeżdżania się obrazu.

    • @micharutkowski6029
      @micharutkowski6029 Рік тому +2

      ​@@api3de Jak najbardziej może wystąpić jak karta nie wyrobi się w np. 10ms dla 100FPS a potem zrobi kolejne dwie w 9ms to jedna klatka jest wyświetlana 2 razy a kolejna jest pomijana. I w efekcie obrazowi brakuje płynności mimo dużej liczby FPS bo jedna klatka jest wyświetlana dłużej niż inna.

  • @piotrty1539
    @piotrty1539 Рік тому

    Oglądając na smartfonie to nie wiem gdzie była jakaś różnica 🤪

  • @raffi1264
    @raffi1264 Рік тому +2

    Nie korzystam z żadnych funkcji. Nie jest to nic innego jak oszukiwanie, takie jak sztucznie generowanie klatek i zmniejszenie rozdzielczości przy karcie za około 10 tyś. LOL Gratulacje dla Nvidia i AMD. Tak się robi ludzi w ....Uja

  • @-zmorson-2798
    @-zmorson-2798 Рік тому +1

    Ludzie sie beda czepiac wszystkiego i zawsze...Dla mnie jest ok kupuje rtx 4070 ;)

  • @ttwinsturbo
    @ttwinsturbo Рік тому +1

    Ja na moim RTX4080 z I7 13700F z DDR5 6000 mhz używam tylko w grach z wymagającym RT w 4k max detalach. W innym wypadku gram w natywnym 4k lub DLSS quality bez FG :-) ale jak bym się uparł, że chce w każdej grze 150 i więcej fps z pewnością bym włączył FG ! Jest to super technologia i ja na 55 calowym Oledzie również nie widzę, żadnych artefaktów. A chyba nie będę stopował gry i analizował klatkę po klatce xD

  • @Johnlemon.89
    @Johnlemon.89 Рік тому

    Wychodzi na to, że możliwości sprzętowe się kończą.. teraz producenci będą konkurować ze sobą zastosowanymi technologiami software'u.

    • @emerwian83
      @emerwian83 Рік тому +2

      To jedno a drugie to ograniczenie wykorzystywania watów. Wcześniej się nikt za bardzo prądożernością nie przejmował więc Nvidia z początku chciała dać produkt (RTx 4090) pochłaniający nawet 650 watów. Zaczął się kryzys z prądem i musieli ograniczyć pobór. Póki co to wydajność=pobór prądu.
      Póki nie znajdą się lepsze półprzewodniki nastanie era "sztucznego" generowania fps.
      Jak sam zauważyłeś wiele osób różnicy nie widzi mało tego. Wiele osób myśli,że ogrywa w 4K przy DLSS nie biorąc pod uwagę tego,że to już nie jest natywna rozdzielczość. Nikogo nie krytykuje ale osobiście nie kupiłem RTx 4000(miałem ale oddałem po kilku dniach). Jeżeli karta za takie pieniądze nie jest w stanie w natywnej rasteryzacji to szkoda pieniędzy.
      Użytkownicy serii 4000 będą bronić,reklamodawcy DLSS też będą bronić i wszyscy zadowoleni.

    • @Johnlemon.89
      @Johnlemon.89 Рік тому +1

      @@emerwian83 Zgadzam się. W związku z Twoją wypowiedzią i ogólną wiedzą można wyprowadzić wniosek, że fizyki nie da się oszukać, a ludzi jednak tak ;). Pozdrawiam.

  • @Apokathelosis
    @Apokathelosis Рік тому +11

    "Czy NVIDIA oszukuje?". Tak. Nie trzeba kończyć.

  • @dikkajn8185
    @dikkajn8185 Рік тому +8

    Jestem zwolennikiem akurat normalnej gry ewentualnie jak słabe karty nie dają rady to można się wspomóc pozdrawiam

  • @gameshoot8571
    @gameshoot8571 Рік тому +1

    dlss w warthunder daje dużo artefaktów

    • @siwy9671
      @siwy9671 Рік тому

      w jaki sposob? jest w ogole dlls3 i FG w warthunder ?
      czy tylko dlss 2 jest

    • @gameshoot8571
      @gameshoot8571 Рік тому

      ​@@siwy9671 jest dlss i ogólnie to jak termowizję wyłączasz to trawa robi się brązowa przez chwilę i kiedyś z antenkami na abramsie miałem problem bo smugi za nimi były
      Edit: jednak jest tylko dlss2 XD

  • @jarosawsiedlecki3126
    @jarosawsiedlecki3126 Рік тому

    AI tam nie ma za grosz. Generowanie klatek na bazie sieci neuronowej to nie AI. Ot sposób zgadywania wyniku. Wektory nie mają nic precyzyjnego umożliwić. Są tylko danymi zwiększającymi prawdopodobieństwo prawidłowego zgadnięcia. I nie, te algorytmy nie nazywają się algorytmami AI. Dotyczy zarówno upscalera jak i generowania klatek.

  • @carvideos5276
    @carvideos5276 4 місяці тому +1

    Sztuczna inteligencja DLSS 3 zwiększa ilość fps ale niszczy jakość obrazu i ogólną jakość grafiki podczas gry. Nie wykluczam, że taka technologia to przyszłość ale jest niedopracowana.

  • @jakubknyps1686
    @jakubknyps1686 Рік тому

    Czy fsr 3 zadziała za seri rtx 2000 i 3000 ?

    • @siwy9671
      @siwy9671 Рік тому

      narazie to nawet nie podali na jakich radeonach jest tylko informacja ze beda otwarci i uzytkownicy intela i nvidi beda mogli uzywac fsr 3 ale nie wiadomo na jakich kartach
      na kolejnej konferencji sie wszystko okaze

    • @de_iure
      @de_iure Рік тому

      @@siwy9671 zanim FSR 3 wyjdzie, to Nvidia wyda już 50xx.

    • @siwy9671
      @siwy9671 Рік тому

      w tym roku bedzie fsr3 xd

    • @de_iure
      @de_iure Рік тому

      @@siwy9671 no tak, 31 grudnia, to też ten rok.

  • @resturator
    @resturator Рік тому +2

    Technologia idealna dla takich ślepaków ja ja - tak samo nie odróżniam 60FPS od 120FPS jak i 60Hz od 144Hz.

  • @TrolekAmatorek
    @TrolekAmatorek Рік тому

    DLSS będzie fajny za kilka lat, gdy czyiś komp juz nie będzie ogarnial.
    Ile ja bym dal zeby pograc w RE village nawet w ujowej ale płynnej jakości.

    • @de_iure
      @de_iure Рік тому

      DLSS jest fajny już teraz, bo działa najlepiej z wszystkich technik AA.

    • @michachmielewski9577
      @michachmielewski9577 Рік тому

      Ile ja bym dał..
      Proponuje xss za 900zl, ograć grę i sprzedać xboxa i grę, cała zabawa mniej niż cena gry na steam ale lepiej marzyć zamiast żyć po swojemu.

  • @marcint4521
    @marcint4521 Рік тому

    Nie chlej tyle bo ci nos puchnie🤣🤣🤣