Będzie tylko gorzej z optymalizacją. Sa te wszystkie techniki generowania fps to po co męczyć sie z optymalizacją, skoro mozna w ten sposób zmniejszyć koszt produkcji. Zaoszczędzony czas i pieniądze mozna przeznaczyć na umieszczenie dodatkowych skinów do sklepiku w grze singlowej...
Najlepsze dla mnie jest to, że w takim Tekkenie 8, gdzie są zablokowane fps na 60, można podbić je do 120 i gra się naprawde miodnie. Nie widzę żadnych artefaktów które by mi przeszkadzały. Teraz już nie moge patrzeć na T8 w 60 klatkach xD Ps. Lossless Scaling działa także na filmach, np możemy liptona podbić do 120 klatek :D
Probowalem na emulatorku odpalic Tekkena 6 z tym narzedziem i byla tragedia uzycie gpu tak skakalo do gory ze nie moglem grac w to plynnie i skakaly klatki od 70 do 90fps caly czas. No nic pewnie z lepszym gpu by sie dalo. A Tekken 8 pewnie dziala bez problemu bo to native gra pod windowsa. Polecam wyprobowac tez SpecialK z latent syncem i input delayem na 50-75% gra sie mega we wszystko na padzie i myszy jakby nie bylo wg zadnego input laga ale watpie ze zadziala razem z Losslessem :(
Nie wiem jak Tekken, ale różnica np. w Diablo 4 czy 2 Resurrection widzę zauważalną różnicę między 60 a 120 FPS. A mam monitor 240 Hz. Jak dla mnie minimum to stałe ok.100 FPS.
Nie grasz kompetetywnie to Ci to nie zrobi różnicy. Generator zawsze powoduje większy bądź mniejszy input lag i nawet antilag czy reflex nie zlikwidują całkowicie problemu.
@@mrbeckham666 było kupić kartę pod 120hz lub 240hz, a nie rzeźbić teraz z generatorami, które dalej mają swoje inne problemy i raczej się to nie zmieni. Mam monitor 165Hz, ale gram głownie w 90FPS. Odbiór jest dalej całkiem inny, a kolejne FPSy nie robią już żadnej większej różnicy, szczególnie wyplute przez generator. W singleplayer żadna różnica, w grach kompetetywnych dobierasz ustawienia tak by było jak najwięcej FPS i unikasz generatorów, które dają laga czy ghosting.
Ja już nie mogę wytrzymać tego zidiocenia na rynku gier. Może należy wymuszać na twórcach optymalizację i dostosowanie ficzerów do sprzętu komputerowego, a nie wiecznie rzeźbić z generatorami i skalerami? Jeszcze bardziej tym rozleniwiacie deweloperów od czegokolwiek i potem may gry na PS5 gdzie 30FPS jest tak niestabilne jak degustator tanich trunków procentowych jak tylko uzbiera dychę na winiacza. Naprawdę, darujmy sobie już te przepychanki który skaler jest lepszy. TEGO MA NIE BYĆ! Nvidia spartoliłą rynek. DLSS miało być wykorzystywane pod RT gdzie wydajność naprawdę dostawała po łbie, ale na ten moment używane do bólu jest to w grach, które nawet nie mają RT czy innych lumenów. Już były porównania, że gra przeniesiona z UE4 na UE5 bez dodawania bzdur zyskuje zauważalnie na wydajności, ale to trzeba umieć w gamedev, a nie pozostawiać to przypakdowi. DLSS i FSR też działają jak chcą, bo twórcy wrzucają implementację na odwal się, a potem wychodzi, że byle moder robi to lepiej. Te funkcje nie mogą być w ogóle rozważane jako jakikolwiek argument zakupowy. Gra nie trzyma stabilnych 60 FPS na karcie średniej klasy w FHD? Robić refunda i czekać aż będzie naprawione. Gamedev schodzi na psy przez takie porównania skalerów i takie modlitwy do tych "technologii". A i co do ilości klatek to ludzie chcą zjeść ciastko i mieć ciastko. Każdy chciałby grać na ultra i to z RT, ale jojczy, bo mu karta daje 30-40FPs. Więc co taki ktoś robi? Wrzuca skaler i generator. Ma dodakowego laga, ghosting i artefakty, ale przynajmniej nakarmił swoje "mieć wszystko na ultra", które w żadnym wypadku nie jest ultra. A wystarczyło kilka detali zmniejszyć o poziom czy dwa i już by było stabilne 60+FPS bez zająknięcia. 7800XT nie jest kartą do 4k. Tu najwyżej 1440p. Implikowanie, że jest inaczej to oszukiwanie siebie i innych. Wystarczy mierzyć siły na zamiary.
@@Stefan_Batory no ale można by nie tworzyć materiałów, które pokazują jakąś wyższość skalerów, i że są jakoś szczególnie potrzebne. Tworzy to fałszywą potrzebę posiadania czegoś przez człowieka, który nie rozumie do końca czego oczekuje od sprzętu. W ogóle dla mnie to jest jakiś scam czy bardziej hipokryzja niektórych. Jak AMD wydało AMFM, które działa w teorii identycznie jak program za 5$ to pojawiały się śmieszki i uszczypliwości, ale jak wychodzi nowe i pod inna nazwą to już kozak, mimo iż ma te same problemy co AMFM to technologia kozak.
Masz rację, ale co do zmniejszania jakości grafiki to niestety, ale w dzisiejszych grach mało to daje co jest kolejnym dowodem na to jak bardzo są zainteresowani optymalizacją gier XD
Narzędzie jest bardzo dobre do Dark Souls 1. Nawet w wersji remaster licznik fps jest ograniczony do 60 klatek, a to narzędzie sprawia, że możemy sobie pograć w 120 bez ingerencji w pliki gry, które są bardzo wrażliwe na zmiany klatek i mogą powodować przyspieszenie gry. Sprawdziłem sam i działa to wyjątkowo dobrze - artefaktów prawie nie widać.
Dzięki temu w końcu mogę ograć Bloodborne na playstation, tak mnie te 30 klatek odrzucały od tej gry przez cały ten czas, że nigdy nawet nie spróbowałem się do tego przyzwyczaić. Teraz wystarczy remote play, lossless i można się cieszyć płynnością. Dla mnie to działa jak zbawienie do gier konsolowych zlokowanych na 30fps. Mega!
Wow to działa mam od kopa, genialne do gier z zablokowanym licznikiem i bez wbudowanego frame generatora ale nawet starsze materiały na YT w 3x większej iloci klatak to sztos plusy odpalone wyładnianie obrazu w Operze GX i mamy YT 2.0 :D
@@UnclePockets F5 (opcje), i w drzewku: + Wideo + Przetwarzanie obrazu i tam ptaszkiem na górze: podwajanie liczby klatek (tworzenie klatek pośrednich). Warto do tego utworzyć skrót. Różnica jest kolosalna, zwłaszcza na monitorach niesmużących gamingowych.
@@konrad3579 hmm zastanawia mnie dlaczego ta opcja w oryginale nazywa sie "motion blur" czyli po prostu zwykle rozmycie ruchu... ale przetestuje, sprawdze, dzieki.
@@UnclePockets W grach ta opcja wprowadza rozmycie, bez poprawy płynności, a jedynie tuszując ów brak. W Potplayer z dwóch klatek tworzona jest jedna i oczywiście jakieś tam rozmycie ma miejsce, nie każdy nawet to zauważy. Płynność realnie się podwaja.
To już wina samego opensdk(openvr) z którego korzysta ets2, karta musi renderować po 2x obraz w 4k dla każdego oka oddzielnie ( w zależności od użytych gogli vr ), przy użyciu steamowego, bądź oculusowego oprogramowania vr ( jeżeli używasz gogli od mety ) te sdk zawierają opcję którą mogą zaimplementować dev'y do swojej gry, która powoduje że karta renderuje tylko jeden obraz, a to sdk zajmuje się tym zeby było dobrze widać w obu oczach.
@@fendt126 wydaje mi sie że tu winowajcą jest optymalizacja która leży odkąd powstało dlss i generowanie klatek bo wystarczy 1 mod aby odpalić nawet path tracing w 50/60 fps na tej karcie a z zwykłym rt 80
Jak dla mnie kolejnym "przełomem" w wersji 2.12 LSFG jest fakt że dodali skale rozdzielczości generacji klatek. Skala do 60% i FrameGen wraz z grą odrazu zyskuje na stabilności co daje lepszy fps. Mi wystarczy 60% , innym wiecej lub mniej zalezy od preferencji i sprzetu. Jak twórcy to robią nie wiem , ale program po aktualizacji coraz bardziej zaczyna mi sie podobać.
Jestem tytaj bo slyszalem ze to moze pomoc, poniewaz moj komputer jakos nie spelnia giga wymagan na nowego farminga bo to tylko i5 6600k + gtx 1070 i chcialem sie zapytac czy ten program bedzie wmiare miec sens na te podzespoly czy dopiero na nowsze ps. dzieki za film
Dzięki za ten filmik, bo dzięki temu w końcu mogę normalnie grać, ponieważ po zakupie monitora z 165hz odświeżaniem i granie w fps, nie byłem wstanie się przyzwyczaić do grania w gry poniżej 120 fps, byłem mega sfrustrowany tym, bo rok temu składałem nowego kompa (oczywiście z twoich polecanych części) komputer sprawdza się super, tylko nie we wszystkich grach osiąga te 120 klatek, a do 60 klatek niestety nie da się już przyzwyczaić wzroku, więc jeszcze raz wielkie. dzięki za ten filmik. Robisz świetną robotę, trzeba będzie się zastanowić na wsparciem tego kanału, bo ewidentnie zasługujesz.
Chwila. Czyli LS jest na rynku tak samo długo jak pierwsze karty RTX jak nie dłużej i programowo daje te same efekty? Czyje się oszukany. I nagle ten wielki "Hype" na DLSSsy który ciągnie się od lat wydał mi się irracjonalny.
@@pokemon1666 Wersja 3.0 i 3.1 FSR jest porównywalna. Nawet jak wychodzi gorzej, to rozbijamy sie o szczegóły. Przynajmniej generator klatek moge odpalić na np starym RX 480
@@WelonEU w SR, najpierw ustawić grę (w menu grafiki) żeby była "bez ramek", wyłączyć grę, ustawić w sterowniku, w rivatunerze, albo samej grze, ograniczenie klatek na połowie możliwości monitora albo ciut mniej (w moim przypadku 144Hz) więc ustawiłem sobie 71. Jeśli w grze, to będzie tylko 60. Uruchomić Lossles scaling. Na początek, z lewej strony dać nowy profil gier (jakoś tam go nazwać) żeby za każdym włączeniem nie ustawiać na nowo, następnie w kolumnie: Tryb skalowania: Auto i proporcje obrazu, typ skalowania LS1 (wydajność OFF). Generacja klatek (na początek) zmienić na LSFG 1.1, jechać paskiem na dół aż do opcji Synchronizacja wył. (przecież po to blokujemy klatki), Pokazuj kl/s - ON, zjechać jeszcze niżej i w API przechwytywania zmienić na DXGI. Zostawić włączony Lossles i uruchomić Snowrunnera. Jak się SR uruchomi do menu, zrzucić go na belkę, przejść do Losless i włączyć przycisk "Skaluj" w prawym górnym rogu i w ciągu 5 sek. od włączenia powrócić do Snowrunnera (u mnie kombinacja klawiszy nie działa). Po 5ciu sek. ekran mignie i w lewym górnym rogu pojawi się licznik klatek. Wczytać save i grać. Jeśli będzie obraz zbyt rozmyty - w opcji wyostrzanie dać pasek na 1. Gdyby było za mało klatek (np blokada ustawiona na 71 a wyświetla przykładowo 51/102 i karta wyje) to napisać :) Jest też tryb x3 (choć ja polecam jego użycie w ostateczności)
@@ziomekzedzielni1 w niektórych grach jest opcja stopniowania rozmycia takie ustawienie czasami pomaga gdy np krawedzie są postrzepione bardziej zalezy od gry
W Cyberpunku akurat fajnie to się implementuje jak nie mamy dużo klatek, przy szybkich ruchach myszka daje efekt płynności, a nie klatkowania, polecam sprawdzić
mam jedno pytanie ,bo w tym momencie 6:33 powiedziałeś ,że należy dostosować limit klatek do częstotliwości monitora: 1/2 1/3 1/4 ale nie mamy opcji mnożnika klatek x4 tylko x2 i x3
Bo chodzi o inną liczbę w innym programie. Co można też zrobić w sterownikach karty gtraficznej, niemniej jednak Riva Tuner + RTSS (jedna instalacja) jest jednym z najbardziej powszechnych programów do monioringu GPU w grach. Wraz z RivaTuner instaluje się RTSS (z opcją frame limit i tu jest ta opcja). W RTSS możesz zablokować maksymalną ilość klatek wyświetlaną przez grę. I tak, gdy gra działa w 62 FPS (np Skyrim) a masz monitor 120 FPS, to trzeba w nim ograniczyć FPS do 60, a w Lossless Scaling dać x2, dzięki czemu masz 2*60=120 FPS. A jeśli masz monitor 180 Hz, to x3 (60x3=180). W skrócie, musisz chwilkę się zastanowić do ilu FPS musisz grę ograniczyć w RTSS tak by wykorzystać możliwości swojego monitora. Ja mam monitor 280HZ, załóżmy że włączam grę i karta niedomaga, mam zaledwie 43 FPS. Tak więc ograniczam FPS do 40, co daje mi 80 FPS, czyli całkiem ładnie, acz mogę się pokusić o mnożnik x3, co da mi 120 FPS. Jeśli jednak gra chodzi mi w 150 FPS a chcę wycisnąć max, to muszę ograniczyć w RTSS do połowy odświeżania monitora, czyli 140 FPS (mnij niż chodzi gra), bo to da mi przy mnośniku X2 moje maksymalne 280 FPS. Po kilku razach w ogóle nie będziesz się zastanawiać co musisz, będziesz to robić automatycznie.
Ja nie wiem jak to jest, że niektóre nowe gry wyglądają dużo gorzej niż (niektóre) stare, a mimo to maja 2x albo 3x wyższe wymagania?? Czy my się cofamy w rozwoju, czy już nikogo nie obchodzi dobra optymalizacja?? Twórcy ciągle trąbią, że trzeba podnosić ceny gier, bo rosną koszty ich produkcji. Ale to samo mówili, gdy podniesiono standardowa cenę z 250 zł na 350zł za grę. Miało to niby zapewnić lepszą jakość produktu.. to ja się pytam, gdzie jest ta lepsza jakość?? Dzisiaj wychodzą gry za 350 zł, które trzeba potem naprawiać następne pół roku.. ehh, w złym kierunku idzie branża gier. Do tego, jeszcze zaporowe ceny samego sprzęty, jak tak dalej pójdzie, granie w nowe gry będzie przeznaczone tylko dla najbogatszych. Ale może przesadzam... może to tylko ja i moje czarno-widzenie.
@@marcinchreptowicz6843 A ile na premiere kosztowały takie gry jak: Diablo IV, Starfield, CoD Modern Warfare 3 Remaster, Alan Wake 2 czy Horizin Forbidden West?? Od 300 do 350 zeta.
@@gureedoteam5632 wspomniałeś same okropne gry, może poza horizonem, tworzone przez ogromne korporacje które trafiają do casualów, a nie do kogoś kto ogląda takie filmiki na yt (: Oni nie zwracają na to uwagi
Ciekawy jestem, czy to zadziała w tym przypadku (tytuł zamiast linku) "Jak Duże Jest Mega Miasto? Manor Lords 2024. Sprawdź to! (Przewodnik po zasobach) 🏰" Ja uzyskuje 2-10 FPS na swoim PC a w GeForce NOW - Ultimate max 12 FPS. Ale te wyniki miałem dla 6800 mieszkańców Manor Lords. Teraz mam 9000 i spadek do 2 FPS 🙄
@@TechLipton haha no tak jak ja na początku się cieszyłem z 200 potem z 500, a potem zobaczyłem shorta że max to 1000 - no i musiałem to sprawdzić. Okazuje się że ograniczeniem jest tylko cierpliwość i dalej poszło z górki 😎
@@TechLipton Podobno pełna wersja będzie już na bardziej wydajnym silniku w najnowszej wersji, więc jest szansa dla takich jak ja - budowniczych 😁że będzie więcej przyjemności z budowania w więcej niż 2 FPS.
Hej, to mój pierwszy film który u Ciebie widzę. Nie mam pojęcia czy już jesteś zaznajomiony z wykorzystywaniem technologii NVIDIA - ICAT? Pozwala na lepsze porównywanie fpsów idealnie sprawując się do tego typu filmów. Można odtwarzać do kilku nagrań na raz co pozwoli Ci nawet na stworzenie jeszcze lepszego zestawienia O ile nie jest Ci znany to polecam się z nim zapoznać pozdrówki (Broń boże to żadna reklama XD)
Hej dzięki za film, bardzo przydatne informacje o Lossless Scaling. Z tą blokadą fps na 60 klatek naszedł mnie taki pomysł na film w związku z zwiększeniem kosztów prądu w Polsce od lipca. Czy mógłbyś zrobić jakiś test kart na zablokowanych fps , warianty poboru prądu natywna rozdziałka, z dlss /fsr , z opcją frame gen. oraz tańsze karty chodzące na 80% po zablokowaniu klatek i droższe modele z większym tdp ale na 50% obciążenia, karty po optymalizacji undervoltingiem i bez, co jest bardziej opłacalne dla zmniejszenia poboru prądu. Uważam, że byłby to ciekawy i przydatny test, pozdrawiam.
Czy np zablokowanie gry na 100 klatkach pomoże pozbyć się takich artefaktów na monitorze 144hz? Mówię oczywiście o trochę starszych grach w których mój komputer jest w stanie sobie poradzić
Dopytam po swojemu - czy na laptopie z monitorem 60Hz i gtx950m które w Valheimie w full hd na niskich działa w okolo 30 klatkach ze spadkami do 20 zastosowanie tego programu i zablokowaniu na 30 klatek poprawi mi jakoś zauważalnie jakość rozgrywki?
Zawsze można odpalić grę w HD, skalować do Full HD, a potem na zablokowanych 30 klatkach włączyć LSFG x2 w trybie Performance (wszystko wykonywalne w Lossless Scaling i panelu NVIDIA). Trzeba tylko pamiętać o pamięci karty graficznej (VRAM) żeby zostało miejsca na LS (ok. 0.5 GB).
Ogólnie sam program jest przydatny np: w emulacji lub tytułach dla których input lag nie ma znaczenia. Wiadomo są wady i zalety z plusów jednak "większy"frame-rate (co ratuję posiadaczy starszych PC), upsacle tytułów które nie posiadają implementacji DLSS, FSR lub XeSS, można zbić temperatury i zużycie prądu PC po przez lock na mniejszą ilość FPS np: mając ekran 144hz grę blokujemy na 48FPS i można dać opcję X3 tak samo przy X2 wtedy należy zablokować grę na 77FPS. Z minusów to input lag co w tytułach kompetytywnych np: CS GO,Valorant etc co niestety odrzuca możliwość korzystania z tego typu rozwiązania w takich grach. Do tego artefakty graficzne częściej występują przy X3 ze względu na większą ilość generowanych klatek przez program. Jeszcze pro tip dla niektórych są mody na FSR 3 z frame gen które działają i wyglądają lepiej niż LS co dobitnie pokazuje że NVIDIA i jej śmieszy DLSS frame gen to skok na kasę ponieważ FSR 3 działa praktycznie na wszystkich starszych kartach a nie jak NVIDIA tylko na serii 4000. Do tego właściciele Radeonów mogą korzystać z AMD fluid motion frames.
Po odblokowaniu 60 fps to rzeczywiście działa. Dla mnie 75 to minimum (wiadomo więcej = lepiej), ale bez przesady - nie widzę już znaczącej poprawy powyżej 90.
3x wiecej FPS za 20zl (ale z artefaktami), lub 2x wiecej klatek za darmo (ale bez artefaktow). Wystarczy poszukac pewnego (i to legalnego) moda na nexusie: DLSS Enabler (filmy są też na YT)
@@ADONISx3 Poszukaj ba YT moda o nazwie "DLSS Enabler". Swoją drogą, można go używać w parze z rozwiązaniem z tego filmu, co teoretycznie zwiększa FPS o 600% (o ile nie stopi Ci się wcześniej CPU albo GPU).
@@nerfbronzecrank7966 Wszystko zależy od gry. Np w CP 2077 po instalacji anti-ghost moda grafika wygląda jak na prawdziwym DLSS FG. Inne gry jak Hogwarts Legacy lub Ghost of Tsushima też wyglądają dobrze, warto obejrzeć filmy z testami tego rozwiązania. Dodatkowo, jeśli ktoś woli, może włączyć w modzie tryb dynamicznego generowania klatek (który włącza FSR3 lub DLSSG tylko, gdy FPS spadnie poniżej podanej przez użytkownika granicy)
Gram na konsoli oprócz strategii. Mam pytanie . Jak uruchomić grę w oknie Rome TW Remastered , tam tego w opcjach nie ma i w opcjach systemu windowsa też tego nie mam. Chodzi o to : "Wybierz przycisk Start, a następnie wybierz pozycję Ustawienia ,wybierz pozycję System > Wyświetlanie grafiki > > Zmień domyślne ustawienia grafiki. Wybierz ustawienie w obszarze Optymalizacje gier w oknach , aby je włączyć. Uruchom ponownie grę" Po ustawieniach grafiki nie mam opcji wyświetlenia gry w oknie. Nie mogę sprawdzić czy ten program LS działa. P.S. Sprawdziłem różne ustawienia na w Rome 2 TW , w końcu gra sprzed 11 lat - niestety , gorzej działa z tym programem niż bez niego.
Przykre, że samo odpalenie Steama itp. aplikacji potrzebnych do odpalenia gry zabiera nam +/- 10-15% wydajności w grach. A piraci nie dość mają za darmo to jeszcze lepiej im gry chodzą XD Warto pogrzebać w procesach działających w tle przed odpalaniem gry. Trzeba zrobić tak żeby był wyłączony nawet explorer.exe czyli pulpit z ikonami. Ja wyłączając dosłownie wszystko co się dało zyskałem naprawdę zauważalne przyrosty w grach. Sposób sprawdzał się zarówno na starym lapku jak i obecnym kompie z RTX 4080. Badziewia systemowego po zainstalowaniu Windowsa jest w cholerę, większość z tego jest nigdy przez nas nie używana nawet. Warto zainteresować się tematem bo mowa jest nie o byle tam paru klatkach tylko parunastu albo nawet parudziesięciu wzwyż zależy jak bardzo mamy zawalony PC niepotrzebnym syfem a uwierzcie mi każdy komp jest zawalony nawet ten świeżo po przeinstalowaniu i po złożeniu z nowych części.
Ale cię odkleiło... 10-15% to tylko w twoim 20-letnim kompie/lapku lub "rtx" "4080" z chin, z wisha z 1GB RAMu i 20-letnim dyskiem HDD... Naprawdę trzeba by się bardzo postarać, by aż tak zasyfić kompa...
Nie wiem, z jakiego plastiku jest wykonany chip w Twoim RTX 4080, ale ja na moim 6700xt mogę usunąć 90% procesów a gry oparte na GPU zyskają max 1-2% fps
ja chyba nie kumam... 7.53 minuta filmu odświeżanie monitora 144hz i 75 klatek vs czary mary i 120hz i 60 klatek i to niby jest lepiej ? czyli podepnę monitor 60hz i zablokuje klatki na 30 i będzie najlepiej ?
Działa u mnie na gtx960 2gb i 8gb ram i5 choć to najlepiej na starszych grach. RDR2 artefakty, Forza Horizon 4 smużenie, e-football 2024 tragedia, AC Valhalla dopiero nieco płynności. W sumie nie tego się spodziewałem, nie na mojego kartofla. Dużo lepsze efekty daje Low Specs Experience który jest za podobną cenę i naprawdę robi robotę
czysto teoretycznie bo ja aktualnie problemu z fps'ami nie mam ale czy można włączyć FG NVIDII i do tego LSFG 2.1? jak tak to jak by to wpłynęło na FPS'y? wszystko by ogłupiało czy mieli byśmy jeszcze więcej fps'ów?
@@gabrielf374 domyślałem się w sumie tego. jak można wsadzić sztuczną klatkę pomiędzy sztuczną klatkę tak aby to się nie popsuło. No ale cóż i tak ciekawa technologia.
@@krokodyllezy nie znam się na tym ale ten laptop czy notebook jest tak powolny ze szkoda gadać system odpala się jakieś 10 minut przeglądarka 2 minuty i jedyne na co mogę liczyć że jest wydajne to granie w chmurze bo mam światłowód starsze gry jedynie chodzą lub jakieś serio z małymi wymaganiami tak to GeForce now lub na subskrypcji Xbox ultimate w chmurze mogę sobie pozwolić ci którzy mają lepsze laptopy czy notebooki to serio zazdro bo wkurza mega te powolne włączanie się wszystkiego
Ten program możan kupić tylko n tamtej pokazanej platformie? Czy można inczej. Ciekawi mnie czy ten program wymaga dodatkowej platformy, która sama w sobie obciąża system.
A dziala to na laptopach, mam integre i celeron, chcialbym zagrac w mc, mam wszystko podkręcone na maxa+hone+sodium a osiągam około 60fps, jezeli to bym kupił to miałbym 3x fps czyli około 180?
Czy to działa na Linuxie przez Proton'a? I jak przeliczyć ile najmniej FPSów powinno być przy monitorze 165Hz? Jeśli brać podany przykład 36 dla 144 to wychodzi 1 klatka na 4 Hz. Hmm.. Jeśli na logikę powinna być równa wartość to dzieląc 165/5, otrzymam 33 FPS jaką najniższą optymalną wartość.
@@cyberlolek Jeżeli nie da się mieć przejżystej interakcji w grach fps przez input lag to według mnie technologia generowania klatek nie jest warta uzywania w zadnej grze
Czy apka również będzie odpowiednio działać przy zablokowaniu na 90hz przy monitorze 120hz aby zmniejszyć opóźnienia? Wtedy generowana klatka będzie co 4 co zmniejszy artefakty ?
Przy zablokowaniu FPS ów na 90, generator wygeneruje albo 2x albo 3x więcej klatek (o ile moc karty na to pozwoli), czyli odpowiednio 180 lub 270 - przy 120Hz monitorze, efekt będzie odwrotny do zamierzonego i będzie skutkował rwaniem obrazu (Gsync, Freesync i VRR nie działają).
To tylko dla tych co maja komputer jak widze za minimum 5k - czyli to zwyczajnie kopiuje co 2 klatke przesuwajac ja o kilka pikseli ? to tak jak w tv od 20 lat jak nie wiecej chodzi o cos chyba podobnego "proste podwajanie klatek zastąpione jest dodawaniem obrazów pośrednich, tworzonych przez algorytmy interpolacyjne lub czarnych klatek, aby zwiększyć ich liczbę. W rezultacie krótszy czas wyświetlania obrazu, zapewnia większą płynność ruchu. "
Problem w tym, że ja już nawet nie mam ochoty bawić się ustawieniami, a co dopiero takimi programami. Grę powinno się uruchomić, a ona sama powinna ustawić najlepsze możliwe ustawienia do obecnej konfiguracji, i powinno to działać bez problemów. Niestety, nic się w tym kierunku nie zmieniło...
A nie można z poziomu panelu ustawien nvidi zablokowac ilość klatek na sztywno? Bez konieczności instalwoania dodatkowych programów do blkowania klatek? Ta opcja jest już od dawna dostępna w sterowniku.
Można lecz blokada z RTSS jest bardziej stabilna i lepsza - testowałem to rozwiązanie i frametime jest najbardziej stabilny po nałożeniu blokady za pomocą RTSS niż sterownikiem nVidii ;)
Można, ale po co? RTSS jest dobre, sprawne, przetestowane, działa od lat, instalacja trwa kilka sekund, program zajmuje kilka MB, limitowanie klatek to kwestia dosłownie 3 sekund i możesz w ten sposób zablokować WSZYSTKIE programy, a nie tylko jeden konkretny. Instalujesz raz i masz cały czas.
Mam pytanie lub raczej prośbę, nagrałbyś jak najlepiej zamontować, dobrać płytę dla dwóch kart 4080 nvidia wersja Founders Edition, w sumie 4090 to ten sam problem, coraz więcej ludzi montuje dwie karty, nie do grania ale ML, Ai etc, i jest to wyzwanie, sam się z tym zmagam bo mam już fajną kartę RTX 4080 Super Founders Edition + Płyta główna ASUS ProArt Z790 Creator WiFi ale teraz obudowa aby pomieścić dwie karty? hmm, nie mogą być jedna. nad drugą bo lekko za ciepło. Jedna w slot druga vertical ? Jaka obudowę dobrać. Tutaj wśród znajomych z branży IT i ML, AI to duże wyzwanie, wiele osób nie ma wcale obudowy bo wtedy można karty dowolnie :) ale to tez nie jest fajne wg. mnie. Może coś @TechLipton pomożesz, doradzisz.
Właśnie po to Nvidia tworzy karty Quadro które dzięki NVlink mogą "łączyć" pamięć ram (też do AI i ML). Nvidia już kompletnie porzuciła multi GPU na konsumenckich kartach żeby kosić na wersjach profesjonalnych więc próba łączenia nie ma większego sensu.
@@Zmyszen coś mi to nie pasuje, bo pod mechanizmy Ml i AI używasz wszystkich kart, nawet karty pro możesz łączyć i się łączy, w grach zgadza się to nic nie daje ale do renderowania, do ML i AI już tak.
to "nakładka", więc nie ingeruje w pliki gry co za tym idzie nie ingeruje w anti cheat'a. Tak jakby na monitor ktoś nałożył ci warstwę, która zwiększa klatkarz. Pod spodem działa nadal ta sama gra bez jakiejkolwiek ingerencji zewnętrznej
Super. Cieszę się, że w końcu ktoś zajął się tego typu tematem tak szczegółowo. Dziś pobawię się LS przy Dead Space 2023. Może uda Mi się w końcu odciążyć ciut procesor i zminimalizować chociaż trochę randomowy stuttering.
Całe szczęście wyrosłem za tą chorą ciągła pogonią za fpsami... Rynek sprzętu komputerowego oraz gier obecnie to jest jedna wielka porażka. Przesiadłem się na konsole i mam święty spokój.
Muszę przyznać, że program dał mi wielką różnicę w The Last Of Us Part II bez programu gra działała w 60 fps, ale miała wielkie spadki do nawet 45 po uruchomieniu programu i wyskalowaniu ustawień dało się grać na 30 fps, które wyglądały jak płynne 60 fps, ale są i mankamenty artefakty, których, choć bym się starał nie oglądać widać je gołym ale oczywiście można je olać ale myślę, że mogę z czystym sumieniem polecić aplikacje
Można, pytanie brzmi - po co? FG od nvidii jest bardziej wydajne niż LSFG - połączenie ich nie da jeszcze lepszego efektu - to bardziej pomocne dla starszych grafik niż tych najnowszych
Komentarze są podzielone. Część najeżdża na Nvidię że dali się nabrać na karty 30xx i 40xx Druga część cieszy się że zyskają fpsy Ostatnia część to boomerzy typowi "za moich czasów wszystkie gry działały" Niezłe jajca
Jeśli nie używasz FG, to DLSS może być używane. Ale nie wiem czy niektóre gry online mogą działać z Lossless Scaling (teoretycznie przechwytuje obraz jak OBS). Niektóre systemy AntyCheat mogą wykryć programy jako zakazane i nałożyć BANa konta gracza!
@@kamilbarda1566 Z tego co pamiętam to Call of Duty: Black Ops - Cold War mogłem włączyć DLSS z poziomu gry i żadnego bana nie było. Dziwne byłoby gdyby włączenie opcji w grze powodowałby ban. Pytanie tylko czy warto?
@Sebastianino Chodziło mi oto że Lossless Scaling to dodatkowa nakładka NA GRĘ która działa na podstawie obrazu, czyli to dodatkowy program który działa w tle (niektóre programy AntyCheat oparte kelnerem systemu mogą odczytać to jako złamanie zasad fair-play). Jeśli masz starszy komputer to warto bo można przełożyć upgrade na później. Kiedy masz nowy komputer to można dużo zaoszczędzić prądu (moje stanowisko z dwoma monitorami pobiera mniej niż 200 watów w grach 120fps)!!! Cały program działa na karcie graficznej, czyli można odciążyć procesor.
Na przykładzie podanego tu CODa, kiedyś używałem jakiegoś chińskiego programu z githuba żeby mieć FSR w pierwszym Warzone i działało bez problemu, ale wtedy nie było jeszcze Ricochet Antycheat więc ręki uciąć sobie nie dam. I tak jak kolega wspomniał, co innego jest użyć technologii zaimplementowanej w grze a użyć zewnętrznego programu którego gra może nierozpoznać. A i odpowiadając na pytanie - DLSS akurat jest spoko i nie dokłada opóźnień.
Oczywiście. FSR jakość powinien tej karcie zapewnić odpowiednią ilość klatek, żeby Lossless Scaling ładnie zadziałał. 16gb vram powinno w zupełności także wystarczyć. Próbuj. Na RTXach 3090 i 4090 działa jak złoto.
Niestety aplikacja ma problemy z włączeniem na Linux pod Wine (z powodu braków plików wyglądu, czy jakoś tak), ale jeśli uda ci się to włączyć, proszę podziel się jak to zrobiłeś.
Ja też nie wiem jak to dokładnie działa, ale rozumiem jak to może działać. Zasada opiera się na porównaniu dwóch kolejnych klatek i wygenerowanie klatki pośredniej. Normalnie obraz się generuje i wyświetla klatka po klatce. klatka 1- generowanie, wyświetlenie, usunięcie z pamięci klatka 2 - generowanie, wyświetlenie, usunięcie z pamięci klatka 3 - generowanie, wyświetlenie, usunięcie z pamięci itd. W moim rozwiązaniu (a także w tym konkretnym programie) jest przynajmniej jedna klatka opóźnienia: Klatka 1 - generowanie Klatka 2 - generowanie, WYŚWIETLENIE klatki 1, porównanie klatki 2 do klatki 1 i wygenerowanie klatki pośredniej, usunięcie klatki 1 z pamięci, WYŚWIETLENIE klatki pośredniej Klatka 3 - generowanie, WYŚWIETLENIE klatki 2, porównanie klatki 3 do klatki 2 i wygenerowanie klatki pośredniej, usunięcie klatki 2 z pamięci, WYŚWIETLENIE klatki pośredniej itd Jak widać, na każdą klatkę (poza pierwszą) przypada dwukrotnie wyświetlenie klatki, stąd mamy dwukrotną ilość FPSów. O co chodzi z "porónanie klatki x do klatki x-1 i wygenerowanie klatki pośredniej"? Tym już się zajmuje proste "AI", a to dosyć ciężki temat do wytłumaczenia w jednym komentarzu. W skrócie, komputer rysuje to co "uważa" że powinno wystąpić między klatką aktualną i klatką poprzedzającą. Jak malarz który widzi dwa obrazy. Na jednym obrazie piłka jest po lewej, na drugim po prawej - wiadomo że obrazem pośrednim jest obraz z piłką na środku. no i teraz program robi tak około 30, 60, 120 albo ile tam ustawisz razy na sekundę, więc pozostaje kwestia wydajności. No i tak to mniej więcej działa.
1440p Red Dead Redemption 2 wszystkie możliwe suwaki na maxa z 60-70 fps na 90~. Nie widzę, żadnego rozmycia, czy pogorszenia grafy po użyciu programu. Ale to śmiech na sali, że trzeba DLSSów czy kombinowania z jakimiś programami... co za czasy.
Uzywam to w Elden Ringu oraz DS3 i grach na emulatorach gdzie jest lock na 30/60fps. Chcialbym zeby to dzialalo ze SpecialK to bym mogl zmniejszyc input lag do minimum, bo oczywiscie nie sa to klatki za darmo zawsze jest jakis koszt a tutaj mamy input lag i duzo wyzsze uzycie GPU. Scigalki jak WMMT6 czy Ridge Racer 4 czy Burnouty gra sie bardzo fajnie na 120fpsach. To byly gry na pada, gorzej to sie sprawuje w grach ktore uzywa sie myszy do grania tutaj jest kiepsko input lag za bardzo przeszkadza. Wiec polecam pogramik. Moze nastepny film o CompressorX? Tez ciekawe narzedzie ale tym razem do kompresji gier na Steamie, i zrobione przez goscia ktory storzyl genialny Borderless Gaming.
jeżeli masz wysokie temperatury podczas obciążenia GPU na Max znaczy że trzeba coś z tym zrobić. np wymienić pastę wyczyścić chłodzenie całą obudowę ogarnąć i jej cyrkulację 😊
Temperatury mam w miarę rozsądne więc na chwilę obecną nie muszę nic robić . Może inaczej zapytam czy ten program nie ,, podkręca karty,, taktowania lub napięć oraz zużycia energii, wolał bym żeby działał na zasadzie dlss. A ty widzę nie zrozumiałeś pytania więc proszę mi nie dawać porad dla laików jakby wyciągnięte z komputerświat czy dobreprogramy. Chciałbym odpowiedzi od kogoś kto korzystał z tego programu
@@radek6232 ale stary zadałeś pytanie jak laik to ci odpowiedziałem. z całym szacunkiem do twojej osoby ale taki program nie ma możliwości grzebać w parametrach karty. to tak jak słyszałem głupie opinie ludzi że gra im komputer zepsuła xd a mało kto bierze pod uwagę że Sam komputer był nie zadbany.
@@radek6232 dodatkowo ci mogę podpowiedzieć że temperatury GPU to nie wszystko. liczy się jeszcze temperatura sekcji zasilania na płycie głównej jakość zasilacza jak i temperatura sekcji i hotspotu na karcie. temat jest bardziej skomplikowany niż się większości ludzi wydaje ciężko to opisać nawet w jednym komentarzu. pozdrawiam
MSI afternurner ma taką możliwość ,a nie chciał bym żeby to tak działało . Temat dotyczy programu z filmu a nie to grafika mi się przegrzewa , tamta twoja odpowiedź była zupełnie nie na temat
Warto dodać, że bardzo dobrze wygląda to w sytuacji emulacji gier gdzie często silniki gry często działały poprawnie przy maksymalnie 60 fps, więc LSFG umożliwia granie przy naprawde wysokim odświeżaniu co daje takim produkcjom drugie życie. W taki sposób mogłem ograć sobie w całą serię God of War, Killzone 3 czy nawet Elden Ringa w 120 fps. jak na 20 zł uważam, że warto, i to bardzo :D
@@Zgredzio W moim przypadku, szczerze mówiąc, nie. Zarówno na monitorze ultra wide 1440p jak i sporym telewizorze 4K nie widzę jakichś drastycznych różnic. Niekiedy mogą się pojawić delikatne artefakty, ale mi osobiście to nie przeszkadza, bo trzeba się ostro przyglądać, żeby cokolwiek drastyczniejszego zauważyć.
@@Zgredzio Szczerze, jak bedziesz bardzo uważny to można się tego dopatrzeć ale przy normalnej grze raczej nie jest to cos co powinno ci przeszkadzać. Dodam, jak kolega powyżej gram na monitorze 1440p.
Robię wszystko jak na filmie testując program w RDR II nie widzę żadnej zmiany oprócz pojawienia się dziwnej palety kolorów po włączeniu programu. Trochę jakby źle był ustawiony HDR nie da się na to przeć a FPS ten sam. Ma ktoś pomysł?
Być może masz podłączony monitor przez hdmi i nie wyrabia transfer danych obrazu w obecnym nowym ustawieniu odświeżania. Albo kabel jest lekko wygięty na wtyczkach i nie łączy dobrze monitor z kartą graficzną.
Wystarczyłoby, zeby gry byly normalnie optymalizowane, a nie na odpierdziel, to by nie trzeba było uzywac takich rzeczy
Nawet jak sa dobrze optymalizowane to niektore maja durny limit klatek
@@Dregomz02 w praktycznie każdej grze mozna wyłaczyć limit fps jak nie w opcjach to w plikach no chyba ze silnik gry ma ograniczenia
Zgadzam się. Przykład Doom Eternal jest tak zoptymalizowany, że takie rzeczy nie są potrzebne.
Będzie tylko gorzej z optymalizacją. Sa te wszystkie techniki generowania fps to po co męczyć sie z optymalizacją, skoro mozna w ten sposób zmniejszyć koszt produkcji. Zaoszczędzony czas i pieniądze mozna przeznaczyć na umieszczenie dodatkowych skinów do sklepiku w grze singlowej...
@@xflashu8075 ano właśnie, to nie jest jakieś rzadkie aby gra miała mechaniki zależne od fpsów niestety.
Najlepsze dla mnie jest to, że w takim Tekkenie 8, gdzie są zablokowane fps na 60, można podbić je do 120 i gra się naprawde miodnie. Nie widzę żadnych artefaktów które by mi przeszkadzały. Teraz już nie moge patrzeć na T8 w 60 klatkach xD
Ps. Lossless Scaling działa także na filmach, np możemy liptona podbić do 120 klatek :D
Probowalem na emulatorku odpalic Tekkena 6 z tym narzedziem i byla tragedia uzycie gpu tak skakalo do gory ze nie moglem grac w to plynnie i skakaly klatki od 70 do 90fps caly czas. No nic pewnie z lepszym gpu by sie dalo. A Tekken 8 pewnie dziala bez problemu bo to native gra pod windowsa. Polecam wyprobowac tez SpecialK z latent syncem i input delayem na 50-75% gra sie mega we wszystko na padzie i myszy jakby nie bylo wg zadnego input laga ale watpie ze zadziala razem z Losslessem :(
Nie wiem jak Tekken, ale różnica np. w Diablo 4 czy 2 Resurrection widzę zauważalną różnicę między 60 a 120 FPS. A mam monitor 240 Hz. Jak dla mnie minimum to stałe ok.100 FPS.
Nie grasz kompetetywnie to Ci to nie zrobi różnicy. Generator zawsze powoduje większy bądź mniejszy input lag i nawet antilag czy reflex nie zlikwidują całkowicie problemu.
@@Norghulltylko jak ktoś ma monitor 120 hz lub 240 w końcu może go wykorzystać 😊
@@mrbeckham666 było kupić kartę pod 120hz lub 240hz, a nie rzeźbić teraz z generatorami, które dalej mają swoje inne problemy i raczej się to nie zmieni. Mam monitor 165Hz, ale gram głownie w 90FPS. Odbiór jest dalej całkiem inny, a kolejne FPSy nie robią już żadnej większej różnicy, szczególnie wyplute przez generator. W singleplayer żadna różnica, w grach kompetetywnych dobierasz ustawienia tak by było jak najwięcej FPS i unikasz generatorów, które dają laga czy ghosting.
Ja już nie mogę wytrzymać tego zidiocenia na rynku gier. Może należy wymuszać na twórcach optymalizację i dostosowanie ficzerów do sprzętu komputerowego, a nie wiecznie rzeźbić z generatorami i skalerami? Jeszcze bardziej tym rozleniwiacie deweloperów od czegokolwiek i potem may gry na PS5 gdzie 30FPS jest tak niestabilne jak degustator tanich trunków procentowych jak tylko uzbiera dychę na winiacza. Naprawdę, darujmy sobie już te przepychanki który skaler jest lepszy. TEGO MA NIE BYĆ! Nvidia spartoliłą rynek. DLSS miało być wykorzystywane pod RT gdzie wydajność naprawdę dostawała po łbie, ale na ten moment używane do bólu jest to w grach, które nawet nie mają RT czy innych lumenów.
Już były porównania, że gra przeniesiona z UE4 na UE5 bez dodawania bzdur zyskuje zauważalnie na wydajności, ale to trzeba umieć w gamedev, a nie pozostawiać to przypakdowi. DLSS i FSR też działają jak chcą, bo twórcy wrzucają implementację na odwal się, a potem wychodzi, że byle moder robi to lepiej. Te funkcje nie mogą być w ogóle rozważane jako jakikolwiek argument zakupowy. Gra nie trzyma stabilnych 60 FPS na karcie średniej klasy w FHD? Robić refunda i czekać aż będzie naprawione.
Gamedev schodzi na psy przez takie porównania skalerów i takie modlitwy do tych "technologii".
A i co do ilości klatek to ludzie chcą zjeść ciastko i mieć ciastko. Każdy chciałby grać na ultra i to z RT, ale jojczy, bo mu karta daje 30-40FPs. Więc co taki ktoś robi? Wrzuca skaler i generator. Ma dodakowego laga, ghosting i artefakty, ale przynajmniej nakarmił swoje "mieć wszystko na ultra", które w żadnym wypadku nie jest ultra. A wystarczyło kilka detali zmniejszyć o poziom czy dwa i już by było stabilne 60+FPS bez zająknięcia.
7800XT nie jest kartą do 4k. Tu najwyżej 1440p. Implikowanie, że jest inaczej to oszukiwanie siebie i innych. Wystarczy mierzyć siły na zamiary.
Celne słowa, lecz to się nie zmieni. To tak jak w polityce, dopóki większość decyduje dobrze nie będzie
@@Stefan_Batory no ale można by nie tworzyć materiałów, które pokazują jakąś wyższość skalerów, i że są jakoś szczególnie potrzebne. Tworzy to fałszywą potrzebę posiadania czegoś przez człowieka, który nie rozumie do końca czego oczekuje od sprzętu. W ogóle dla mnie to jest jakiś scam czy bardziej hipokryzja niektórych. Jak AMD wydało AMFM, które działa w teorii identycznie jak program za 5$ to pojawiały się śmieszki i uszczypliwości, ale jak wychodzi nowe i pod inna nazwą to już kozak, mimo iż ma te same problemy co AMFM to technologia kozak.
Masz rację, ale co do zmniejszania jakości grafiki to niestety, ale w dzisiejszych grach mało to daje co jest kolejnym dowodem na to jak bardzo są zainteresowani optymalizacją gier XD
Chlop co sie splakal i esej zayebal xddd
@@DEVINZITSAN Bolało ja tyle tekstu trzeba było przeczytać? Roczny limit przekroczony jednym postem?
Warto dodać, że tego programu można używać nie tylko do gier. oglądanie filmów na YT w 180 fps? Proszę bardzo!
Sęk ju za info.
czyli w slo-mo mozna tez jak cos sie podoba zamiast w godz ogladasz 6 z detalami :)
@@adredy pisze się slow motion
@@konrad3579 pisze się thank you
TO DZIAŁA, dzieki, stare filmy nabierają nowego wymiaru 🤭
Narzędzie jest bardzo dobre do Dark Souls 1. Nawet w wersji remaster licznik fps jest ograniczony do 60 klatek, a to narzędzie sprawia, że możemy sobie pograć w 120 bez ingerencji w pliki gry, które są bardzo wrażliwe na zmiany klatek i mogą powodować przyspieszenie gry. Sprawdziłem sam i działa to wyjątkowo dobrze - artefaktów prawie nie widać.
Dzięki temu w końcu mogę ograć Bloodborne na playstation, tak mnie te 30 klatek odrzucały od tej gry przez cały ten czas, że nigdy nawet nie spróbowałem się do tego przyzwyczaić. Teraz wystarczy remote play, lossless i można się cieszyć płynnością. Dla mnie to działa jak zbawienie do gier konsolowych zlokowanych na 30fps. Mega!
możesz mieć lekkie problemy ta gra rest robiona pod 30fps
Czekałam aż ktoś na Polskim yt zrobi materiał o tym x3
A to jest zagraniczny?
@@rudykot5023 Co to za pytanie?
Wow to działa mam od kopa, genialne do gier z zablokowanym licznikiem i bez wbudowanego frame generatora ale nawet starsze materiały na YT w 3x większej iloci klatak to sztos plusy odpalone wyładnianie obrazu w Operze GX i mamy YT 2.0 :D
No! Nareszcie ktoś o tym powiedział, ale zapomniałeś o filmach!
24klatki w filmach można podbić do 48!!❤❤❤🎉🎉
Pięknie wtedy wyglądają stare bajki ;)
Ale to można od 10 lat jak nie lepiej robić za sprawą choćby takiego playera jak PotPlayer.
@@konrad3579 no nie widze takiej opcji wbudowanej w potplayerze....
@@UnclePockets
F5 (opcje), i w drzewku:
+ Wideo
+ Przetwarzanie obrazu
i tam ptaszkiem na górze: podwajanie liczby klatek (tworzenie klatek pośrednich).
Warto do tego utworzyć skrót. Różnica jest kolosalna, zwłaszcza na monitorach niesmużących gamingowych.
@@konrad3579 hmm zastanawia mnie dlaczego ta opcja w oryginale nazywa sie "motion blur" czyli po prostu zwykle rozmycie ruchu... ale przetestuje, sprawdze, dzieki.
@@UnclePockets
W grach ta opcja wprowadza rozmycie, bez poprawy płynności, a jedynie tuszując ów brak. W Potplayer z dwóch klatek tworzona jest jedna i oczywiście jakieś tam rozmycie ma miejsce, nie każdy nawet to zauważy. Płynność realnie się podwaja.
Przydałoby się coś takiego do ETS 2 VR. Ta gra na goglach wymaga mocnego cięcia ustawień nawet na 4070 Ti.
To już wina samego opensdk(openvr) z którego korzysta ets2, karta musi renderować po 2x obraz w 4k dla każdego oka oddzielnie ( w zależności od użytych gogli vr ), przy użyciu steamowego, bądź oculusowego oprogramowania vr ( jeżeli używasz gogli od mety ) te sdk zawierają opcję którą mogą zaimplementować dev'y do swojej gry, która powoduje że karta renderuje tylko jeden obraz, a to sdk zajmuje się tym zeby było dobrze widać w obu oczach.
Cześć Piotrek może by tak sprawdzić ponownie po aktualizacjach jak to działa. Jest primka na steamie na Looses scaling. pozdro
nie ma to jak mieć rtx 3080 fe i używać jakiś dupereli aby grać płynnie w cyberpunk na ultra rt w 1440p
No w sumie to nie jest już taki mocarz więc skąd zdziwienie
@@fendt126 wydaje mi sie że tu winowajcą jest optymalizacja która leży odkąd powstało dlss i generowanie klatek bo wystarczy 1 mod aby odpalić nawet path tracing w 50/60 fps na tej karcie a z zwykłym rt 80
120 fps w 4k ultra na gtx 1080ti z ta aplikacja mam, i nawet nie ma zadnych artefaktow, z pasami tez nie
@@llllllllllllllllllllllllll4313 powiesz jak ustawiles ?
@@KacperKoter 30fps limit i 4x framegen
Supef poradnik
Jak dla mnie kolejnym "przełomem" w wersji 2.12 LSFG jest fakt że dodali skale rozdzielczości generacji klatek. Skala do 60% i FrameGen wraz z grą odrazu zyskuje na stabilności co daje lepszy fps. Mi wystarczy 60% , innym wiecej lub mniej zalezy od preferencji i sprzetu. Jak twórcy to robią nie wiem , ale program po aktualizacji coraz bardziej zaczyna mi sie podobać.
6:07 jaka synchronizacja ruchu rąk z ekranem z tyłu 😲
:)
Że chłop to wyczaił
@@rudykot5023 no nie xD?
Jestem tytaj bo slyszalem ze to moze pomoc, poniewaz moj komputer jakos nie spelnia giga wymagan na nowego farminga bo to tylko i5 6600k + gtx 1070 i chcialem sie zapytac czy ten program bedzie wmiare miec sens na te podzespoly czy dopiero na nowsze
ps. dzieki za film
Mam ten sam problem
Dzięki za ten filmik, bo dzięki temu w końcu mogę normalnie grać, ponieważ po zakupie monitora z 165hz odświeżaniem i granie w fps, nie byłem wstanie się przyzwyczaić do grania w gry poniżej 120 fps, byłem mega sfrustrowany tym, bo rok temu składałem nowego kompa (oczywiście z twoich polecanych części) komputer sprawdza się super, tylko nie we wszystkich grach osiąga te 120 klatek, a do 60 klatek niestety nie da się już przyzwyczaić wzroku, więc jeszcze raz wielkie. dzięki za ten filmik. Robisz świetną robotę, trzeba będzie się zastanowić na wsparciem tego kanału, bo ewidentnie zasługujesz.
duzo ci pomogła ta apka?
Chwila. Czyli LS jest na rynku tak samo długo jak pierwsze karty RTX jak nie dłużej i programowo daje te same efekty? Czyje się oszukany. I nagle ten wielki "Hype" na DLSSsy który ciągnie się od lat wydał mi się irracjonalny.
Monopolista dyma klientów jak zawsze. Dobrze ze jest jeszcze AMD z porównywalnym FSR.
Nie ta liga całkowicie, DLSS daje o wiele mniej zapixelowany obraz, w porównaniu do LSS. Nie mówiąc już o opóźnieniach.
@@pokemon1666 Sprawdziłem już. TAK
@@pokemon1666 Wersja 3.0 i 3.1 FSR jest porównywalna. Nawet jak wychodzi gorzej, to rozbijamy sie o szczegóły.
Przynajmniej generator klatek moge odpalić na np starym RX 480
Nie te same bo nie zawiera informacji o wektorze ruchu.
Dzięki za ten film. Od razu kupiłem i zastosowałem do Snowrunnera.
jeżeli masz możliwość to napisz co wyklikales zeby spoko chodziło bo totalnie tego nie ogarniam
@@WelonEU w SR, najpierw ustawić grę (w menu grafiki) żeby była "bez ramek", wyłączyć grę, ustawić w sterowniku, w rivatunerze, albo samej grze, ograniczenie klatek na połowie możliwości monitora albo ciut mniej (w moim przypadku 144Hz) więc ustawiłem sobie 71. Jeśli w grze, to będzie tylko 60. Uruchomić Lossles scaling. Na początek, z lewej strony dać nowy profil gier (jakoś tam go nazwać) żeby za każdym włączeniem nie ustawiać na nowo, następnie w kolumnie: Tryb skalowania: Auto i proporcje obrazu, typ skalowania LS1 (wydajność OFF). Generacja klatek (na początek) zmienić na LSFG 1.1, jechać paskiem na dół aż do opcji Synchronizacja wył. (przecież po to blokujemy klatki), Pokazuj kl/s - ON, zjechać jeszcze niżej i w API przechwytywania zmienić na DXGI. Zostawić włączony Lossles i uruchomić Snowrunnera. Jak się SR uruchomi do menu, zrzucić go na belkę, przejść do Losless i włączyć przycisk "Skaluj" w prawym górnym rogu i w ciągu 5 sek. od włączenia powrócić do Snowrunnera (u mnie kombinacja klawiszy nie działa). Po 5ciu sek. ekran mignie i w lewym górnym rogu pojawi się licznik klatek. Wczytać save i grać. Jeśli będzie obraz zbyt rozmyty - w opcji wyostrzanie dać pasek na 1. Gdyby było za mało klatek (np blokada ustawiona na 71 a wyświetla przykładowo 51/102 i karta wyje) to napisać :) Jest też tryb x3 (choć ja polecam jego użycie w ostateczności)
Zauwazyłem ze totalne wyłaczenie rozmycia w grach bardzo pomaga w jakosci obrazu np w wiedzminie 3
Ja zawsze wyłączam rozmycie bo nie mogę na to patrzeć
Ktoś jest w stanie grać z rozmyciem xD? Przecież to gorzej wygląda niż bez.
Ja również zawsze wyłączam rozmycie, albo jakiś efekt ziarna czy inny zwany filmowym...
@@ziomekzedzielni1 w niektórych grach jest opcja stopniowania rozmycia takie ustawienie czasami pomaga gdy np krawedzie są postrzepione bardziej zalezy od gry
W Cyberpunku akurat fajnie to się implementuje jak nie mamy dużo klatek, przy szybkich ruchach myszka daje efekt płynności, a nie klatkowania, polecam sprawdzić
4:01 załapałem się na recenzję :D
wow serio :D Gratulacje, cóż za niska szansa aby tak się stało 😂
mam jedno pytanie ,bo w tym momencie 6:33 powiedziałeś ,że należy dostosować limit klatek do częstotliwości monitora: 1/2 1/3 1/4 ale nie mamy opcji mnożnika klatek x4 tylko x2 i x3
Bo chodzi o inną liczbę w innym programie. Co można też zrobić w sterownikach karty gtraficznej, niemniej jednak Riva Tuner + RTSS (jedna instalacja) jest jednym z najbardziej powszechnych programów do monioringu GPU w grach. Wraz z RivaTuner instaluje się RTSS (z opcją frame limit i tu jest ta opcja). W RTSS możesz zablokować maksymalną ilość klatek wyświetlaną przez grę. I tak, gdy gra działa w 62 FPS (np Skyrim) a masz monitor 120 FPS, to trzeba w nim ograniczyć FPS do 60, a w Lossless Scaling dać x2, dzięki czemu masz 2*60=120 FPS. A jeśli masz monitor 180 Hz, to x3 (60x3=180).
W skrócie, musisz chwilkę się zastanowić do ilu FPS musisz grę ograniczyć w RTSS tak by wykorzystać możliwości swojego monitora.
Ja mam monitor 280HZ, załóżmy że włączam grę i karta niedomaga, mam zaledwie 43 FPS. Tak więc ograniczam FPS do 40, co daje mi 80 FPS, czyli całkiem ładnie, acz mogę się pokusić o mnożnik x3, co da mi 120 FPS. Jeśli jednak gra chodzi mi w 150 FPS a chcę wycisnąć max, to muszę ograniczyć w RTSS do połowy odświeżania monitora, czyli 140 FPS (mnij niż chodzi gra), bo to da mi przy mnośniku X2 moje maksymalne 280 FPS.
Po kilku razach w ogóle nie będziesz się zastanawiać co musisz, będziesz to robić automatycznie.
@@konrad3579 dzięki za ten kom. Wytłumaczyłeś to perfekcyjnie!💪🏼
Ja nie wiem jak to jest, że niektóre nowe gry wyglądają dużo gorzej niż (niektóre) stare, a mimo to maja 2x albo 3x wyższe wymagania?? Czy my się cofamy w rozwoju, czy już nikogo nie obchodzi dobra optymalizacja?? Twórcy ciągle trąbią, że trzeba podnosić ceny gier, bo rosną koszty ich produkcji. Ale to samo mówili, gdy podniesiono standardowa cenę z 250 zł na 350zł za grę. Miało to niby zapewnić lepszą jakość produktu.. to ja się pytam, gdzie jest ta lepsza jakość?? Dzisiaj wychodzą gry za 350 zł, które trzeba potem naprawiać następne pół roku.. ehh, w złym kierunku idzie branża gier.
Do tego, jeszcze zaporowe ceny samego sprzęty, jak tak dalej pójdzie, granie w nowe gry będzie przeznaczone tylko dla najbogatszych.
Ale może przesadzam... może to tylko ja i moje czarno-widzenie.
Od kiedy standardowa cena gier to 350zł? O.o dajesz się komuś w balona robić xD
@@marcinchreptowicz6843 A ile na premiere kosztowały takie gry jak: Diablo IV, Starfield, CoD Modern Warfare 3 Remaster, Alan Wake 2 czy Horizin Forbidden West?? Od 300 do 350 zeta.
@@gureedoteam5632 wspomniałeś same okropne gry, może poza horizonem, tworzone przez ogromne korporacje które trafiają do casualów, a nie do kogoś kto ogląda takie filmiki na yt (:
Oni nie zwracają na to uwagi
inna architektura etc :)
@@tetrizsd Jak inna architektura daje takie same efekty jak stara, albo nawet czasem gorsze (optymalizacja), to jaki jest sens zmiany architektury?
Ciekawy jestem, czy to zadziała w tym przypadku (tytuł zamiast linku) "Jak Duże Jest Mega Miasto? Manor Lords 2024. Sprawdź to! (Przewodnik po zasobach) 🏰"
Ja uzyskuje 2-10 FPS na swoim PC a w GeForce NOW - Ultimate max 12 FPS.
Ale te wyniki miałem dla 6800 mieszkańców Manor Lords.
Teraz mam 9000 i spadek do 2 FPS 🙄
Dla ilu? 🫠 kurczę blade, właśnie skończyłem grać i cieszyłem się że w końcu dobiłem do 300.
@@TechLipton haha no tak jak ja na początku się cieszyłem z 200 potem z 500, a potem zobaczyłem shorta że max to 1000 - no i musiałem to sprawdzić. Okazuje się że ograniczeniem jest tylko cierpliwość i dalej poszło z górki 😎
@@VeGPlay ciekawe, muszę wypróbować. Pewnie dojdę do takich liczb dopiero w pełnej wersji.
@@TechLipton Podobno pełna wersja będzie już na bardziej wydajnym silniku w najnowszej wersji, więc jest szansa dla takich jak ja - budowniczych 😁że będzie więcej przyjemności z budowania w więcej niż 2 FPS.
Hej, to mój pierwszy film który u Ciebie widzę. Nie mam pojęcia czy już jesteś zaznajomiony z wykorzystywaniem technologii NVIDIA - ICAT?
Pozwala na lepsze porównywanie fpsów idealnie sprawując się do tego typu filmów. Można odtwarzać do kilku nagrań na raz co pozwoli Ci nawet na stworzenie jeszcze lepszego zestawienia
O ile nie jest Ci znany to polecam się z nim zapoznać pozdrówki
(Broń boże to żadna reklama XD)
A jak wygląda to pod względem poboru energii, jeśli chodzi o handheldy? Czy wzrasta pobór mocy z baterii?
A jak z tym wszystkim ma się korzystanie z G-syncu/free syncu? Kompletnie go wtedy wyłączamy?
Nie zauważyłem różnicy bez i z.
Hej dzięki za film, bardzo przydatne informacje o Lossless Scaling. Z tą blokadą fps na 60 klatek naszedł mnie taki pomysł na film w związku z zwiększeniem kosztów prądu w Polsce od lipca. Czy mógłbyś zrobić jakiś test kart na zablokowanych fps , warianty poboru prądu natywna rozdziałka, z dlss /fsr , z opcją frame gen. oraz tańsze karty chodzące na 80% po zablokowaniu klatek i droższe modele z większym tdp ale na 50% obciążenia, karty po optymalizacji undervoltingiem i bez, co jest bardziej opłacalne dla zmniejszenia poboru prądu. Uważam, że byłby to ciekawy i przydatny test, pozdrawiam.
Super pomysł
Przyklad cs 2 w 1440p: 3070 przed uv 240w po uv 130-140w. Przy 60hz 70-80w.
Spoko materiał
Spoko komentarz
Czy np zablokowanie gry na 100 klatkach pomoże pozbyć się takich artefaktów na monitorze 144hz? Mówię oczywiście o trochę starszych grach w których mój komputer jest w stanie sobie poradzić
Wypas na starych kartach , na najnowszych w 4K też się sprawdza , na zablokowanych FPSach w grach też daje rade, generalnie mega aplikacja.
Od kilku lat stosuje, ale nadal nie ma ogranieczenia max fps czyba, że się ustawi synchonizację. Temat powinien być wrzucony kilka lat temu.
ja mam jakiś problem ze mi to nic nie daje totalnie na rx 5700xt w elden ringu najnizsze ustawienia mi tnie gry nawet z lossless scaling ;/
Dopytam po swojemu - czy na laptopie z monitorem 60Hz i gtx950m które w Valheimie w full hd na niskich działa w okolo 30 klatkach ze spadkami do 20 zastosowanie tego programu i zablokowaniu na 30 klatek poprawi mi jakoś zauważalnie jakość rozgrywki?
Zmień tego zloma
@@Primee257 nie. On jeszcze na twoim grobie zatańczy
@@GenerallFluffy biedaku mecz sie dalej tam w 20 fpskach XD
Zawsze można odpalić grę w HD, skalować do Full HD, a potem na zablokowanych 30 klatkach włączyć LSFG x2 w trybie Performance (wszystko wykonywalne w Lossless Scaling i panelu NVIDIA). Trzeba tylko pamiętać o pamięci karty graficznej (VRAM) żeby zostało miejsca na LS (ok. 0.5 GB).
@@kamilbarda1566 a upscalować mogę w jakimś innym programie?
Będzie trzeba spróbować
Ogólnie sam program jest przydatny np: w emulacji lub tytułach dla których input lag nie ma znaczenia. Wiadomo są wady i zalety z plusów jednak "większy"frame-rate (co ratuję posiadaczy starszych PC), upsacle tytułów które nie posiadają implementacji DLSS, FSR lub XeSS, można zbić temperatury i zużycie prądu PC po przez lock na mniejszą ilość FPS np: mając ekran 144hz grę blokujemy na 48FPS i można dać opcję X3 tak samo przy X2 wtedy należy zablokować grę na 77FPS. Z minusów to input lag co w tytułach kompetytywnych np: CS GO,Valorant etc co niestety odrzuca możliwość korzystania z tego typu rozwiązania w takich grach. Do tego artefakty graficzne częściej występują przy X3 ze względu na większą ilość generowanych klatek przez program. Jeszcze pro tip dla niektórych są mody na FSR 3 z frame gen które działają i wyglądają lepiej niż LS co dobitnie pokazuje że NVIDIA i jej śmieszy DLSS frame gen to skok na kasę ponieważ FSR 3 działa praktycznie na wszystkich starszych kartach a nie jak NVIDIA tylko na serii 4000. Do tego właściciele Radeonów mogą korzystać z AMD fluid motion frames.
A jak ktoś ma Monitor 75 Hz, to na ile blokować? 25 FPS ?
@@kosmaty71Zależy ile FPS ci wyciąga PC 30FPS jeśli masz 1080p a dla 2k 40FPS poniżej 30 klatek nie ma to sensu.
Czy to bajka, czy ściema? Dobre;-)
Sam używam go od wielu godzin w starych grach, emulatorach gier z konsol i przede wszystkim podczas oglądania filmów lub UA-cam
"Czy to bajka czy ściema?" - to ci się udało :) To jak powiedzieć. Czy to kartofel czy ziemniak? 😁
Oj tam, oj tam 😋 bajka w znaczeniu: coś pięknego.
Po odblokowaniu 60 fps to rzeczywiście działa. Dla mnie 75 to minimum (wiadomo więcej = lepiej), ale bez przesady - nie widzę już znaczącej poprawy powyżej 90.
A monitor ile hz masz?
3x wiecej FPS za 20zl (ale z artefaktami), lub 2x wiecej klatek za darmo (ale bez artefaktow). Wystarczy poszukac pewnego (i to legalnego) moda na nexusie: DLSS Enabler (filmy są też na YT)
co masz na mysli
@@ADONISx3 Poszukaj na YT moda o nazwie "DLSS Enabler"
@@ADONISx3 Poszukaj ba YT moda o nazwie "DLSS Enabler".
Swoją drogą, można go używać w parze z rozwiązaniem z tego filmu, co teoretycznie zwiększa FPS o 600% (o ile nie stopi Ci się wcześniej CPU albo GPU).
Przecież FSR3 ma obrzydliwe artefakty, nie wiem jak tutaj bo nie używałem ale jednak widać po nagraniu że też są.
@@nerfbronzecrank7966 Wszystko zależy od gry. Np w CP 2077 po instalacji anti-ghost moda grafika wygląda jak na prawdziwym DLSS FG.
Inne gry jak Hogwarts Legacy lub Ghost of Tsushima też wyglądają dobrze, warto obejrzeć filmy z testami tego rozwiązania.
Dodatkowo, jeśli ktoś woli, może włączyć w modzie tryb dynamicznego generowania klatek (który włącza FSR3 lub DLSSG tylko, gdy FPS spadnie poniżej podanej przez użytkownika granicy)
Gram na konsoli oprócz strategii. Mam pytanie . Jak uruchomić grę w oknie Rome TW Remastered , tam tego w opcjach nie ma i w opcjach systemu windowsa też tego nie mam. Chodzi o to : "Wybierz przycisk Start, a następnie wybierz pozycję Ustawienia ,wybierz pozycję System > Wyświetlanie grafiki > > Zmień domyślne ustawienia grafiki. Wybierz ustawienie w obszarze Optymalizacje gier w oknach , aby je włączyć. Uruchom ponownie grę" Po ustawieniach grafiki nie mam opcji wyświetlenia gry w oknie. Nie mogę sprawdzić czy ten program LS działa. P.S. Sprawdziłem różne ustawienia na w Rome 2 TW , w końcu gra sprzed 11 lat - niestety , gorzej działa z tym programem niż bez niego.
Przykre, że samo odpalenie Steama itp. aplikacji potrzebnych do odpalenia gry zabiera nam +/- 10-15% wydajności w grach. A piraci nie dość mają za darmo to jeszcze lepiej im gry chodzą XD Warto pogrzebać w procesach działających w tle przed odpalaniem gry. Trzeba zrobić tak żeby był wyłączony nawet explorer.exe czyli pulpit z ikonami. Ja wyłączając dosłownie wszystko co się dało zyskałem naprawdę zauważalne przyrosty w grach. Sposób sprawdzał się zarówno na starym lapku jak i obecnym kompie z RTX 4080. Badziewia systemowego po zainstalowaniu Windowsa jest w cholerę, większość z tego jest nigdy przez nas nie używana nawet. Warto zainteresować się tematem bo mowa jest nie o byle tam paru klatkach tylko parunastu albo nawet parudziesięciu wzwyż zależy jak bardzo mamy zawalony PC niepotrzebnym syfem a uwierzcie mi każdy komp jest zawalony nawet ten świeżo po przeinstalowaniu i po złożeniu z nowych części.
Ale cię odkleiło... 10-15% to tylko w twoim 20-letnim kompie/lapku lub "rtx" "4080" z chin, z wisha z 1GB RAMu i 20-letnim dyskiem HDD...
Naprawdę trzeba by się bardzo postarać, by aż tak zasyfić kompa...
Nie wiem, z jakiego plastiku jest wykonany chip w Twoim RTX 4080, ale ja na moim 6700xt mogę usunąć 90% procesów a gry oparte na GPU zyskają max 1-2% fps
Kupujecie nowe karty do starych procesorów i dziwota jaki masz procesor?
ja chyba nie kumam... 7.53 minuta filmu odświeżanie monitora 144hz i 75 klatek vs czary mary i 120hz i 60 klatek i to niby jest lepiej ? czyli podepnę monitor 60hz i zablokuje klatki na 30 i będzie najlepiej ?
Witam. a co z kartami typu GTx 960, czy to w ogóle zadziała czy nie?
Powinno działać na każdej karcie, która obsługuje DirectX 11.
Działa u mnie na gtx960 2gb i 8gb ram i5 choć to najlepiej na starszych grach. RDR2 artefakty, Forza Horizon 4 smużenie, e-football 2024 tragedia, AC Valhalla dopiero nieco płynności. W sumie nie tego się spodziewałem, nie na mojego kartofla. Dużo lepsze efekty daje Low Specs Experience który jest za podobną cenę i naprawdę robi robotę
Najważniejsze żeby się nie poddawać i grać nawet jak dziadkami i babciami będziemy hrhr
Ciekawi mnie jaka będzie różnica na laptopie z I5 1235u z iGPU, sprawdzę ;)
czysto teoretycznie bo ja aktualnie problemu z fps'ami nie mam ale czy można włączyć FG NVIDII i do tego LSFG 2.1? jak tak to jak by to wpłynęło na FPS'y? wszystko by ogłupiało czy mieli byśmy jeszcze więcej fps'ów?
Próbowałem jakieś kilka miesięcy temu na rtx 4070 super i generalnie te połączenie albo nie działało, albo działało słabo.
@@gabrielf374 domyślałem się w sumie tego. jak można wsadzić sztuczną klatkę pomiędzy sztuczną klatkę tak aby to się nie popsuło. No ale cóż i tak ciekawa technologia.
Zobaczę czy na laptopie który ma 5 lat już coś uciagnie bo narazie to muszę grać przez chmurkę w gry na nim
Ja mam lapka 4 lata i po 130fps w ov2 na high ustawieniach więc pewnie próbujesz grać na jakimś notebooku
@@krokodyllezy nie znam się na tym ale ten laptop czy notebook jest tak powolny ze szkoda gadać system odpala się jakieś 10 minut przeglądarka 2 minuty i jedyne na co mogę liczyć że jest wydajne to granie w chmurze bo mam światłowód starsze gry jedynie chodzą lub jakieś serio z małymi wymaganiami tak to GeForce now lub na subskrypcji Xbox ultimate w chmurze mogę sobie pozwolić ci którzy mają lepsze laptopy czy notebooki to serio zazdro bo wkurza mega te powolne włączanie się wszystkiego
@@MarleyGro hmm a jakie masz specs?
@@krokodyllezy chodzi ci o wymagania sprzętowe?
Pytanko, gram w ets 2 bez modów gra mi chodzi na 50 fps'ach ale jak instaluje mody to mam spadki, czy ten program pomoże?
na co instalujesz te mody? Mapy? Ruch uliczny SI? Grafika?
Ten program możan kupić tylko n tamtej pokazanej platformie? Czy można inczej. Ciekawi mnie czy ten program wymaga dodatkowej platformy, która sama w sobie obciąża system.
Na piratach jest, ale wtedy nie wspieras, twórców
A dziala to na laptopach, mam integre i celeron, chcialbym zagrac w mc, mam wszystko podkręcone na maxa+hone+sodium a osiągam około 60fps, jezeli to bym kupił to miałbym 3x fps czyli około 180?
Tak ale generacja klatek powoduje input lag więc jesli nie chcesz grac jak uposledzona osoba z zanikiem miesni to nie kozystaj z tego xd
Czy to działa na Linuxie przez Proton'a? I jak przeliczyć ile najmniej FPSów powinno być przy monitorze 165Hz? Jeśli brać podany przykład 36 dla 144 to wychodzi 1 klatka na 4 Hz. Hmm.. Jeśli na logikę powinna być równa wartość to dzieląc 165/5, otrzymam 33 FPS jaką najniższą optymalną wartość.
A co z grami fps? np lepiej bym miał w takim The Finals takie moje własne 57/60fps czy lepiej zablokować na 30 i wziaść program?
Mówił wyraźnie że w grach esport nie sprawdzi się to z uwagi na duży input lag ;)
@@cyberlolek Jeżeli nie da się mieć przejżystej interakcji w grach fps przez input lag to według mnie technologia generowania klatek nie jest warta uzywania w zadnej grze
mam pytanie czy to dziala tylko na nowszych kartach graficznych czy na gtx 1050ti tez zadziala ?
Teoretycznie wsparcie zaczyna się od 1060.
Da sie wyłączyć rozymycie obrazu?
Ciekawe jak to będzie działać na steam decku :D
Nie będzie - nie działa.
@@marcindewicki2137 działa są nawet poradniki na yt jak to zrobić
Czy apka również będzie odpowiednio działać przy zablokowaniu na 90hz przy monitorze 120hz aby zmniejszyć opóźnienia? Wtedy generowana klatka będzie co 4 co zmniejszy artefakty ?
Przy zablokowaniu FPS ów na 90, generator wygeneruje albo 2x albo 3x więcej klatek (o ile moc karty na to pozwoli), czyli odpowiednio 180 lub 270 - przy 120Hz monitorze, efekt będzie odwrotny do zamierzonego i będzie skutkował rwaniem obrazu (Gsync, Freesync i VRR nie działają).
@@MarcinGustaw dlatego trzeba włączyć vsync, aby nie generował w nadmiarze a w grze zablokować na 90 fps
Potrzebujemy jakiegoś oprogramowania na zmniejszenie zużycia vramu w kartach graficznych...
Wystarczy nie kupować NVIDII, a problem sam zniknie.
Śmieszne jest teraz to, że ludzie kupują NVIDIĘ i narzekają na brak VRAM. XD
@@mateusz1703 Nvidia specjalnie stworzyla nowe algorytmy kompresji bo sa chciwi i nie chcieli dodac wiecej fizycznego Vramu do gpu
Upscaler
@@MrBalrogos śmieszne zmniejszenie zużycia o kilkaset mb:)
@@mateusz1703 to prawda. Jednak nie wszyscy chcą wymieniać swoje starsze karty graficzne.
dziala to na zintergrowanej karcie od amd atlhon 3050u?
To tylko dla tych co maja komputer jak widze za minimum 5k - czyli to zwyczajnie kopiuje co 2 klatke przesuwajac ja o kilka pikseli ? to tak jak w tv od 20 lat jak nie wiecej chodzi o cos chyba podobnego "proste podwajanie klatek zastąpione jest dodawaniem obrazów pośrednich, tworzonych przez algorytmy interpolacyjne lub czarnych klatek, aby zwiększyć ich liczbę. W rezultacie krótszy czas wyświetlania obrazu, zapewnia większą płynność ruchu. "
Jak ktoś ma komputer za 5k i potrzebuje generowania klatek to albo przepłacił, albo ktoś spierdolił optymalizację
Problem w tym, że ja już nawet nie mam ochoty bawić się ustawieniami, a co dopiero takimi programami. Grę powinno się uruchomić, a ona sama powinna ustawić najlepsze możliwe ustawienia do obecnej konfiguracji, i powinno to działać bez problemów. Niestety, nic się w tym kierunku nie zmieniło...
W takim razie kup sobie konsolę. Tam masz gotowe predefiniowane ustawienia, będziesz szczęśliwy.
@@stark_2991 za słaba grafika
A nie można z poziomu panelu ustawien nvidi zablokowac ilość klatek na sztywno?
Bez konieczności instalwoania dodatkowych programów do blkowania klatek?
Ta opcja jest już od dawna dostępna w sterowniku.
Można, działa bez problemu
Można lecz blokada z RTSS jest bardziej stabilna i lepsza - testowałem to rozwiązanie i frametime jest najbardziej stabilny po nałożeniu blokady za pomocą RTSS niż sterownikiem nVidii ;)
Można, ale po co? RTSS jest dobre, sprawne, przetestowane, działa od lat, instalacja trwa kilka sekund, program zajmuje kilka MB, limitowanie klatek to kwestia dosłownie 3 sekund i możesz w ten sposób zablokować WSZYSTKIE programy, a nie tylko jeden konkretny.
Instalujesz raz i masz cały czas.
Robię animacje w blenderze , do tego zadziała ? proszę o pilną odpowiedź
Mam pytanie lub raczej prośbę, nagrałbyś jak najlepiej zamontować, dobrać płytę dla dwóch kart 4080 nvidia wersja Founders Edition, w sumie 4090 to ten sam problem, coraz więcej ludzi montuje dwie karty, nie do grania ale ML, Ai etc, i jest to wyzwanie, sam się z tym zmagam bo mam już fajną kartę RTX 4080 Super Founders Edition + Płyta główna ASUS ProArt Z790 Creator WiFi ale teraz obudowa aby pomieścić dwie karty? hmm, nie mogą być jedna. nad drugą bo lekko za ciepło. Jedna w slot druga vertical ? Jaka obudowę dobrać. Tutaj wśród znajomych z branży IT i ML, AI to duże wyzwanie, wiele osób nie ma wcale obudowy bo wtedy można karty dowolnie :) ale to tez nie jest fajne wg. mnie. Może coś @TechLipton pomożesz, doradzisz.
Właśnie po to Nvidia tworzy karty Quadro które dzięki NVlink mogą "łączyć" pamięć ram (też do AI i ML).
Nvidia już kompletnie porzuciła multi GPU na konsumenckich kartach żeby kosić na wersjach profesjonalnych więc próba łączenia nie ma większego sensu.
@@Zmyszen coś mi to nie pasuje, bo pod mechanizmy Ml i AI używasz wszystkich kart, nawet karty pro możesz łączyć i się łączy, w grach zgadza się to nic nie daje ale do renderowania, do ML i AI już tak.
działa to w grach z anti cheat jak np war thunder?
to "nakładka", więc nie ingeruje w pliki gry co za tym idzie nie ingeruje w anti cheat'a. Tak jakby na monitor ktoś nałożył ci warstwę, która zwiększa klatkarz. Pod spodem działa nadal ta sama gra bez jakiejkolwiek ingerencji zewnętrznej
Super. Cieszę się, że w końcu ktoś zajął się tego typu tematem tak szczegółowo. Dziś pobawię się LS przy Dead Space 2023. Może uda Mi się w końcu odciążyć ciut procesor i zminimalizować chociaż trochę randomowy stuttering.
Całe szczęście wyrosłem za tą chorą ciągła pogonią za fpsami... Rynek sprzętu komputerowego oraz gier obecnie to jest jedna wielka porażka.
Przesiadłem się na konsole i mam święty spokój.
No dobra ale czy np w przypadku takiego Eldenringa który uważą takie programy za cheaty będzie to działać ?
dostaniesz bana policja przyjedzie ci pod dom
Jak to dziala ? Bo moja karta juz jest ma skraju wytrzymalosci w farmingu 22. 40 fps mam , ta aplikacja nie obciazy mi jeszcze pc
Muszę przyznać, że program dał mi wielką różnicę w The Last Of Us Part II bez programu gra działała w 60 fps, ale miała wielkie spadki do nawet 45 po uruchomieniu programu i wyskalowaniu ustawień dało się grać na 30 fps, które wyglądały jak płynne 60 fps, ale są i mankamenty artefakty, których, choć bym się starał nie oglądać widać je gołym ale oczywiście można je olać ale myślę, że mogę z czystym sumieniem polecić aplikacje
Jak się ogląda materiał w 360p to nie widać różnicy. I po co przepłacać? 😅
Czy można połączyć FG od nvidii z generatorem z tego filmu? @TechLipton?
Można, pytanie brzmi - po co? FG od nvidii jest bardziej wydajne niż LSFG - połączenie ich nie da jeszcze lepszego efektu - to bardziej pomocne dla starszych grafik niż tych najnowszych
uzywam od bardzo dawna do oglądania filmów (tak mozna używać na przeglądarkach i filmy 24klatki podciągnąć na 72 w trybie x3)
Komentarze są podzielone.
Część najeżdża na Nvidię że dali się nabrać na karty 30xx i 40xx
Druga część cieszy się że zyskają fpsy
Ostatnia część to boomerzy typowi "za moich czasów wszystkie gry działały"
Niezłe jajca
Czy Lossless będzie działać z kartą RTX 3080?
Będzie działac z każdą współczesną kartą.
Dobra w grach e-sportowych FG i lossless scaling odpada a taki standardowy DLSS to też lipa?
Jeśli nie używasz FG, to DLSS może być używane. Ale nie wiem czy niektóre gry online mogą działać z Lossless Scaling (teoretycznie przechwytuje obraz jak OBS). Niektóre systemy AntyCheat mogą wykryć programy jako zakazane i nałożyć BANa konta gracza!
@@kamilbarda1566 Z tego co pamiętam to Call of Duty: Black Ops - Cold War mogłem włączyć DLSS z poziomu gry i żadnego bana nie było. Dziwne byłoby gdyby włączenie opcji w grze powodowałby ban. Pytanie tylko czy warto?
@Sebastianino Chodziło mi oto że Lossless Scaling to dodatkowa nakładka NA GRĘ która działa na podstawie obrazu, czyli to dodatkowy program który działa w tle (niektóre programy AntyCheat oparte kelnerem systemu mogą odczytać to jako złamanie zasad fair-play). Jeśli masz starszy komputer to warto bo można przełożyć upgrade na później. Kiedy masz nowy komputer to można dużo zaoszczędzić prądu (moje stanowisko z dwoma monitorami pobiera mniej niż 200 watów w grach 120fps)!!! Cały program działa na karcie graficznej, czyli można odciążyć procesor.
Na przykładzie podanego tu CODa, kiedyś używałem jakiegoś chińskiego programu z githuba żeby mieć FSR w pierwszym Warzone i działało bez problemu, ale wtedy nie było jeszcze Ricochet Antycheat więc ręki uciąć sobie nie dam. I tak jak kolega wspomniał, co innego jest użyć technologii zaimplementowanej w grze a użyć zewnętrznego programu którego gra może nierozpoznać. A i odpowiadając na pytanie - DLSS akurat jest spoko i nie dokłada opóźnień.
A nie masz czegoś takiego, że podczas używania Lossless'a masz takie rozmyte krawędzie wokół kół, kabiny, komina?
w moim wypadku (cp77) dzialalo tragicznie, artefakty i lipa, chyba ze cos zle poustawialem… ale testowalem rozne opcje😢
Jakbyś opisał twoją konfiguracje to może pomożemy
@@Jakub28i dziekuje w srode wjechala 4090🥹🥳😎😁🤤🤪
cp to skrot od dziecicej pornografii, pisze się cyberpunk
@@hunteractually3637 nie ogladaj jej!
@@hunteractually3637 dlaczego taka ogladasz?
No super, tera moge odpalic gre w 320p w 30 fps i upscaling robic do 1080 p i 60 fps ;D
Future is now.
Odświeżanie 165hz x2 to zablokować klatki na 82 czy 83?
Na 82,5 😉.
Czy ten program zapewni płynniejszą rozgrywkę w Wiedźmina 3 na 4K TV i karcie rx6900xt?
Oczywiście. FSR jakość powinien tej karcie zapewnić odpowiednią ilość klatek, żeby Lossless Scaling ładnie zadziałał. 16gb vram powinno w zupełności także wystarczyć. Próbuj. Na RTXach 3090 i 4090 działa jak złoto.
Trzeba to będzie sprawdzić na Steamdecku.
Niestety aplikacja ma problemy z włączeniem na Linux pod Wine (z powodu braków plików wyglądu, czy jakoś tak), ale jeśli uda ci się to włączyć, proszę podziel się jak to zrobiłeś.
Niech mi ktoś wytłumaczy na jakiej zasadzie ma to działać, bo nie rozumiem? 7:58 jest mniej klatek, ale jest płynniej? Czy jak?
Jak można dalej nie rozumieć, pomimo tak długiego objaśnienia zasad działania tej technologii?
@@Herald_Of_Warsrak
@@Herald_Of_War dzięki za wyjaśnienie
Ja też nie wiem jak to dokładnie działa, ale rozumiem jak to może działać. Zasada opiera się na porównaniu dwóch kolejnych klatek i wygenerowanie klatki pośredniej.
Normalnie obraz się generuje i wyświetla klatka po klatce.
klatka 1- generowanie, wyświetlenie, usunięcie z pamięci
klatka 2 - generowanie, wyświetlenie, usunięcie z pamięci
klatka 3 - generowanie, wyświetlenie, usunięcie z pamięci itd.
W moim rozwiązaniu (a także w tym konkretnym programie) jest przynajmniej jedna klatka opóźnienia:
Klatka 1 - generowanie
Klatka 2 - generowanie, WYŚWIETLENIE klatki 1, porównanie klatki 2 do klatki 1 i wygenerowanie klatki pośredniej, usunięcie klatki 1 z pamięci, WYŚWIETLENIE klatki pośredniej
Klatka 3 - generowanie, WYŚWIETLENIE klatki 2, porównanie klatki 3 do klatki 2 i wygenerowanie klatki pośredniej, usunięcie klatki 2 z pamięci, WYŚWIETLENIE klatki pośredniej itd
Jak widać, na każdą klatkę (poza pierwszą) przypada dwukrotnie wyświetlenie klatki, stąd mamy dwukrotną ilość FPSów.
O co chodzi z "porónanie klatki x do klatki x-1 i wygenerowanie klatki pośredniej"? Tym już się zajmuje proste "AI", a to dosyć ciężki temat do wytłumaczenia w jednym komentarzu. W skrócie, komputer rysuje to co "uważa" że powinno wystąpić między klatką aktualną i klatką poprzedzającą.
Jak malarz który widzi dwa obrazy. Na jednym obrazie piłka jest po lewej, na drugim po prawej - wiadomo że obrazem pośrednim jest obraz z piłką na środku.
no i teraz program robi tak około 30, 60, 120 albo ile tam ustawisz razy na sekundę, więc pozostaje kwestia wydajności.
No i tak to mniej więcej działa.
Need For Speed Underground 2 i stary Need For Speed Most Wanted odpalone na monitorze 1440p 165 Hz...
Wracam z urlopu i będę testował 😁😁😁
i gra się w trybie okna? A jakby włączyć Windowed bordeeless?
Pełnoekranowe okno to też okno.
1440p Red Dead Redemption 2 wszystkie możliwe suwaki na maxa z 60-70 fps na 90~. Nie widzę, żadnego rozmycia, czy pogorszenia grafy po użyciu programu. Ale to śmiech na sali, że trzeba DLSSów czy kombinowania z jakimiś programami... co za czasy.
Uzywam to w Elden Ringu oraz DS3 i grach na emulatorach gdzie jest lock na 30/60fps. Chcialbym zeby to dzialalo ze SpecialK to bym mogl zmniejszyc input lag do minimum, bo oczywiscie nie sa to klatki za darmo zawsze jest jakis koszt a tutaj mamy input lag i duzo wyzsze uzycie GPU. Scigalki jak WMMT6 czy Ridge Racer 4 czy Burnouty gra sie bardzo fajnie na 120fpsach. To byly gry na pada, gorzej to sie sprawuje w grach ktore uzywa sie myszy do grania tutaj jest kiepsko input lag za bardzo przeszkadza. Wiec polecam pogramik. Moze nastepny film o CompressorX? Tez ciekawe narzedzie ale tym razem do kompresji gier na Steamie, i zrobione przez goscia ktory storzyl genialny Borderless Gaming.
Są jakieś programy(działające), które minimalizują input lag?
Special-K i próba wymuszania NVIDIA Reflex
Jak tego uzywac na steamdecku oled? Musze sie wgryzc
Ważna kwestia, czy nie zwiększy to temperatur lub napięć na karcie graficznej?
jeżeli masz wysokie temperatury podczas obciążenia GPU na Max znaczy że trzeba coś z tym zrobić. np wymienić pastę wyczyścić chłodzenie całą obudowę ogarnąć i jej cyrkulację 😊
Temperatury mam w miarę rozsądne więc na chwilę obecną nie muszę nic robić . Może inaczej zapytam czy ten program nie ,, podkręca karty,, taktowania lub napięć oraz zużycia energii, wolał bym żeby działał na zasadzie dlss. A ty widzę nie zrozumiałeś pytania więc proszę mi nie dawać porad dla laików jakby wyciągnięte z komputerświat czy dobreprogramy. Chciałbym odpowiedzi od kogoś kto korzystał z tego programu
@@radek6232 ale stary zadałeś pytanie jak laik to ci odpowiedziałem. z całym szacunkiem do twojej osoby ale taki program nie ma możliwości grzebać w parametrach karty. to tak jak słyszałem głupie opinie ludzi że gra im komputer zepsuła xd a mało kto bierze pod uwagę że Sam komputer był nie zadbany.
@@radek6232 dodatkowo ci mogę podpowiedzieć że temperatury GPU to nie wszystko. liczy się jeszcze temperatura sekcji zasilania na płycie głównej jakość zasilacza jak i temperatura sekcji i hotspotu na karcie. temat jest bardziej skomplikowany niż się większości ludzi wydaje ciężko to opisać nawet w jednym komentarzu. pozdrawiam
MSI afternurner ma taką możliwość ,a nie chciał bym żeby to tak działało . Temat dotyczy programu z filmu a nie to grafika mi się przegrzewa , tamta twoja odpowiedź była zupełnie nie na temat
Warto dodać, że bardzo dobrze wygląda to w sytuacji emulacji gier gdzie często silniki gry często działały poprawnie przy maksymalnie 60 fps, więc LSFG umożliwia granie przy naprawde wysokim odświeżaniu co daje takim produkcjom drugie życie. W taki sposób mogłem ograć sobie w całą serię God of War, Killzone 3 czy nawet Elden Ringa w 120 fps. jak na 20 zł uważam, że warto, i to bardzo :D
Wpływa to bardzo na jakość obrazu?
@@Zgredzio W moim przypadku, szczerze mówiąc, nie. Zarówno na monitorze ultra wide 1440p jak i sporym telewizorze 4K nie widzę jakichś drastycznych różnic. Niekiedy mogą się pojawić delikatne artefakty, ale mi osobiście to nie przeszkadza, bo trzeba się ostro przyglądać, żeby cokolwiek drastyczniejszego zauważyć.
@@Zgredzio Szczerze, jak bedziesz bardzo uważny to można się tego dopatrzeć ale przy normalnej grze raczej nie jest to cos co powinno ci przeszkadzać. Dodam, jak kolega powyżej gram na monitorze 1440p.
Dzięki za info. Pytanko jeszcze, jak odpalić grę na steam razem z tym programem? Bo on na steamie jest, co nie?
Robię wszystko jak na filmie testując program w RDR II nie widzę żadnej zmiany oprócz pojawienia się dziwnej palety kolorów po włączeniu programu. Trochę jakby źle był ustawiony HDR nie da się na to przeć a FPS ten sam. Ma ktoś pomysł?
Być może masz podłączony monitor przez hdmi i nie wyrabia transfer danych obrazu w obecnym nowym ustawieniu odświeżania. Albo kabel jest lekko wygięty na wtyczkach i nie łączy dobrze monitor z kartą graficzną.
Czyli zmniejszyłeś sobie klatki z 70 do 60? ;) Przy G-Sync/FreeSync spadki nie mają takiego znaczenia.
Gdzie mozna pobrac twoj profil afterburner?
To nie profil afterburner lecz CapFrameX (program z danymi na ekranie)
To jest Capframex.
Już poczwórne fg w beta testach 😋
Zadziała to na starym komputerze wyposażonym w:
- GTX 1080
- i7 3770k
- 32GB DDR3
???
Tak
@@zakatarzony4021 Będzie już ponad 10 lat.
@@zakatarzony4021kretyn xd
Czy istnieje ryzyko, że grając w CS:GO z tym Loseless Scaling dostanę VACBana?
Tak i zhakują Ci płytę główną
Raczej nie, ale bez sensu pomysł bo dodaje bardzo duże opóźnienia
czy działa to na starych słabych kartach?
na wszystkich do sensownego działania zaleca się minimum 4-6GB Vram i conajmniej 20-30 klatek żeby zrobić x2 lub x3
A czy jak gram w cyberpunka i mam fsr wydajność, i mam 35 fps to opacaja się ten program?
Tak
@@slizki5777 no ale co on właściwie daje, przecież nie sprawi że z 35 fps będę mial 90
Tak ciężko ściągnąć program za darmo i przetestować?
@@secretmsk7256 no jak za darmo