Pienamente d'accordo io ho comprato da poco una 4080 che tanto quest anno come processori volevo rifare la build ma ormai aspetto un prossimo anno e vediamo se tirano fuori qualcosa di decente
non so se avete visto su youtube di quel ragazzo britannico che ha testato in raster la 5090 su cyberpunk in 4k, beh diciamo che è stato imbarazzante vedere che in 4k RT attivo non arrivi neanche a 30 fps, quindi la questione del "stiamo comprando schede video o software?" è azzeccatissima. tenetevi strette le vostre serie 30-40, perchè queste schede deluderanno il pubblico.
non devi ragionare per numero di fps ma in numeri percentuali il titolo con le impostazioni da te citato ha una media di di 21fps con rtx 4090 mentre 28 fps con ipotetica rtx 5090 bhe di certo non e' poco stiamo parlando di un incremento di poco piu del 30% senza aiuti vari e ray tracing full attivato
A me il messaggio sembra chiaro: nel futuro saranno i giochi ad avere tanta di quella roba da appesantire le nostre RTX serie 3000 e 4000, nuovi giochi con effetti di luce con raggi che rimbalzano nelle varie pareti, "milioni" di triangoli che struttureranno i soggetti in movimento (invece di "centinaia"), capelli molto più complessi, ecc... Avremo bisogno della tecnologia presente nella serie 5000, e anche una bella 4090 diventerà obsoleta, sarà così da qui a un paio d'anni. Questo è semplicemente marketing, e ogni due/tre anni ritorniamo a punto e accapo, vendere le nostre ottime schede di seconda mano e sborsare una bella differenza per la nuova scheda. Ma va beh è anche il bello del consumismo, alla fine tutto sarà sempre più sorprendente
@MoreThanTech I cali di fps con nVidia App erano dovuti all'abilitazione dell'overlay dei filtri. L'ultimo aggiornamento li disabilita di default e anche con le versioni precedenti, basta disabilitarli e il problema è risolto. Anche la soluzione di override della versione del dlss è la cosa più bella che hanno introdotto con l'app. E funzionerà senza problemi perché già oggi sostituendo la versione delle dll del dlss nella cartella del gioco si può usare sempre l'ultima versione del dlss. Non ci saranno problemi perché il dlss viene solo abilitato dagli sviluppatori nel motore del gioco, ma la sua applicazione avviene in modo indipendente dal gioco tramite le dll appunto.
Cosa mi consigliate?con un budget di 2500 euro e un pc all'altezza ma un monitor va 21:9 prendo la 5090 e dopo poco un oled 4k oppure oppure subito una 5080 e oled 4k..come investo sti spicci?😅 Non vedo l'ora di vedere entrambi le recensioni delle 2 top per decidere se vale la pena prendere la 90 per il boost che potrebbe avere rispetto alla 80 oppure il contrario...
Sul design termico i partner AIB stanno marciando su un desigh che si funziona, ma con investimenti pari a 0 e richiedono in contropartita un esborso di denaro sempre maggio per sempre le stesse cose. Nvidia con le Founders fa ricerca e innova eè con tutti i soldi che ha può permettersi di venderle anche a meno degli AIB. Semplicemente non c'è paragone.
Nvidia app obbligatoria per il dlss 4? Grazie per l'informazione. Visto i problemi che mi ha creato e che per disinstallarla ho dovuto riformattare il pc per le 5000 se ne parla quando risolveranno il problema del carico sulla cpu anche in idle
Il ragionamento al minuto 17:50 fa un po' intravedere quasi un futuro da console war ma tra le compagnie di schede video e chi riesce a convincere gli sviluppatori a implementare i propri software piuttosto che quelli competitor
Secondo me sono tutte tecnologie davvero valide, ma tante sembrano tecnologie che facciano più favore a loro, venditori e sviluppatori rispetto al valore che esse possono dare all'acquirente finale, ovvero noi. Anche buttare tutto sulla IA, ovvero il 90% di queste tecnologie, trovo sia forse giusto, ma non nell 'immediato, é probabile come no, che cbi compri una 50 non veda nemmeno il vero uso di queste tecnologie prima che escano le 60 per dire... Inoltre, la IA che cambia le textures, lo fa localmente o in fase di sviluppo del gioco? Io potrei avere un risultato diverso da un altro utente in base agli AI core? Troppi ma
Sono migliorate sia nella qualita' che nella fluidita' ma questo non giustifica nulla. Se voglio devo avere il prodotto raw, poi se funzionalita' sono in piu'. Prendendo questa strada stiamo arrivando al punto che queste funzioni sono presenti a prescindere.
brevemente , mi sembra stiano tentando di affossare le vecchie schede rtx ancora in giro ... ci sono molti viedo in rete dove mostrano i limiti di questo "nuovo" frame generator , e sinceramente a me sembra un fallimento spacciato per un successo ...
@MoreThanTech Secondo te un i5 12600k e una 4060 vanno bene per una build oggi? Perchè volevo farmi una build e non sapevo se era una buona cosa diciamo abbinare questi due componenti nel 2025. Gentilmente potresti darmi un consiglio Grazie
Grazie mille, mi hai chiarito molti dubbi. Però non ho capito quanto tempo dovremo aspettare per il DLSS 4, il modello "transformer" e le funzioni di override nell'app nvidia.
Non sapevo fossi pure appassionato di chitarra 🎸 ❤. Video molto logico, si l ottimizzazione giochi/nvidia, fa molto da certezza e soprattutto di durabilità negli anni. Però, cmq i prezzi restano troppo alti, mi sa che le console.... Ritorneranno in auge, magari le prossime saranno un po' più competitive
Avevo letto che con il dlss 4 si andava ad eliminare quella semplice procedura di rimpiazzo del file dll nei giochi non aggiornati. Il "DLSS Override" è questo o sono 2 cose diverse?
@@MoreThanTech Perdonami, ma non credo di aver capito. Di Starfield ricordo solo che nonostante fosse un titolo sponsor AMD non avesse il fsr 3. Già che ci sono ti anticipo la seconda domanda: nella recensione delle 5000 o anche in un video dedicato, farai vedere un confronto per quanto riguarda il rumore generato da dlls 3 e 4? Su stalker 2 non l'ho tenuto a lungo perchè generava tanto rumore sull'erba e ho attivato il DLAA al suo posto per questo motivo
A quanto ho capito c'è una sezione apposita per aggiornare il DLSS singolarmente per ogni gioco su nvidia app, e il dlss override è un'altra cosa ancora perché forza il DLSS4 nei giochi non compatibili, mentre quell'altra funzione aggiorna la versione del dlss periodicamente
@@DarkEchelon1990 Ah ecco, allora molto buono. L'unico dubbio, come aveva fatto notare qualcuno nei commenti, è come la Nvidia app decida cosa si deve aggiornare e cosa no, visto che ci sono giochi con anticheat che non permettono il rimpiazzo del dll
Con tutti i cheater in circolazione e il quasi inutile anticheat presente nei giochi, io dovrei cambiare scheda video? Cominciassero a contrastare più efficacemente gli imbrogli e allora potrei pensare più seriamente ad aggiornare la mia 4090.
Ma gli RTX Neural Materials, RTX Neural Faces, RTX Neural Skin saranno disponibili soltanto sulle RTX 5000? O saranno compatibili anche con le RTX 4000 e 3000 che non hanno i neural shaders in hardware?
Premetto che sono un novizio di questo mondo, e faccio una domanda che magari ha poco senso, credete che comunque ha senso acquistare la 5080 rispetto ad una 4080 super? Prenderei anche la 5090 ma mi sembra un po’ too much per del gaming classico, che sicuramente non la sfrutterebbe al massimo, e il mio utilizzo per il lavoro decisamente non ha bisogno di schede video importanti.
Dipende più dalla soddisfazione che hai nei giochi attuali. Se le performance che hai ti bastano ancora, non serve fare upgrade. Viceversa, se vuoi di più, valuta il cambio, magari più in là, con assestamento dei prezzi se riesci a campare ancora. Se vuoi un consiglio, non andrei oltre 5070, a meno che tu non voglia giocare in 4k ultra ad alti fps. Io con 4070 a qualcosa gioco anche con 4k, non ad alti fps, ma si gioca bene, con la 5070 andrà sicuramente molto meglio.
@CrashDrake- sicuramente non valuto oltre la 5070, sia perché ho un monitor 1440p (e quindi sarebbe più un upgrade per avere sempre alti refresh rates senza rinunce di impostazioni grafiche) e sia perché l'alimentatore da 650W difficilmente mi permette di andare oltre
@@LEO-w1r7b fossi in 1080 ok, ma già dal 1440 il processore pesa proprio poco, oltre a quello di Ale ci sono diversi video anche di ltt sul tema Edit: sono con un 10400, dovrebbe essere sufficiente
Mi sa che la mia 3090 mi accompagnerà ancora un po'. Apetterò la 5080S con 24gb (se mai li avrà) o una eventuale rx 9080 xt. Il fatto è che la 5080 con 16gb non mi convince proprio a 1260 euro. Vedremo le recensioni. Le tech sono promettenti e fighi, ma il raster garantisce una migliore ottimizzazione.
personalmente a parer mio nvidia ha capito che con la struttura 4000 è arrivata al limite e ha deciso di ottimizzare al massimo le sue tech, dlss,ia ecc aggiornando del minimo necessario l'hardware. saranno tech incredibili?sembra di si ma bisgna testare... per me il problema non sono le schede ma quanto gli sviluppatori e le aziende videoludiche riusciranno a sfruttarle. io con le4000 ho pesantemente rivalutato in meglio nvidia però ammetto che ad oggi è una tecnologia pressochè inutile se ancora escono giochi alla gollum e il meglio che riesci a ottenere è dato da indiana o alan wake. io una 5080 per natale la metto nel carrello poi vediamo gli sviluppi , perchè ad oggi io scommeterei solo su gta6 come gioco che sfrutterà a pieno le tech nvidia
per gli ultimi minuti del video, normalmente le founders sono bellissime ma utili come soprammobili. A livello di prestazioni e rumorosità fanno molto molto molto schifo. erano usciti dei test un po di mesi fa, una 4090 founder fa gli fps di una 4080 strix o comunque, quel livello di custom.
Sono un po’ confuso Le Founders performano in media il 2/4% in meno dellla maggior parte delle custom “di fascia alta” Dove hai visto dei test in cui perdono il 30% e oltre? Perché non ha riscontro generale
@@MoreThanTechho una 4090 strix... Tornassi indietro avrei preso una 4090 founders... La differenza è si e no del 2%... Non ho capito nemmeno io dove abbia trovato i dati...
@@MoreThanTech Allora non saprei, sarebbe un pò ridicolo che Nvidia faccia GPU che tendono a surriscaldarsi... visto il divario di dimensioni vedo molto più probabile l'incapacità, da parte dei partner che fanno le custom, di miniaturizzare ulteriormente la dissipazione. Probabile che si siano trovati impreparati davanti al nuovo HW da rinfrescare?
MFG totalmente inutile per chi non ha interesse per un Alan Wake a 200 fps o altri tripla A single player. Per i gamers competitivi? Nemmeno perchè i FG porta latenza quindi lo disattivano. In sostanza soprattutto se avete da una 4080 in su l'upgrade ha senso ZERO calcolando che il DLSS e tutto il resto lo avrete lo stesso sulle 4000 quindi boh sta gen, mi lascia perplesso. Soprattutto chi ha le 3000 farà il cambio. Il salto grosso che c'è stato tra le 3000 e le 4000 non è stato ripetuto ecco.
Ma in VR dove tutta questa tecnologia presentata da Nvidia non sarà utilizzabile converrà prendere la 5090 o sarà molto vicina alla 4090? Quale potrebbe essere in % la differenza? Grazie
Per ora non c’è niente che lo confermi, bisogna vedere come operi il sistema di override e se non sia un semplice sistema di GUI per questo tipo di operazioni
Premetto che ho una rtx 3080 e che il dlss per me è stato davvero un game changer, detto questo, la vera rivoluzione nvidia la farà quando nel pannello di controllo si potra' impostare il dlss su TUTTI i titoli indipendentemente se sia implementato o meno, poi che sia un'esclusiva per le nuove o future rtx ci sta...
Un' implementazione a livello driver sarà sempre inferiore ad una implementata direttamente nel gioco, ne abbiamo avuto la prova con le feature di AMD tramite Adrenaline. Inoltre quello che tu proponi sarebbe tutto a danno del consumatore visto che le case di sviluppo usano queste tecnologie per tagliare i costi e accorciare i tempi di sviluppo, non per dare un prodotto migliore
Si è visto che l'implementazione driver non sia proprio il massimo come resa finale. Anche AMD ora avrà FSR4 esclusivo sulle nuove schede, perché semplicemente funzionano meglio. Una cosa su cui si potrebbe premere, è ridurre il lavoro da parte degli sviluppatori per implementare queste tech, in modo che sia più facile averle di tutti i partner (AMD, NVIDIA, Intel).
@@Tichoz666 Quello dipende se un dev ottimizzi o meno il gioco. Prima, quando non c'erano dlss e simili, il dlss era "abbassa la risoluzione e ci giochi". Lo sviluppatore cane esiste da sempre ed esisterà sempre anche con la migliore delle tecnologie.
@@CrashDrake- Sicuramente, ma intanto ormai la percentuale di giochi che vengono ottimizzati senza tenere conto delle tecnologie di upscaling quanto è? È un trend che continua a salire perchè se il management delle case di sviluppo sa che esistono queste tecnologie, a quel punto impongono agli sviluppatori tempi più ristretti e quindi l'ottimizzazione eventualmente viene rimandata al post lancio
@@Tichoz666 Allora, diciamo che finché usi l'upscaler, quindi non il frame generator, per migliorare le tue performance, secondo me non è troppo sbagliato, è come dire, hai un motore da 100cavalli, perché usarne 60? Ti faccio vedere l'altra faccia della medaglia insomma: prima lo svilippatore cane non oftimizzava il gioco e questo faceva schifo e basta. Oggi fa la stessa cosa, ma almeno con dlss il gioco migliora un poco. Allora lo trovo un buon strumento anche per noi, perché anche usando un approcio pigro, ci portiamo a casa uno standard sicuramente più elevato. La tecnologia sta lì per essere usata. A me generalmente non piace fare di tutta l'erba un fascio, ma effettivamente sviluppatori cani e management predatorio ormai sono in espansione. Dettociò, ritengo comunque ingiusto puntare il dito, perché poi ci sono quelle realtà che le tech le usano bene e non sarebbe corretto poi includere anche loro nella conta ecco.
Beh, si, le top 10 tech si dividono i migliori matematici, ho un amico che studiava alla normale di Pisa che lavora in Amazon su questo, lato algoritmo per IA e NL
tranquillo, ci sono migliaia di indie games, anche nuovi ,che escono costantemente e possiamo mandare aff*** anche ste schede e tutte quelle a seguire XD
@@MoreThanTech io invece parlo di divertimento, intrattenimento ! Puro! Pippe mentali e nient’altro ma questa è un’altra storia. Comunque sempre grazie per il tuo tempo ed il tuo servizio!
@salvatoresalzano762 60 soni il minimo poi dipende dai giochi, un alan wake si gioca benissimo a 60 fps mentre titoli di guida come assetto corsa molto meglio 120 fps. 30 fps possono andare al massimo su console ma non su pc
Attualmente mi consigli per un pc da gaming un intel ultra 7 275k (considerando i nuovi aggiornamenti che ha fatto Intel per l’aumento di prestazioni) oppure un Amd ryzen 7 9800x3d?
@ in realtà avevo già deciso per questo processore però purtroppo si trova ancora a prezzi gonfiati rispetto al suo reale costo e pensavo che Intel con gli ultimi aggiornamenti avesse migliorato la situazione. Attendo che scende di prezzo allora.
@MoreThanTech la mia idea sarebbe di passare dalla mia 3070 alla 5070ti/80, valuterò prezzo/prestazioni sennò si va sull'economico ma con più vram (che è il principale problema della 3070 oggigiorno)... Attendiamo super recensioni! Un saluto da un tuo iscritto al tempo degli 8000 sub 💓
A quel punto AMD tirerebbe fuori le lance pur di fare concorrenza I modelli a pagamento extra delle tech hanno fallito in passato, vedi la marginazione di Gsync proprietario in favore del Compatible
Secondo me per fare dei paragoni che abbiano un minimo di senso si dovrebbe utilizzare il raster. Quanto è superiore la (la butto li) una 5070 ad una 4070? Ad una 4080? Ad una 9070XT? Il raster è l'unico valore comparabile sia gen su gen che tra produttori. Poi applichi quesot, applichi quell'altro ... vedi solo quanto "è migliore una tecnologia rispetto all'altra" (e si rimetterebbero nel giusto quadro le fregnacce di GiacchinoScintillante tipo "la 5070 é superiore alla 4090"). 🤭 Nel merito dell'input lag un po' sorrido, sbatti 3 frame inventati tra due renderizzati e poi devi inventarti altre tecnologie per far si che questi frame finti non ti infilino di mezzo troppo lag. A me sembra un po' la tela di Penelope. Capisco il progresso (capirai, sono 30 anni che sviluppo software troppi cambiamenti ho visto) e capisco anche i limiti tecnologici della "potenza bruta" aka Raster ... ma allora invece di inventarci il diavolo e l'acqua santa (secondo me) sarebbe un progresso "gen su gen" se a parità di prestazioni si consumasse la metà. Ma il mercato lo accetterebbe?
@@ZioG91 non ho detto di "tenerlo fuori", ma semplicemente trovo sia una presa per i fondelli verso i consumatori (vedasi proprio l'affermazione delle prestazioni della 5070 vs 4090). Vuoi confrontarmi scheda su scheda? Prima fammi i paragoni in raster (quella é la vera "differenza di potenza") .. se poi con il software mi ci infili dentro tot frame inventati ed altre tecnologie va bene. parlamente, ma certi confronti tienili per te 😀 ,
@@CitizenGattoMatto È importante tener conto di entrambi. Oggi anche le tech hanno il peso, non sono il 100% della scheda, ma vanno prese in analisi oer confrontare i prodotti, perché cambiano di fatto le carte in regola come 10 anni fa le cambiavano il fatto di avere più o meno ram, più o meno core etc. Tutti i frame sono finti, sono tutti generati dalla scheda. Il come conta poco, è il risultato finale che vuoi confrontare, tenendo conto anche di fattori come consumi, prezzo e supporto. Io sono contro gli estremi, e quello che fanno i produttori è venderti il prodotto. Dire che la 4070 va come una 4090 è marketing, loro devono vendere. Non giudico, nemmeno approvo. Vanno aspettate le recensioni di chi ha competenza nel settore, e poi si valutano. Le affermazioni dell'oste lasciano sempre il tempo che trovano.
L'unica cosa che mi piace del dlss è che implementa il dlaa con la possibilità di usare il frame generation... senza creare il ghosting... Il fatto che si posso forza il dlss 4 tramite nvidia App mi preoccupa visto che ci sono titoli che vanno a disattivare nelle impostazioni il dlss ... ad esempio warhammer space marine 2 in quanto aggiornare il dlss presente ad una versione più aggiornata lo rileva come cheat... Epic store invece dopo 2-3 giorni aggiorna forzatamente il gioco in cui hai cambiato il dlss , quindi una vera rottura Spero che il dlss 4 porti un dlaa migliorato sulla base delle prestazioni.. 👍👍 del resto sono contento di queste novità per la prima volta
ti ricordo che un'applicazione tramite driver sarà sempre inferiore a una interna a un gioco, la prova definitiva è amd con adrenaline o come si scrive
@ZEUS_STARS_OP se parli del forzare il dlss nei titoli.. oddio dipende dal dlss .. la versione 3.8.1 è la migliore di tutte ... Cmq vedremo sto dlss 4.0 .. il dlss crea troppo ghosting figuriamoci con il x3... vedremo
Vedendo il grafico sul sito nvidia che paragona la 5070 alla 4070 liscia con uno stimato +15%, essendo la 4070 super +15% sulla 4070 liscia mi verrebbe da dire che la 5070 vada quasi uguale alla 4070 super
@ilNeme84 se questa tua diagnosi fosse giusta avremmo una scheda che "segmenta" la famiglia 70 e ci dà prestazioni simili alla gen precedente. Una volta Nvidia tra 70 e 70ti ci faceva passare una generazione e quel 20*100 lo garantiva. Oggi praticamente ci fa credere che la 70 liscia costa poco invece va come la gen precedente nella stessa fascia. Che poi 650€ non ci compri nulla ma non sono pochi soldi
Le tecnologie sono fantastiche e utilissime. Meno se servono a coprire carenze in raster. Parliamoci chiaro: la 5070 ha 12Gb con un bus castrato. Perfino la distanza tra 5090 e 5080 è enorme.
è chiaro ormai ciò che stanno facendo, il vero salto gen to gen sarà sempre la 90 a prezzi folli, per poi dare alle persone "normali" le 80 70 a prezzi decenti seppur alti ma con schede castrate. Secondo me la 5080 per aver senso dovrebbe andare come la 90 e costare 999 euro anche con i 16gb di vram.
@ scusami, non intendevo dire che ambisco ad un ulteriore versione migliore, ma conoscendo la situazione delle 4000 so che probabilmente uscirà e so che se comunque ci sarà qualcosa da migliorare lo faranno tutto qua. Scusa se ti ho fatto perdere tempo ⏱️
È uscito un episodio a fine dicembre Siamo in un periodo denso di uscite, non ha senso fare CLVP quando ci sono cose time sensitive di cui parlare per mesi
Mai parlato di rivoluzione, semplicemente sono l’unica tecnologia che dia un vantaggio in maniera concreta (sulla carta) Chiamarli fake frames è abbastanza riduttivo, sono percettibili per quello che ho provato
@@MoreThanTech non metto in dubbio la qualità di quello che fanno, nel senso di fake che non sono frame realmente generati e comandati.ma una post elaborazione del frame originale che a sua volta viene ricreato da frame generato .
@@gamedevunity3dliviopanizzi170 Non è una rivoluzione? Fino a qualche anno fa sta roba era solo fantascienza. Senza la IA il path tracing real-time sarebbe semplicemente impossibile.
Troppi se e troppi ma . Se mi chiedi 800 euro per una scheda video nuova vorrei comprare un hardware avanzato non una sfilza di trucchetti che funzionano solo a determinate condizioni. Magari mi sbaglio ma sento puzza di bruciato.
Perché non hai capito che avere anche solo la metà del salto tecnico che chiedete voi costerebbe troppo tempo e soldi, siamo vicini al limite hardware (ed in alcuni ambiti e casi anche letteralmente quello fisico) e fareste bene a rassegnarvi ad accettare che questo è il futuro perché diventerà sempre più evidente.
Anche il raster è un allucinazione, una scena imbastita ad arte con luci artificiali in punto innaturali e oggetti da scena per darti l'illusione di star guardando una scena realistica. TI concedo che sia una soluzione del genere sia più leggera da calcolare, ma servono anche molte più risorse e tempo per realizzarla, introducendo anche problemi come ad esempio il pop in delle ombre (il famoso cerchio attorno al protagonista), e questo si traduce in uno sviluppo almeno due o tre volte più costoso (soldi e tempo).
anche Bryan Catanzaro durante la presentazione ha affermato che produrre schede che in raster, con questi giochi sempre più pesanti, sono super costose da produrre. Quindi dire che conta solo questo è una cazzata assurda e basta guardare la diffusione del dlss al day one di ogni singolo gioco
@@CrashDrake- avresti ragione se non fosse che il 90% dei giochi attuali in ray tracing o path tracing non sono realistici, anzi sono meno realistici che in raster, perché tra rumore, algoritmi di riduzione rumore ecc si vanno a inventare soluzioni che in natura non esistono... Un esempio é proprio Cyberpunk, dove in raytracing cambia la scena, cambiano le superfici e le textures, diventando irrealistici e fornendo soluzioni visive che nella realtà non esistono, sopratutto i riflessi, che per pensare che siano realistici bisogna non uscire mai di casa. Idem Alan Wake, in molte situazioni per trovarlo realistico dovete non aver mai visto un bosco od un paesaggio rurale. Ed in Raster queste cose sono davvero mitigate in raster, nonostante abbia altri problemi
@@fazza92u34 Direi piuttosto che i casi da te citati sono più realistici del raster, poiché hai giochi di luci fedeli visto che sono ricostruiti in RT, che per definizione simila io reale comportamento della luce. Direi piuttosto che a te non piace l'effetto, e ci sta, ma è diverso da ciò che hai detto. Il fatto che dici tu, per esempio citando il bosco rurale, quella è la realtà. Realistico vuol dire che si aspira a sembrare vero, ma ovviamente è finto. Il bosco è semplicemente diverso perché un computer non ce la sarebbe a gestirne uno vero. Non ancora, con la IA, è possibile raggiungere un realismo sempre più spinto.
Se Nvidia è giunta al limite della forza bruta può anche smettere di buttar fuori nuove schede e migliorare i driver. Ma no, il consumatore continua a comprare e Nvidia a vendere. E alza pure il prezzo! Perché Nvidia non è stupida. Stiamo a vedere i test tra qualche settimana...
I driver non possono avere la stessa influenza di un upgrade generazionale o di un upscaler, a meno che non si parli di un precedente problema come visto su ARC
@@MoreThanTech Con una GPU che sta sul mercato da soli due anni i driver migliori la possono spremere ancora, così come i programmatori dei giochi. Belle tutte le tecnologie software che Nvidia butta fuori eh! Nvidia user here! Ma quando Nvidia mi mordicchia il lobo dell'orecchio sussurrandomi che mi ama per la mia intelligenza, mi si attivano i sensi di ragno
Sì ma spremere è una questione di meno del 10% nel migliorissimo dei casi (sempre se non si parta da un principio di precedente negligenza, quindi non un guadagno ma un recupero)
@@MoreThanTech Mah, tra driver, nuove tecnologie retrocompatibili e programmazione dei giochi secondo me si può fare molto meglio. Comunque stiamo a vedere i test...
Devono vendere e sono spinti ad enfatizzare anche i piccoli miglioramenti e cercare di convincervi ad aprire il portafoglio ( anche se tutto sommato non ne avete bisogno)
Per quanto mi riguarda, il concetto di raster è da superare. Gli algoritmi deterministici che si usano da sempre hanno raggiunto il loro limite, gli algoritmi probabilistici che usano invece i calcoli tramite IA, stanno mostrando risultati molto più interessanti. Si, sono più pesanti, ma la tecnologia in grado di fare questi calcoli è molto più scalare, basti vedere come migliorano di anno in anno le performance IA di tutti i nostri processori grafici, in ogni ambito, non solo schede video per gaming. Parlando di solo gaming, la tecnologia per far girare bene un gioco con l'IA ormai c'è, e sarebbe un vantaggio enorme che tutti i dev usassero queste tecnologie, anche per noi giocatori. Per farla semplice, costruire e progettare una scena in RT (parlo quindi da parte dello sviluppatore) è un processo molto più facile e veloce rispetto ad una scena in rasterizzazione, dove devi simulare i comportamenti dei soggetti alla luce introducendo tanti piccoli magheggi, con due grandi effetti: un sacco di tempo da dedicare, e l'introduzione di tantissimi elementi complementari, che nell'insieme, danno più possibilità alla rottura dell'illusione (esempio banale: il pop in per dirne una). Per uno sviluppatore, costruire una scena in RT e basta si tradurrebbe in spendere meno tempo e meno risorse nello sviluppo del suo gioco. Vuol dire budget sensibilmente ridotti, e tempi di sviluppo dimezzati. Si potrebbe pensare di nuovo di rischiare, senza che un flop determini il fallimento di uno studio. È auspicabile un simile progresso, e Nvidia ha fatto da apripista, ma gli altri devono stare al passo. AMD ha avuto almeno 6 anni per seguire quella scia, Intel ha già iniziato meglio in tal senso, con performance migliori in RT e tech rispetto ad AMD, quindi capisco il discorso sul finale del video, sulla esclusività delle tecnologie, però AMD è rimasta a guardare, e solo ora sta facendo la sua tech esclusiva, che ha palesemente più vantaggio rispetto a quella standard open source. Magari, si può sperare in un futuro dove tutte questa tecnologie non richiedano lavoro da parte degli sviluppatori per implementarle sui giochi, in modo da avere la massima compatibilità possibile.
Se devi comprare hardware ovvero potenza pura, solo il raster (il dato RAW, grezzo) ha senso per fare comparazioni. Il resto ha si il suo valore ma me lo vendi come software e qui si aprono problemi perchè allora si creano tante line di software quanto sono i brands
@glubrix il sw è da sempre più scalabile dell'hw. Non vedo problemi nell'avere tanti software, specie se si trova il modo di sfruttarli facilmente. La potenza pura ha i suoi limiti, i calcoli IA ne hanno di meno, conviene puntare ora su quella strada... Anche perché un sw può aggiornarsi e migliorare nel tempo, l'hw invece invecchia.
Inizia a porti la domanda che non ci hai capito un cazzo. Anche perchè la serie 2000 era talmente "cattiva" rispetto alla serie 1000 che la 1000 è morta, la 2000 sta ancora a far girare Indiana Jones e a ricevere gli update tecnologici. Ma per favore.
penso che l'upgrade alle 5000 ha senso per chi ha le 2000/3000 ma per chi ha le 4000 può tranquillamente aspettare
Pienamente d'accordo io ho comprato da poco una 4080 che tanto quest anno come processori volevo rifare la build ma ormai aspetto un prossimo anno e vediamo se tirano fuori qualcosa di decente
io ho purtroppo una 6600 affiancata ad un 7800x3d , ero deciso di prendere una 4070 super ma penso che a questo punto mi convenga la 5070
@@LucaSan-gi2eialmeno la Ti come memory bus e gb. O aspetta i bench delle Amd 9070xt
non so se avete visto su youtube di quel ragazzo britannico che ha testato in raster la 5090 su cyberpunk in 4k, beh diciamo che è stato imbarazzante vedere che in 4k RT attivo non arrivi neanche a 30 fps, quindi la questione del "stiamo comprando schede video o software?" è azzeccatissima.
tenetevi strette le vostre serie 30-40, perchè queste schede deluderanno il pubblico.
non devi ragionare per numero di fps ma in numeri percentuali il titolo con le impostazioni da te citato ha una media di di 21fps con rtx 4090 mentre 28 fps con ipotetica rtx 5090 bhe di certo non e' poco stiamo parlando di un incremento di poco piu del 30% senza aiuti vari e ray tracing full attivato
A me il messaggio sembra chiaro: nel futuro saranno i giochi ad avere tanta di quella roba da appesantire le nostre RTX serie 3000 e 4000, nuovi giochi con effetti di luce con raggi che rimbalzano nelle varie pareti, "milioni" di triangoli che struttureranno i soggetti in movimento (invece di "centinaia"), capelli molto più complessi, ecc... Avremo bisogno della tecnologia presente nella serie 5000, e anche una bella 4090 diventerà obsoleta, sarà così da qui a un paio d'anni. Questo è semplicemente marketing, e ogni due/tre anni ritorniamo a punto e accapo, vendere le nostre ottime schede di seconda mano e sborsare una bella differenza per la nuova scheda. Ma va beh è anche il bello del consumismo, alla fine tutto sarà sempre più sorprendente
@MoreThanTech I cali di fps con nVidia App erano dovuti all'abilitazione dell'overlay dei filtri. L'ultimo aggiornamento li disabilita di default e anche con le versioni precedenti, basta disabilitarli e il problema è risolto.
Anche la soluzione di override della versione del dlss è la cosa più bella che hanno introdotto con l'app. E funzionerà senza problemi perché già oggi sostituendo la versione delle dll del dlss nella cartella del gioco si può usare sempre l'ultima versione del dlss. Non ci saranno problemi perché il dlss viene solo abilitato dagli sviluppatori nel motore del gioco, ma la sua applicazione avviene in modo indipendente dal gioco tramite le dll appunto.
Cosa mi consigliate?con un budget di 2500 euro e un pc all'altezza ma un monitor va 21:9 prendo la 5090 e dopo poco un oled 4k oppure oppure subito una 5080 e oled 4k..come investo sti spicci?😅 Non vedo l'ora di vedere entrambi le recensioni delle 2 top per decidere se vale la pena prendere la 90 per il boost che potrebbe avere rispetto alla 80 oppure il contrario...
Sé le previsioni confermano un 10/15 % di miglioramento nel raster per me stanno molto bene sullo scaffale queste nuove schede
Apple vende come una matta per molti meno miglioramenti.
Certo, al 2025 lasciamo le schede ancora per il raster... 😂 Quando capirete che è finito ed è roba obsoleta sarà sempre troppo tardi. 😂
Sul design termico i partner AIB stanno marciando su un desigh che si funziona, ma con investimenti pari a 0 e richiedono in contropartita un esborso di denaro sempre maggio per sempre le stesse cose. Nvidia con le Founders fa ricerca e innova eè con tutti i soldi che ha può permettersi di venderle anche a meno degli AIB. Semplicemente non c'è paragone.
Le founders sono sempre state tra i 10 ed i 15 gradi più alte rispetto alle custom top. Vedremo se con le 5000 cambierà qualcosa.
Ma invece si sa nulla di queste 9070?sto aspettando loro per aggiornare la mia povera rx590
Appena arrivano info, vi aggiorno
La 590 urcaa, non riceve neanche più aggiornamenti driver vero?
Nvidia app obbligatoria per il dlss 4? Grazie per l'informazione. Visto i problemi che mi ha creato e che per disinstallarla ho dovuto riformattare il pc per le 5000 se ne parla quando risolveranno il problema del carico sulla cpu anche in idle
No, obbligatoria per l’override, è in quella sezione apposta
@@MoreThanTech ah ok😉
Il ragionamento al minuto 17:50 fa un po' intravedere quasi un futuro da console war ma tra le compagnie di schede video e chi riesce a convincere gli sviluppatori a implementare i propri software piuttosto che quelli competitor
Raster come il full hd sono stra superati,ormai bisognerebbe partire minimo da 1440p e dlls + ray tracing
Secondo me sono tutte tecnologie davvero valide, ma tante sembrano tecnologie che facciano più favore a loro, venditori e sviluppatori rispetto al valore che esse possono dare all'acquirente finale, ovvero noi.
Anche buttare tutto sulla IA, ovvero il 90% di queste tecnologie, trovo sia forse giusto, ma non nell 'immediato, é probabile come no, che cbi compri una 50 non veda nemmeno il vero uso di queste tecnologie prima che escano le 60 per dire...
Inoltre, la IA che cambia le textures, lo fa localmente o in fase di sviluppo del gioco? Io potrei avere un risultato diverso da un altro utente in base agli AI core? Troppi ma
Performance reali....non finte con tecnologie. È come mettere il rumore del motore di una Ferrari su una 500 elaborata
Sono migliorate sia nella qualita' che nella fluidita' ma questo non giustifica nulla. Se voglio devo avere il prodotto raw, poi se funzionalita' sono in piu'. Prendendo questa strada stiamo arrivando al punto che queste funzioni sono presenti a prescindere.
se vuoi raster vai su amd e poi non lamentarti che oltre il raster non offrono molto altro
@ZEUS_STARS_OP purtroppo anche amd si sta accodando. Hai capito il discorso che ho fatto?
brevemente , mi sembra stiano tentando di affossare le vecchie schede rtx ancora in giro ... ci sono molti viedo in rete dove mostrano i limiti di questo "nuovo" frame generator , e sinceramente a me sembra un fallimento spacciato per un successo ...
@MoreThanTech
Secondo te un i5 12600k e una 4060 vanno bene per una build oggi?
Perchè volevo farmi una build e non sapevo se era una buona cosa diciamo abbinare questi due componenti nel 2025.
Gentilmente potresti darmi un consiglio
Grazie
Cosa mi consigliate di comprare? Rtx 4070 super o aspettare per la 5070? Grazie mille a tutti🤝
Grazie mille, mi hai chiarito molti dubbi. Però non ho capito quanto tempo dovremo aspettare per il DLSS 4, il modello "transformer" e le funzioni di override nell'app nvidia.
Al lancio delle RTX 50 dovrebbe uscire tutto
00:25 esempio di occhiali generati con IA ahahahah
Poi per quanto riguarda il discorso che le schede grafiche grandi siano fighe.... Fa capire quanta gente in giro soffre di MICRO P... E
Uomo inventa uno scenario e si arrabbia a riguardo
Non sapevo fossi pure appassionato di chitarra 🎸 ❤. Video molto logico, si l ottimizzazione giochi/nvidia, fa molto da certezza e soprattutto di durabilità negli anni. Però, cmq i prezzi restano troppo alti, mi sa che le console.... Ritorneranno in auge, magari le prossime saranno un po' più competitive
Mannaggia a me che ho aspettato per prendere la 4070s che ora si sta alzando di prezzo 😢
Avevo letto che con il dlss 4 si andava ad eliminare quella semplice procedura di rimpiazzo del file dll nei giochi non aggiornati. Il "DLSS Override" è questo o sono 2 cose diverse?
A grandi linee hanno dato ufficialmente quello che è stato fatto su Starfield ai tempi del lancio
@@MoreThanTech Perdonami, ma non credo di aver capito. Di Starfield ricordo solo che nonostante fosse un titolo sponsor AMD non avesse il fsr 3. Già che ci sono ti anticipo la seconda domanda: nella recensione delle 5000 o anche in un video dedicato, farai vedere un confronto per quanto riguarda il rumore generato da dlls 3 e 4? Su stalker 2 non l'ho tenuto a lungo perchè generava tanto rumore sull'erba e ho attivato il DLAA al suo posto per questo motivo
A quanto ho capito c'è una sezione apposita per aggiornare il DLSS singolarmente per ogni gioco su nvidia app, e il dlss override è un'altra cosa ancora perché forza il DLSS4 nei giochi non compatibili, mentre quell'altra funzione aggiorna la versione del dlss periodicamente
@@DarkEchelon1990 Ah ecco, allora molto buono. L'unico dubbio, come aveva fatto notare qualcuno nei commenti, è come la Nvidia app decida cosa si deve aggiornare e cosa no, visto che ci sono giochi con anticheat che non permettono il rimpiazzo del dll
Con tutti i cheater in circolazione e il quasi inutile anticheat presente nei giochi, io dovrei cambiare scheda video? Cominciassero a contrastare più efficacemente gli imbrogli e allora potrei pensare più seriamente ad aggiornare la mia 4090.
Una grande lacuna dei vg di oggi è l'IA degli NPC, altro che la grafica.
Per quello c’è ACE, ma a me convince poco ancofan
Ma gli RTX Neural Materials, RTX Neural Faces, RTX Neural Skin saranno disponibili soltanto sulle RTX 5000? O saranno compatibili anche con le RTX 4000 e 3000 che non hanno i neural shaders in hardware?
Neural shaders è un SDK software, non ha un’accelerazione specifica extra
Utilizza i tensor core
Praticamente la 5070 è una 4070 Super con MFG a -50$, un affare insomma XD
Per il momento resto della mia idea di passare dalla 2060 alla 5070ti
Premetto che sono un novizio di questo mondo, e faccio una domanda che magari ha poco senso, credete che comunque ha senso acquistare la 5080 rispetto ad una 4080 super? Prenderei anche la 5090 ma mi sembra un po’ too much per del gaming classico, che sicuramente non la sfrutterebbe al massimo, e il mio utilizzo per il lavoro decisamente non ha bisogno di schede video importanti.
Prima delle recensioni non mi sbilancio, ma sono sempre più indeciso se fare upgrade della 3060ti oppure aspettare ancora
Dipende più dalla soddisfazione che hai nei giochi attuali. Se le performance che hai ti bastano ancora, non serve fare upgrade. Viceversa, se vuoi di più, valuta il cambio, magari più in là, con assestamento dei prezzi se riesci a campare ancora.
Se vuoi un consiglio, non andrei oltre 5070, a meno che tu non voglia giocare in 4k ultra ad alti fps. Io con 4070 a qualcosa gioco anche con 4k, non ad alti fps, ma si gioca bene, con la 5070 andrà sicuramente molto meglio.
@CrashDrake- sicuramente non valuto oltre la 5070, sia perché ho un monitor 1440p (e quindi sarebbe più un upgrade per avere sempre alti refresh rates senza rinunce di impostazioni grafiche) e sia perché l'alimentatore da 650W difficilmente mi permette di andare oltre
@@ferrarista1108se non hai un processore decente ti conviene cambiare anche quello se non desideri avere problemi di bottleneck
@@LEO-w1r7b fossi in 1080 ok, ma già dal 1440 il processore pesa proprio poco, oltre a quello di Ale ci sono diversi video anche di ltt sul tema
Edit: sono con un 10400, dovrebbe essere sufficiente
Mi sa che la mia 3090 mi accompagnerà ancora un po'. Apetterò la 5080S con 24gb (se mai li avrà) o una eventuale rx 9080 xt. Il fatto è che la 5080 con 16gb non mi convince proprio a 1260 euro. Vedremo le recensioni. Le tech sono promettenti e fighi, ma il raster garantisce una migliore ottimizzazione.
penso che una 9080xt non uscirà mai
24 giga li avrai solo se prendi una 4090 per me su questa serie dimenticali proprio
Un canale PC Centric ha messo i test mentre filma la prova con la 5090 su cyberpunk
Eh, a me l’hanno proibito categoricamente :/
Vabbè ma anche DF che ha scavalcato l’embargo
@MoreThanTech e quindi cosa faccio ho una 3090ti spetto come si comporta con il dlss 4 o prendo una 5080? aiuto !!!
Aspetta le recensioni, del DLSS 4 avrai solo l’upscaling
personalmente a parer mio nvidia ha capito che con la struttura 4000 è arrivata al limite e ha deciso di ottimizzare al massimo le sue tech, dlss,ia ecc aggiornando del minimo necessario l'hardware. saranno tech incredibili?sembra di si ma bisgna testare... per me il problema non sono le schede ma quanto gli sviluppatori e le aziende videoludiche riusciranno a sfruttarle. io con le4000 ho pesantemente rivalutato in meglio nvidia però ammetto che ad oggi è una tecnologia pressochè inutile se ancora escono giochi alla gollum e il meglio che riesci a ottenere è dato da indiana o alan wake. io una 5080 per natale la metto nel carrello poi vediamo gli sviluppi , perchè ad oggi io scommeterei solo su gta6 come gioco che sfrutterà a pieno le tech nvidia
per gli ultimi minuti del video, normalmente le founders sono bellissime ma utili come soprammobili. A livello di prestazioni e rumorosità fanno molto molto molto schifo. erano usciti dei test un po di mesi fa, una 4090 founder fa gli fps di una 4080 strix o comunque, quel livello di custom.
Sono un po’ confuso
Le Founders performano in media il 2/4% in meno dellla maggior parte delle custom “di fascia alta”
Dove hai visto dei test in cui perdono il 30% e oltre? Perché non ha riscontro generale
@@MoreThanTechho una 4090 strix... Tornassi indietro avrei preso una 4090 founders... La differenza è si e no del 2%... Non ho capito nemmeno io dove abbia trovato i dati...
Spiegato perfettamente, ma nvidia reflex 2 sarà compatibile con la serie 4000?
Tutte tranne la MFG
Può essere che le custom sono così grosse perché l'OC le farà scaldare parecchio?
Se il trend è rimasto lo stesso degli anni precedenti, i guadagni in OC sono insignificanti
@@MoreThanTech Allora non saprei, sarebbe un pò ridicolo che Nvidia faccia GPU che tendono a surriscaldarsi... visto il divario di dimensioni vedo molto più probabile l'incapacità, da parte dei partner che fanno le custom, di miniaturizzare ulteriormente la dissipazione. Probabile che si siano trovati impreparati davanti al nuovo HW da rinfrescare?
MFG totalmente inutile per chi non ha interesse per un Alan Wake a 200 fps o altri tripla A single player. Per i gamers competitivi? Nemmeno perchè i FG porta latenza quindi lo disattivano. In sostanza soprattutto se avete da una 4080 in su l'upgrade ha senso ZERO calcolando che il DLSS e tutto il resto lo avrete lo stesso sulle 4000 quindi boh sta gen, mi lascia perplesso. Soprattutto chi ha le 3000 farà il cambio. Il salto grosso che c'è stato tra le 3000 e le 4000 non è stato ripetuto ecco.
Ma in VR dove tutta questa tecnologia presentata da Nvidia non sarà utilizzabile converrà prendere la 5090 o sarà molto vicina alla 4090? Quale potrebbe essere in % la differenza?
Grazie
Senza upscaler (quindi prestazioni pure) la differenza sembrerebbe del 30% tra una 4090 e una 5090
ma quindi non ci sarà la possibilità di cambiare il file del dlss nella cartella di gioco e via?
Per ora non c’è niente che lo confermi, bisogna vedere come operi il sistema di override e se non sia un semplice sistema di GUI per questo tipo di operazioni
Premetto che ho una rtx 3080 e che il dlss per me è stato davvero un game changer, detto questo, la vera rivoluzione nvidia la farà quando nel pannello di controllo si potra' impostare il dlss su TUTTI i titoli indipendentemente se sia implementato o meno, poi che sia un'esclusiva per le nuove o future rtx ci sta...
Un' implementazione a livello driver sarà sempre inferiore ad una implementata direttamente nel gioco, ne abbiamo avuto la prova con le feature di AMD tramite Adrenaline. Inoltre quello che tu proponi sarebbe tutto a danno del consumatore visto che le case di sviluppo usano queste tecnologie per tagliare i costi e accorciare i tempi di sviluppo, non per dare un prodotto migliore
Si è visto che l'implementazione driver non sia proprio il massimo come resa finale. Anche AMD ora avrà FSR4 esclusivo sulle nuove schede, perché semplicemente funzionano meglio. Una cosa su cui si potrebbe premere, è ridurre il lavoro da parte degli sviluppatori per implementare queste tech, in modo che sia più facile averle di tutti i partner (AMD, NVIDIA, Intel).
@@Tichoz666 Quello dipende se un dev ottimizzi o meno il gioco. Prima, quando non c'erano dlss e simili, il dlss era "abbassa la risoluzione e ci giochi". Lo sviluppatore cane esiste da sempre ed esisterà sempre anche con la migliore delle tecnologie.
@@CrashDrake- Sicuramente, ma intanto ormai la percentuale di giochi che vengono ottimizzati senza tenere conto delle tecnologie di upscaling quanto è? È un trend che continua a salire perchè se il management delle case di sviluppo sa che esistono queste tecnologie, a quel punto impongono agli sviluppatori tempi più ristretti e quindi l'ottimizzazione eventualmente viene rimandata al post lancio
@@Tichoz666 Allora, diciamo che finché usi l'upscaler, quindi non il frame generator, per migliorare le tue performance, secondo me non è troppo sbagliato, è come dire, hai un motore da 100cavalli, perché usarne 60?
Ti faccio vedere l'altra faccia della medaglia insomma: prima lo svilippatore cane non oftimizzava il gioco e questo faceva schifo e basta. Oggi fa la stessa cosa, ma almeno con dlss il gioco migliora un poco. Allora lo trovo un buon strumento anche per noi, perché anche usando un approcio pigro, ci portiamo a casa uno standard sicuramente più elevato.
La tecnologia sta lì per essere usata. A me generalmente non piace fare di tutta l'erba un fascio, ma effettivamente sviluppatori cani e management predatorio ormai sono in espansione.
Dettociò, ritengo comunque ingiusto puntare il dito, perché poi ci sono quelle realtà che le tech le usano bene e non sarebbe corretto poi includere anche loro nella conta ecco.
Avanzo l'ipotesi che Nvidia ha i migliori matematici, per questo ha i migliori algoritmi.
Beh, si, le top 10 tech si dividono i migliori matematici, ho un amico che studiava alla normale di Pisa che lavora in Amazon su questo, lato algoritmo per IA e NL
sono vecchio lo so ma guardo sti video e penso " quanto azzo è diventato difficile giocare". Viva Pacman
Beh, siamo al fotorealismo, pacman era una sfida del suo tempo ma non paragonabile
I cabinati si rapportano alle console
tranquillo, ci sono migliaia di indie games, anche nuovi ,che escono costantemente e possiamo mandare aff*** anche ste schede e tutte quelle a seguire XD
@ no ma figurati. A volte mi chiedo perché 2-300 frame? I 30 sono godibilissimi i 60 poi 😂😂😂😂😂
@@MoreThanTech io invece parlo di divertimento, intrattenimento ! Puro! Pippe mentali e nient’altro ma questa è un’altra storia. Comunque sempre grazie per il tuo tempo ed il tuo servizio!
@salvatoresalzano762 60 soni il minimo poi dipende dai giochi, un alan wake si gioca benissimo a 60 fps mentre titoli di guida come assetto corsa molto meglio 120 fps. 30 fps possono andare al massimo su console ma non su pc
Attualmente mi consigli per un pc da gaming un intel ultra 7 275k (considerando i nuovi aggiornamenti che ha fatto Intel per l’aumento di prestazioni) oppure un Amd ryzen 7 9800x3d?
9800x3d tutta la vita
@ in realtà avevo già deciso per questo processore però purtroppo si trova ancora a prezzi gonfiati rispetto al suo reale costo e pensavo che Intel con gli ultimi aggiornamenti avesse migliorato la situazione. Attendo che scende di prezzo allora.
Che domande scontate...
@@DannyGodhouse Il bello è che vogliono comprare i processori nuovi poi effettivamente li comprano dopo che sono diventati vecchi...
@@darkcggaming La crisi a questo porta.
è sui laptop con 3050??
DLSS 4 e basta
Senza MFG
Lo spiego nella prima parte del video
Più che altro le slide di Nvidia sono fra 5070 e 4070, non 4070 super... Non è che la differenza con la super è ancora peggio? 😢
Probabilmente si, considerato che la 70s ha un distacco di rilievo sulla 70
@MoreThanTech la mia idea sarebbe di passare dalla mia 3070 alla 5070ti/80, valuterò prezzo/prestazioni sennò si va sull'economico ma con più vram (che è il principale problema della 3070 oggigiorno)... Attendiamo super recensioni! Un saluto da un tuo iscritto al tempo degli 8000 sub 💓
@@gabrielecrea7432 La super è un semplice miglioramento della 70 liscia, quindi la 5070 rimane superiore all 4070s, magari non del 20%, ma del 10-15%
@Compa_Cri capisci bene che con queste prospettive il salto generazionale fa proprio cagare 😂 probabilmente non ne vale la pena
Secondo me tra poco metteranno anche un abbonamento per accedere al DLSS. Ho questa sensazione... tu cosa ne pensi?
A quel punto AMD tirerebbe fuori le lance pur di fare concorrenza
I modelli a pagamento extra delle tech hanno fallito in passato, vedi la marginazione di Gsync proprietario in favore del Compatible
@@MoreThanTech Esatto, non credo che nvidia sia cosi stupida da dare pane alla concorrenza
Secondo me per fare dei paragoni che abbiano un minimo di senso si dovrebbe utilizzare il raster.
Quanto è superiore la (la butto li) una 5070 ad una 4070? Ad una 4080? Ad una 9070XT? Il raster è l'unico valore comparabile sia gen su gen che tra produttori.
Poi applichi quesot, applichi quell'altro ... vedi solo quanto "è migliore una tecnologia rispetto all'altra" (e si rimetterebbero nel giusto quadro le fregnacce di GiacchinoScintillante tipo "la 5070 é superiore alla 4090"). 🤭
Nel merito dell'input lag un po' sorrido, sbatti 3 frame inventati tra due renderizzati e poi devi inventarti altre tecnologie per far si che questi frame finti non ti infilino di mezzo troppo lag. A me sembra un po' la tela di Penelope. Capisco il progresso (capirai, sono 30 anni che sviluppo software troppi cambiamenti ho visto) e capisco anche i limiti tecnologici della "potenza bruta" aka Raster ... ma allora invece di inventarci il diavolo e l'acqua santa (secondo me) sarebbe un progresso "gen su gen" se a parità di prestazioni si consumasse la metà. Ma il mercato lo accetterebbe?
Probabilmente no, visto che vogliono venderti alimentatori da 1600Watt e dissipatori da reattori a fusione fredda😅
@@CrashDrake- sob ... anche te hai ragione 😑
Ma se loro insieme all' hardware sviluppano anche il software, perché tenerlo fuori dal confronto?
@@ZioG91 non ho detto di "tenerlo fuori", ma semplicemente trovo sia una presa per i fondelli verso i consumatori (vedasi proprio l'affermazione delle prestazioni della 5070 vs 4090). Vuoi confrontarmi scheda su scheda? Prima fammi i paragoni in raster (quella é la vera "differenza di potenza") .. se poi con il software mi ci infili dentro tot frame inventati ed altre tecnologie va bene. parlamente, ma certi confronti tienili per te 😀 ,
@@CitizenGattoMatto È importante tener conto di entrambi. Oggi anche le tech hanno il peso, non sono il 100% della scheda, ma vanno prese in analisi oer confrontare i prodotti, perché cambiano di fatto le carte in regola come 10 anni fa le cambiavano il fatto di avere più o meno ram, più o meno core etc.
Tutti i frame sono finti, sono tutti generati dalla scheda. Il come conta poco, è il risultato finale che vuoi confrontare, tenendo conto anche di fattori come consumi, prezzo e supporto.
Io sono contro gli estremi, e quello che fanno i produttori è venderti il prodotto. Dire che la 4070 va come una 4090 è marketing, loro devono vendere. Non giudico, nemmeno approvo. Vanno aspettate le recensioni di chi ha competenza nel settore, e poi si valutano. Le affermazioni dell'oste lasciano sempre il tempo che trovano.
Quale è la tua età Moredentech?
L'unica cosa che mi piace del dlss è che implementa il dlaa con la possibilità di usare il frame generation... senza creare il ghosting...
Il fatto che si posso forza il dlss 4 tramite nvidia App mi preoccupa visto che ci sono titoli che vanno a disattivare nelle impostazioni il dlss ... ad esempio warhammer space marine 2 in quanto aggiornare il dlss presente ad una versione più aggiornata lo rileva come cheat...
Epic store invece dopo 2-3 giorni aggiorna forzatamente il gioco in cui hai cambiato il dlss , quindi una vera rottura
Spero che il dlss 4 porti un dlaa migliorato sulla base delle prestazioni.. 👍👍 del resto sono contento di queste novità per la prima volta
ti ricordo che un'applicazione tramite driver sarà sempre inferiore a una interna a un gioco, la prova definitiva è amd con adrenaline o come si scrive
@ZEUS_STARS_OP se parli del forzare il dlss nei titoli.. oddio dipende dal dlss .. la versione 3.8.1 è la migliore di tutte ...
Cmq vedremo sto dlss 4.0 .. il dlss crea troppo ghosting figuriamoci con il x3... vedremo
Complimenti.
Grazie caro
Grazie mille dei complimenti quanti anni hai?
Sarebbe da capire una 5070 liscia in raster quanto va di più della 4070ti.
Vedendo il grafico sul sito nvidia che paragona la 5070 alla 4070 liscia con uno stimato +15%, essendo la 4070 super +15% sulla 4070 liscia mi verrebbe da dire che la 5070 vada quasi uguale alla 4070 super
@ilNeme84 se questa tua diagnosi fosse giusta avremmo una scheda che "segmenta" la famiglia 70 e ci dà prestazioni simili alla gen precedente.
Una volta Nvidia tra 70 e 70ti ci faceva passare una generazione e quel 20*100 lo garantiva. Oggi praticamente ci fa credere che la 70 liscia costa poco invece va come la gen precedente nella stessa fascia.
Che poi 650€ non ci compri nulla ma non sono pochi soldi
Le tecnologie sono fantastiche e utilissime. Meno se servono a coprire carenze in raster.
Parliamoci chiaro: la 5070 ha 12Gb con un bus castrato.
Perfino la distanza tra 5090 e 5080 è enorme.
è chiaro ormai ciò che stanno facendo, il vero salto gen to gen sarà sempre la 90 a prezzi folli, per poi dare alle persone "normali" le 80 70 a prezzi decenti seppur alti ma con schede castrate. Secondo me la 5080 per aver senso dovrebbe andare come la 90 e costare 999 euro anche con i 16gb di vram.
Belli gli occhiali con i mirini laser
Servono per puntare gli hater
@MoreThanTech 🤣
Grazie della bella recensione finalmente qualcosa di sostanza vera. A questo punto il dlss 4.5 sarà veramente ottimo
Non ho capito però perché il 4.5 dovrebbe essere una versione a cui ambire in base a quanto ho riportato nel video
@ Perché se già va bene così sarà ancora meglio con il 4.5
Sì chiaro, ma non vedo quale lacuna si possa colmare ancora per cui tu ambisca all’uscita di una revisione ulteriore
Questo intendo 👀
@ scusami, non intendevo dire che ambisco ad un ulteriore versione migliore, ma conoscendo la situazione delle 4000 so che probabilmente uscirà e so che se comunque ci sarà qualcosa da migliorare lo faranno tutto qua. Scusa se ti ho fatto perdere tempo ⏱️
Wei moredentech quale è la tua età????
Ma li cazzi tua no?
Prendo
Cosa prendi?
Io non ci vedo niente di male nel dlss4... anzi... ogni volta nvidia dimostra di fare passi da gigante
Grazie x il video
ALE MA CLVP CHE FINE HA FATTO??
È uscito un episodio a fine dicembre
Siamo in un periodo denso di uscite, non ha senso fare CLVP quando ci sono cose time sensitive di cui parlare per mesi
Ok!@@MoreThanTech
sono frame fake inutile adesso farli passare per rivoluzione
Mai parlato di rivoluzione, semplicemente sono l’unica tecnologia che dia un vantaggio in maniera concreta (sulla carta)
Chiamarli fake frames è abbastanza riduttivo, sono percettibili per quello che ho provato
@@MoreThanTech non metto in dubbio la qualità di quello che fanno, nel senso di fake che non sono frame realmente generati e comandati.ma una post elaborazione del frame originale che a sua volta viene ricreato da frame generato .
@@gamedevunity3dliviopanizzi170 Non è una rivoluzione? Fino a qualche anno fa sta roba era solo fantascienza. Senza la IA il path tracing real-time sarebbe semplicemente impossibile.
Ottimo video.
Troppi se e troppi ma . Se mi chiedi 800 euro per una scheda video nuova vorrei comprare un hardware avanzato non una sfilza di trucchetti che funzionano solo a determinate condizioni. Magari mi sbaglio ma sento puzza di bruciato.
anche perche' dubito che giochi molto vecchi avranno dlss 4 e multi frame generation.
@@Kouga-l1q ma secondo te una 5070 ti a 800 euro gli servono aiuti in giochi molto vecchi come dici tu?
@@Kouga-l1qPerché mai dovresti volere una 5000 per giocare a giochi molto vecchi? 😂😂😂
Perché non hai capito che avere anche solo la metà del salto tecnico che chiedete voi costerebbe troppo tempo e soldi, siamo vicini al limite hardware (ed in alcuni ambiti e casi anche letteralmente quello fisico) e fareste bene a rassegnarvi ad accettare che questo è il futuro perché diventerà sempre più evidente.
@@kuro-raiki-gpcstrano, io che mi aspettavo schede a 2nm e 80w con le stesse performance di una 4090
Conta solo il raster, il resto sono trucchi artificiali di psico-ottica, allucinazioni
Anche il raster è un allucinazione, una scena imbastita ad arte con luci artificiali in punto innaturali e oggetti da scena per darti l'illusione di star guardando una scena realistica.
TI concedo che sia una soluzione del genere sia più leggera da calcolare, ma servono anche molte più risorse e tempo per realizzarla, introducendo anche problemi come ad esempio il pop in delle ombre (il famoso cerchio attorno al protagonista), e questo si traduce in uno sviluppo almeno due o tre volte più costoso (soldi e tempo).
Un genio sei...
anche Bryan Catanzaro durante la presentazione ha affermato che produrre schede che in raster, con questi giochi sempre più pesanti, sono super costose da produrre. Quindi dire che conta solo questo è una cazzata assurda e basta guardare la diffusione del dlss al day one di ogni singolo gioco
@@CrashDrake- avresti ragione se non fosse che il 90% dei giochi attuali in ray tracing o path tracing non sono realistici, anzi sono meno realistici che in raster, perché tra rumore, algoritmi di riduzione rumore ecc si vanno a inventare soluzioni che in natura non esistono...
Un esempio é proprio Cyberpunk, dove in raytracing cambia la scena, cambiano le superfici e le textures, diventando irrealistici e fornendo soluzioni visive che nella realtà non esistono, sopratutto i riflessi, che per pensare che siano realistici bisogna non uscire mai di casa.
Idem Alan Wake, in molte situazioni per trovarlo realistico dovete non aver mai visto un bosco od un paesaggio rurale. Ed in Raster queste cose sono davvero mitigate in raster, nonostante abbia altri problemi
@@fazza92u34 Direi piuttosto che i casi da te citati sono più realistici del raster, poiché hai giochi di luci fedeli visto che sono ricostruiti in RT, che per definizione simila io reale comportamento della luce. Direi piuttosto che a te non piace l'effetto, e ci sta, ma è diverso da ciò che hai detto.
Il fatto che dici tu, per esempio citando il bosco rurale, quella è la realtà. Realistico vuol dire che si aspira a sembrare vero, ma ovviamente è finto. Il bosco è semplicemente diverso perché un computer non ce la sarebbe a gestirne uno vero. Non ancora, con la IA, è possibile raggiungere un realismo sempre più spinto.
La generazione delle facce non mi impressiona, oggi, ne 2025. Vogliamo parlare di Detroit become human del 2018?
Giocone, però essendo praticamente un punta e clicca avanzato non veniva leso più di tanto da bassi fps, nè li richiedeva
Basta video di computer bastaaaaaaaaa
E cosa dovrei fare scusa?
Sono letteralmente un canale verticale su PC, tech e postazioni 😂
@@MoreThanTechahahaha d’ora in poi video di cucina!
Video di cucina!!!!!
@@AlessandroPizzi01si veramente basta video di computer fai video di qualche piatto in cucina
Non c'erano lavatrici al CES?
Se Nvidia è giunta al limite della forza bruta può anche smettere di buttar fuori nuove schede e migliorare i driver. Ma no, il consumatore continua a comprare e Nvidia a vendere. E alza pure il prezzo! Perché Nvidia non è stupida.
Stiamo a vedere i test tra qualche settimana...
I driver non possono avere la stessa influenza di un upgrade generazionale o di un upscaler, a meno che non si parli di un precedente problema come visto su ARC
@@MoreThanTech Con una GPU che sta sul mercato da soli due anni i driver migliori la possono spremere ancora, così come i programmatori dei giochi. Belle tutte le tecnologie software che Nvidia butta fuori eh! Nvidia user here! Ma quando Nvidia mi mordicchia il lobo dell'orecchio sussurrandomi che mi ama per la mia intelligenza, mi si attivano i sensi di ragno
Sì ma spremere è una questione di meno del 10% nel migliorissimo dei casi (sempre se non si parta da un principio di precedente negligenza, quindi non un guadagno ma un recupero)
@@MoreThanTech Mah, tra driver, nuove tecnologie retrocompatibili e programmazione dei giochi secondo me si può fare molto meglio. Comunque stiamo a vedere i test...
Devono vendere e sono spinti ad enfatizzare anche i piccoli miglioramenti e cercare di convincervi ad aprire il portafoglio ( anche se tutto sommato non ne avete bisogno)
Per quanto mi riguarda, il concetto di raster è da superare. Gli algoritmi deterministici che si usano da sempre hanno raggiunto il loro limite, gli algoritmi probabilistici che usano invece i calcoli tramite IA, stanno mostrando risultati molto più interessanti. Si, sono più pesanti, ma la tecnologia in grado di fare questi calcoli è molto più scalare, basti vedere come migliorano di anno in anno le performance IA di tutti i nostri processori grafici, in ogni ambito, non solo schede video per gaming.
Parlando di solo gaming, la tecnologia per far girare bene un gioco con l'IA ormai c'è, e sarebbe un vantaggio enorme che tutti i dev usassero queste tecnologie, anche per noi giocatori. Per farla semplice, costruire e progettare una scena in RT (parlo quindi da parte dello sviluppatore) è un processo molto più facile e veloce rispetto ad una scena in rasterizzazione, dove devi simulare i comportamenti dei soggetti alla luce introducendo tanti piccoli magheggi, con due grandi effetti: un sacco di tempo da dedicare, e l'introduzione di tantissimi elementi complementari, che nell'insieme, danno più possibilità alla rottura dell'illusione (esempio banale: il pop in per dirne una).
Per uno sviluppatore, costruire una scena in RT e basta si tradurrebbe in spendere meno tempo e meno risorse nello sviluppo del suo gioco. Vuol dire budget sensibilmente ridotti, e tempi di sviluppo dimezzati. Si potrebbe pensare di nuovo di rischiare, senza che un flop determini il fallimento di uno studio.
È auspicabile un simile progresso, e Nvidia ha fatto da apripista, ma gli altri devono stare al passo. AMD ha avuto almeno 6 anni per seguire quella scia, Intel ha già iniziato meglio in tal senso, con performance migliori in RT e tech rispetto ad AMD, quindi capisco il discorso sul finale del video, sulla esclusività delle tecnologie, però AMD è rimasta a guardare, e solo ora sta facendo la sua tech esclusiva, che ha palesemente più vantaggio rispetto a quella standard open source. Magari, si può sperare in un futuro dove tutte questa tecnologie non richiedano lavoro da parte degli sviluppatori per implementarle sui giochi, in modo da avere la massima compatibilità possibile.
Se devi comprare hardware ovvero potenza pura, solo il raster (il dato RAW, grezzo) ha senso per fare comparazioni. Il resto ha si il suo valore ma me lo vendi come software e qui si aprono problemi perchè allora si creano tante line di software quanto sono i brands
@glubrix il sw è da sempre più scalabile dell'hw. Non vedo problemi nell'avere tanti software, specie se si trova il modo di sfruttarli facilmente.
La potenza pura ha i suoi limiti, i calcoli IA ne hanno di meno, conviene puntare ora su quella strada... Anche perché un sw può aggiornarsi e migliorare nel tempo, l'hw invece invecchia.
Peggior generaziome di sempre peggiore anche delle rtx 2000, se questo è il futuro per nvidia ciaone.
Inizia a porti la domanda che non ci hai capito un cazzo. Anche perchè la serie 2000 era talmente "cattiva" rispetto alla serie 1000 che la 1000 è morta, la 2000 sta ancora a far girare Indiana Jones e a ricevere gli update tecnologici. Ma per favore.