Lo que ustedes no entienden es que alcanzar 240 FPS en 4K nativos implica procesar 2 mil millones de píxeles por segundo, lo cual es una demanda monumental. Incluso la RTX 5090, con toda su potencia bruta, no está diseñada para manejar esa carga de manera consistente. Crear una GPU capaz de ofrecer 240 FPS en 4K nativos no solo sería técnicamente inviable por las limitaciones actuales, sino que también requeriría un consumo energético excesivo y costos de fabricación que la harían inaccesible para la mayoría de personas
pero ahi estan los pro amd ,quieren todo por potencia bruta y eso es imposible a menos que quieras tener una gpu de tres metros dentro de un case de 4 metros
te confundiste la 5080 puede con el ancho de banda... el problema lo tendrías con el cable HDMI o DisplayPort... ya que 4k a 240fps tendrías problemas si no tenes buen cable de conexion
@@miguelhuertas115 que yo sepa ya hay monitores que llegan hasta 240hz osea que se puedan percibir esos 240fps, asi que supongo lo hacen porque de alguna forma hay que vender esos monitores xd
La gente le tiene miedo al avance y a la evolución. Algunos no se enteran que cada vez los juegos son más pesados, que usan motores gráficos muy complejos, que en algunos juegos están literalmente renderizado una película con un PC doméstico. Es cierto que algunos juegos están mal optimizados y algunas desarrolladoras se aprovechan de eso.
@@carlosgerardodias2263 El avance es optimizar fatal. Uncharted 4 o Red Dead redemption 2 piden una gtx1060, ¿se ven peor o mucho peor que algún juego actual? A simple vista yo veo mejor el Uncharted 4 que el Alan wake 2 por ejemplo y con Alan wake 2 cuesta sacar los 60fps. 0 optimización para clavar dlss/fsr y poco poco avance gráfico.
En 4k con una 4080 super, gráficos al máximo, Ray tracing, DLSS con FG (lo tengo pendiente de jugar pero si que lo probé en el comienzo) y tiene una media de 65fps. Si me están diciendo que los juegos han mejorado tanto gráficamente como para que la segunda gráfica más potente del mercado apenas pueda mover el juego de forma fluido, entonces una de dos, o los desarrolladores no se molestan en optimizar los juegos porque la IA de las gráficas les vienes muy bien porque se puede sacar 60 fps decentes o las gráficas no han mejorado tanto como nos hacen ver. Y me da a mí que me quedo con la primera. El DLSS y el FG deberían servir uno, para poder jugar a los juegos de una forma muy fluida obteniendo altos fps cuando los activas y dos, para alargar la vida de las tarjetas gráficas, para poder llegar a esos mínimos 60fps que hacen que un juego no de toc jugarlo cuando la tarjeta ya tiene unos años y los juegos sean de generaciones siguientes. La 5080 será increíble con su DLSS 4 que va ha hacer que se multipliquen los fps por 4, pues ya veréis que poco tardan los próximos juegos en hacer que con todo eso activo, apenas los puedas mover más allá de los 60 o 70 dos y será porque la optimización de los juegos será mucho peor aprovechando la IA. Y si, se que se pueden bajar las configuraciones gráficas para obtener más FPS y se que no es un sacrilegio hacerlo para disfrutar de un juego, pero si uno se gasta 1300€ en una tarjeta gráfica, lo mínimo que espera es que esos juegos AAA "increíbles" de la misma generación que la misma tarjeta gráfica los pueda jugar con todo al máximo y con un mínimo de fluidez más allá del estándar de los 60fps de hace 10 o 15 años.
@@carlosgerardodias2263 la gente no entiende aún lo que es renderizar una escena o videojuego en tiempo real frame a frame con iluminación en tiempo real
La polémica es que para uso profesional, en rendimiento para bruto y cálculos no precargados en los juegos ya entrenados para la IA dlss4, sino para desarrollo realmente rinde mucho menos, hay mucha gente que compra las gráficas con doble intención, no solo el lúdico sino el profesional.
@@leonbenhur8218 Saca la cuenta de cuanta potencia de raster tendrías que necesitar para obtener el mismo resultado que con IA. A demás de que DLSS no es solo software, necesita los tensor cores para funcionar y lo mismo con el frame generation que necesita el optical flow accelerator. Al final solo te están cambiando el raster por IA porque es más eficiente y escalable a largo plazo.
@@angelaranda755pero a fin de cuentas en que ayudará tener todo esos tensor cores si solos los puedes usar en juegos, que por cierto tienen que ser específicos porque no todos cuentan con ddls, eso pues deja mucho que desear.
@@SkylineC Sillent hill lo jugue sin FG, pero si, no dudo que juegos tengan problemas con el FG, ya me ha pasado, pero despues de algunas actualizaciones se corrige todo.
El último Dlss ya se ve casi igual que 4K nativos, y lo del multi frame generation es una locura, no me cabe duda que los problemas de ghosting y latencia serán solucionados en el futuro cercano,la 5070 de 549 dólares sera muchísimo más potente que una PS5 Pro
alex tengo una observación!: recuerdas que en el pasado cuando se llego al limite de ghz por temperaturas en los procesadores comenzaron a meter procesadores mas pequeños y de esa forma seguir aumentando, de ahi nacen los "CORE" que conocemos de toda la vida , que pasa si en tecnologia de tarjetas graficas ya estan en el limite y los AI TOPS sean la unica forma de aumentar rendimiento de cara al futuro ?
@@HobbyPCMasterRace El calor tambien, si nvidia no se ahorra CUDA cores los chips serán monstruosos con TDPs de 1000w pero lo están balanceando metiéndole mas y mas núcleos para dlss y entrenando la ia en su super computadora, o sino es un desperdicio hacer chips tan caros e ineficientes, Por cierto para hacer sus super computadoras hicieron básicamente lo que dijiste, super chips con cantidades de nucleos CUDA monstruosos para poder optimizar las IAs de sus productos finales.
que pereza tiene que dar tener que intentar explicarle todas las tecnologias nuevas a gente que no las ha probado y no las entiende y solo van a criticar porque es lo que han oido xD
Veo ya juegos en un futuro cercano, con potencia bruta a 5 fps y con el DLSS 4 llegar a 70fps 😅 . Esto vuelve más perezosos los desarrolladores, en PC la optimización va a ser con el CU.
@@santostian1437 si tan solo la gente dejara de comprar esos juegos que salen mal y dejar de llevarse por el hype y hacer de beta tester talves las cosas cambien...
Sí y no. En sí, sería aún más benéfico lo que dices. ¿Por qué lo digo? Para optimizar un juego hay que "downgradear" el juego, y es que no hay otra forma de optimizar un juego más que recortando gráficos. ¿y esto que conlleva? pues mayor tiempo de desarrollo y pérdida en la cálidad gráfica final. Eventualmente si esto sigue así, las gráficas sin IA estarán descontinuadas. Pero no le veo mayor problema, mientras la cálidad gráfica no se vea afectada y tenga buen rendimiento, sigue siendo funcional.
Si tan solo trabajaras o estudiaras para entender cómo funciona lo nuevo, verías que complejo es y no es falta de optimización, es que esa tecnología es sumamente pesada de procesar. Pero ni entendían sus clases de física básica que van a andar entendiendo estas cosas xd
Buen video alex! En el minuto 7:44 vemos el rendimiento en esa demostración, 148 fps usando el dlss4 en performance mas el MFG x4, Para saber el rendimiento real sin esos frames extras podemos calcular 37x4 nos da un total de 148fps es decir que con el dlss en performance llegan a 37fps y de ahi hacen el x4, Sinceramente viendo que eso es una 5090, no me parece un rendimiento super loco hay que pensar que al usar el dlss performance como tu dices, se renderiza a 1080p y se rescala a 4k, vamos a tardar muchas generaciones en alcanzar al menos 4K60fps con dlss calidad y en nativo ya ni te cuento.
además del competitivo, en los juegos de PCVR ocurre lo mismo: como mucho, algunos títulos utilizan DLSS 2.0, pero sin ningún tipo de generación de frames, ya que esta latencia generaría incomodidad e incluso mareos. Quizás en juegos 2D no haya problema, pero en realidad virtual no se lleva bien. Por eso, la gran mayoría de los títulos de PCVR emplean rasterización normal, sin esos efectos.
que mas da si usa fuerza bruta o IA, lo importante es el resultado final y sinceramente, es impresionante, porque estas calidades a esos fotogramas tan altos de hasta 240hz en monitores 4k seria imposible sin la tecnologia.
Conoces el concepto de Input lag? Lit es imposible desaparecer un input lag tan bestia, por cada 10 fotogramas solo 2 son verdaderos Es una pndjada qué de 20 Fps saque 240 Fps o más, Cada que le vayas a dar a un botón el personaje tardará mil años en reaccionar.
Pero es que bro, no solo hablamos de juegos, las tarjetas gráficas nvidia están vendiendo lo que no son idealizando la inteligencia artificial aún cuando están imperfecto, ya veremos si eres capaz de esperar 2 años a que un juego saque ddls.
@@GUILLERMO03 jajaj no justo para eso reflex 2 y frame warp el input lag solo ha aumentado 10 ms con respecto a nativo y han pensado incluso en competitivo para lo jugadores de shooters con mirar la web de nvidia y a los techtubers que ya lo han probado en vivo confirman que el input lag no ha aumentado incluso es menos que con la serie 40 incluso en algunos shooters como valorant esta dando 2 de ms de latencia en pc
Y si, creo que llegaremos al dia en que necesitemos IA hasta para ir al baño y no pasa nada antes ibamos a oscuras cuando no existía la electricidad xd.
La ia te pone a bailar/cantar fotos, hasta imita voces de cantantes, etc, ya todo lo que viene será basado en inteligencia artificial, son resultados no al 100% perfectos, aún así es lo que viene por delante.
@@luisdjz totalmente, ya la capacidad de los procesadores gráficos no soportan tanta carga, por lo que la IA se vuelve vital para seguir a la vanguardia.
La gente tiene que entender que el silicio está llegando a su tope de capacidad. Si literalmente estamos llegando la limite de lo que se puede hacer con dicho material y lo que se hace Nvidia es hacer avances gigantescos en la IA para no depender solamente de de la fuerza bruta. Desafortunadamente a día de hoy no hay un material que pueda reemplazar al silicio de entrada, aunque hay candidatos, aún hay problemas que deben solventar y hacer investigaciones. Yo personalmente estoy asombrado de lo está logrando Nvidia, si la tecnología se perfecciona no veo porque seria negativo, siempre me ha molestado como la gente se ruhusa al avance de la tecnología, es bien estúpido. Edit: De lo qué deberían quejarse todos es como los desarrolladores no optimizan sus juegos, no echarle la culpa a una tecnología revolucionaria. Dejen de odiar tan mal encaminadamente.
Creo que la queja no va tanto por el uso de IA en sus GPUs, sino que la forma en que venden sus gráficas. En la conferencia Nvidia puso "Performance" de RTX 5070 = RTX 4090, pero sin específicar a qué rendimiento se refiere, ya que este tipo de hardware tienen uso profesional. Finalmente, su aplicación es en gaming, donde utiliza el sistema de MFG (multi frame generation), llegando a cuatriplicar los cuadros con inteligencia artificial, pero con una latencia limitada a la cantidad de FPS con DLSS 4 ¿Qué significa esto? Que la respuesta de los controles no estará sincronizada con la fluidez del juego, por lo que el movimiento va a tener un breve desfase. Es increíble que estas tecnologías presenten grandes avances, pienso comprar la 5070, lo único que me preocupa es la cantidad de Vram que trae, hay juegos modernos que de por sí no aceptan menos de 6 - 8, por lo que su vigencia estará controlada por la evolución de los requerimientos en el hardware.
pero los framnes que genera la inteligencia artificial se ve igual de bien pues cual es el problema, que sigan asi cada vez tenemos graficas que consuman menos y tengan mejor rendimiento
El problema es que esa tecnologia no esta disponible en las 4000, la misma jugada que hicieron en las 4000 con el Frame Generation respecto a las 3000, es una estratagema para que compres las revisiones de sus GPU jugando con la obsolescencia programada. De las 3000 a las 4000 bajaron el ancho de banda de la VRAM a la mitad en la 4060 le quitaron 4 GB pasando de un ancho de banda de 192 bits (RTX 3060 12 GB) a tan solo 128 bits, la 3060 TI tenia 256 Bits con 8 GB, RTX 4060 TI 128 bits 8 GB.
@@juan1911 Quitando el lado malo, el mercado y la jugada sucia de Nvidia, es lo que hay lamentablemente, sigue siendo una avance brutal en respecto a como se utiliza la IA y lo que pueden llegar a hacer.
He probado el tema del imput lag en varios juegos competitivos (Marvel Rivals y Forza Horizon 5) y creo que la gente le da mas importancia de la que tiene realmente, testeando el maximo de imput lag que he podido conseguir en marvel Rivals, 40fps y cuando activo el FG pasa a 60fps todo al maximo en 4K ultra nativo y FG ( 70-80ms) vs DLSS rendimiento, medio y FG desactivado (20-30ms), si que es cierto que el juego se siente mejor y mas fluido a 20-30ms que a 70-80ms, pero vamos haciendo la prueba me acabo de sacar un MVP usando a Starlord (personaje que se basa en la punteria con pistolas, donde se supone que mas se nota el imput lag) con 80ms de imput lag para que veais lo que afecta al rendimiento , tengo que decir que en configuraciones normales, con FG activado paso de 25ms de media a 40ms, en ese caso el cambio es apenas apreciable, y no va a afectar al rendimiento de alguien a nivel promedio, pero vamos que el Yoya en un monitor de 60HZ y con 100ms de imput lag va a seguir dando una paliza a Manolo plata 4 con un monitor de 1000hz y un imput lag de 2ms
El problema es que la gente no sabe cómo funciona el ray tracing, para una gráfica tan primitiva como la nueva generación 50 el Ray tracing le sigue dando muy fuerte a la GPU, no por algo en el cine hacer 24 FPS con Ray tracing completo se demoran horas o hasta días ( ya que el Ray tracing de nvidia no es completo y solo usa algunas partes del ray tracing) y por eso en las películas se demoran 24 horas o más en renderizar 5 fotogramas con máquinas 7000 mil veces más potente Así que si quieren Ray tracing tienen que tragarse la IA a mascadas Pero si no es así, entonces quejense lo malo es que para los desarrolladores de videojuegos el Ray tracing les ahorra mucho tiempo por lo que es el futuro, así que quejense pero ni modo, no van a poder hacer nada XDD
Interesante Video!! Las TVs LG desde el 2010 hace eso pero con un LAG grande, en la era del Play 3 y 4 Jugaba con esa "latencia" a 60Hrz y 120Hrz, desde una salida nativa de 30 p 60 fps, tenía un retraso como de un cuarto de segundo, que si era perceptible, pero ahí estaba desde ese entonces. Ahora tengo una TV TCL para mi PS5 que no tiene eso, la neta hasta lo extraño sobre todo cuando los juegos no requieren una super reacción, y ahora pues depende del juego y de las exigencias de uno es como jugarlo.
con la llegada de Marvel Rivals parece que si que no están del todo pensando en tener una optimización tan brutal como en otros juegos competitivos y es que cada vez se esta poniendo mas de "moda" usar el Unreal Engine 5 como motor grafico, sin embargo, para juegos competitivos vaya que es demasiada carga grafica si no estas siempre con las generaciones actuales de graficas
Me gusta el precio de las nuevas tarjetas, pero lo de los upscalers la verdad es que nvidia quiere promocionarla para sacar mayor dinero a menores costos, cuando DLSS y FSR sean la norma genial, mientras no hay nada como jugar a resolución nativa tus juegos. Algo que sí es bueno es que muchos usuarios eventualmente tendrán tarjetas de video para rato si los reescaladores se usasen siempre en el futuro
Hay q ver cuándo salga, porq de momento me suena al lossless. Ademas q sea exclusivo de serie 50 jajs podian colocar tambien a las otras tarjetas si bien no por x4 por 3 pero bueno obsolescencia programada pero por toda la cara
pues no le hayo ni un sentido a tu comentario ponte la pilas amd intel te deja abajo sigues por ese camino ya aprendieron rdna 4 que es lo mismo dlss pero peor
los que piensan que teniendo 20 fps de base y activando dlss 4 van a poder jugar a 100 fps y sin que se note, van a llevarse una hostia bastante fuerte.
yo creo que la explicacion simple es graficos generados por hardware y graficos generados por software pero llamarlo falso es demasiado por que que es real en esto de losgraficos absolutamente nada
La gente parece no entender que Frame Generation no son fotogramas falsos, no es interpolación como FSR que promedia 2 frames y te hace uno intermedio mediante puro software. FG y MFG literalmeente crean y procesan los fotogramas en el Optical Flow Aceleration que usa la información de los vectores de movimiento de los fotogramas base, y este procesado se logra con la potencia de los Tensor Cores. Es decir se estan procesando con Hardware Físico, no con software únicamente. La diferencia está en como se generan estos fotogramas, no será por potencia bruta de renderizado (Cuda Cores), pero de que es una potencia en IA lo es, porque usa piezas físicas para generar esos cuadros.
Acabas de confundir el fsr con interpolación, fsr no hace interpolación sino el fluid motion frames, segundo la tecnica de envidia es un nuevo tipo de interpoladi, que si sigue metiendo muchisimo imput lag, o eso muestra en las pruebas que se estan haciendo en el ces, igual y luego lo solucionan.
@@awaken5622 De que rayos hablas, si está demostrado que Dlss ya se ve mucho mejor que el rasterizado nativo en la gran mayoría de los casos, y ni que mencionar en DLAA. Esto porque la interfaz neural fue entrenada con imágenes en 16K. Hay cientos de reviews que lo confirman.
@@josuyelin Revisa la documentación de AMD, ahí viene que es interpolación de 2 cuadros y los promedia. Y por ende genera muchísima latencia, y también se nota al poner algun contador de cuadros y verás que no te los refleja porque son "falsos". En Nvidia la latencia es prácticamente nulas porque la tecnología de nvidia reflex lo mitiga, y con la nueva versión será aún mejor. Ve las comparativas de digital foundy.
@@link1219 no hay latencia nula, en la demo del ces de Nvidia peudes ver que tiene 50ms de latencia, porque cuadros falsos es cualquier cuadro que no ea el que genero el juego con la potencia de la propia gpu, con mayor o menor latencia peros iguen sin ser reales, y por ende siemrpe hay lag, pro esos acaron el reflex 2, que sin eso me imagino que la latencia se iria a 100ms, y mientras menor sean los fps base, mayor sera esa latencia. pero no puede ser nula a menos que los cuadros fueran generados de base, principalmente porque no puedes hacer saltos en el tiempo.
Los juegos competitivos no usan frame generation es mas ni traen la opcion y nvidia lo sabe y por eso ha mejorado la fuerza bruta en 25% y el nuevo reflex 2 con frame warp ya hay pruebas en valorant donde juegan a altisimos fps con 2 ms de latencia, ademas si hubieran tirado por solo fuerza bruta los consumos de watts se hubiera ido por los aires y no hubieron podido dar esos precios competitivos pero hay varios que no lo analizan el raster ya esta quedando obsoleto ya que para el usuario no es conveniente por tema de costos si hubieran tirado por fuerza bruta la 5070 hubiera salido en 800 dolares aproximadamente y la serie 5060 en 500 a 600 dolares, e igual la gente se hubiera quejado
Sinceramente veo hasta estúpido el hecho de llamarlos "frames falsos", es decir, cada vez la humanidad avanza a pasos gigantescos y negar el progreso y básicamente tener las de perder... La gente no acepta que el gaming esta teniendo una evolución y más específicamente en el modo de jugar y desarrollar, veo a muchos alterados por el falso rendimiento de la serie 5000 cuando en realidad es una revolución total de como conocíamos los procesos de ciertas cosas... Si no se quieren montar, esta bien, o lo hagan, pero de ahora en adelante va a seguir siendo así y no va a cambiar. Felicidades a Nvidea y sorprendió con lo bien que hicieron las cosas esta vez.
Hay mucha gente q no entendió nada el dlss 4 también está en la serie 4mil,lo único exclusivo de la serie 5mil es el MFG y es por software y no por hardware se activa desde el panel de control de nvidia
La realidad que en un caso como el mío, en el cual juego prácticamente en VR (simracing) la diferencia que hay entre modelos serie 40 y 50 es poca. En estos casos el dlss no es una opción viable y se necesita más de potencia bruta. Para el resto de casos puede ser que sea una buena opción, ahora si tienes una serie 40 no cambies a la 50. No te hará falta para correr los juegos, espera mejor un par de años a por la serie 60.
Estoy de acuerdo, en juegos single player me importa mas como se ve graficamente y como se ve de fluida la imagen, mas que si agrego 20mls mas de latencia o no. Lo que deberia de importar, es ver si esos fps generados x4, no genera muchos artefactos, ya en la generacion por cuadros normal aveces se llegan a ver uno que otro problema.
148 fps con sensación de 28, porque de momento el frametime se mantiene altisimo, a 50ms nose si ya vieron las pruebas, y si metes el antilag lo reduces un poco, pero en ese caso mejor no pones el framegeneration, y usas el antilag para que se sienta mejor. No es que ses inperseptible eso seria si juegas sin moverte, pero cuando te vaa moviendo de forma fluida sientes como que moverte pesa, y es un poco incomodo,
Esta latencia es con una configuración DEMENCIAL así que en competitivos puede que experimentes la latencia pura de la PC. Tambien tengan en cuenta que la latencia de la PC tiene un minimo no es posible bajar de eso, da igual que vayas con 1ms en render latency El PC tendra por lo mismo siempre 35-40ms de latencia por lo que sea.
Hay que tener en cuenta también que de esos 140 fps que se mostró en el video tú solo estás controlando los 20 que verdaderamente te está dando tu gráfica así que aunque aún he visto un video donde pongan a prueba esto pienso que debe sentirse algo extraño
No existe ningún juego competitivo que sea tan pesado como Cyberpunk. Con una 4070 a 1440 van a más de 160 FPS. EL raster de Nvidia es suficiente para esto, sin embargo, para juegos gráficamente pesados si es necesario DLSS.
Puedes tener 300 fps, pero en realidad los fps que cuentan son los reales, no te daran ninguna ventaja a la hora de jugar, por eso recomiendan el FG por encima de los 60fps.
Una pregunta, soy totalmente ignorante de la tecnología de PC. ¿Estas tarjetas gráficas con ia para rescalar los juegos funcionan sin haber internet de por medio? Si yo no tengo conexión y quiero jugar mis juegos instalados, ¿Funciona igual?
Si la IA funciona por hardware no por software. Lo que si te digo es que el reescalado funciona genial, pero la latencia de fg es muy incomodo ya que si mueves tu raton vas a ver como el cursor en el monitor se mueve con delay. Aunque Alex diga que no se nota, es mentira si se nota, quiza si juegas con un control lo notas menos pero con un cursor es muy molesto.
Eventualmente los juegos van a funcionar solo con Ray Tracing, eliminar la iliuminación por rasterizado ahorraría mucho tiempo de desarrollo en los juegos. Es inevitable, por más que digan que es que esos no son "Frames Fieles u Originales" Al final ni lo notan, fisicamente es imposible que lo noten en tiempo real, no pueden saber cual es el Frame original y cual el generado. No es como que se vayan a poner a pausar el juego cada 50ms (que es prácitcamente imposible hacerlo a voluntad y si pasa sería más por suerte) para decir: "este frame es falso"
El verdadero problma es que los juegos no estan bien optimizados practicamente tienen tanto detalle que necesitan enborronarlo con TAA y reescalados para que se pueda jugar lo cual no tiene sentido pero la culpa en parte la tiene envidia con el marketing del dlss y rtx las empresas de videojuegos se volvieron flojas y ya no optimizan la iluminacion ni las mallas 3d en parte culpa de unreal engine tambien. Es por eso que el dlss no deve tomarse como algo bueno o positivo en mi opinion ya que en principio es una tegnologia buena pero el problema es que como la mayoria de personas tiene graficas nvidia las desarrolladoras cada vez hacen peores juegos y cada vez se hace mas incapie en mas poder de dlss cosa que es un bucle que no va a terminar nada bien ya estamos viendo practicamente graficos de ps3 que requieren 100 teraflops de poder para poder moverse a miseros frames 😢
El problema de la generacion de fotogramas es que tienes que tener una buena tasa de FPS para no tener latencia, si un juego te va a 30fps si usas FG vas a tener un imput lag enorme pero si tienes 76 o 90 no vas a tener problema y lo vas a gozar.
Efectivamente. Si tienes activado FG y obtienes 60 FPS, visualmente estás obteniendo 60 FPS, pero a nivel jugable es como si siguieras jugándolo a 30 FPS, lo que te da una latencia de 30ms. Es jugable? Si. Pero la sensación es rara y desagradable. Por eso recomiendan usar FG siempre y cuando tu juego funcione por lo menos entre 40 y 60 FPS mínimo SIN esta tecnología; de manera que, activandola, obtendrías en torno a unos 100-120 FPS y una latencia de unos 14-16 ms, lo cual es muy fluido tanto visual como jugablemente.
@@BreathStink 48 fps exactamente, se supone que reflex lo arregla quitandole la "sensación" ni un corredor de formula uno debería "sentirla" xd pero bueno son cosas que pasan
la gente vive a lo cromañón en sus cuevas y no se dan cuenta el salto en tecnologia y hacia donde va el futuro irremediablemente se quejen o no todos terminaran pasando por ese aro de comprarse una nueva gpu y activar la generacion de fotogramas para jugar a los ultimos titulos, monster hunter, alan wake, etc etc
@@nicane-9966tampoco es medio segundo de retraso, en caso de ser 50ms de latencia sería muchísimo menos que la latencia que percibes con un mando bluetooth o con audífonos
Y creeme que un jugador competitivo compraria una 5090 no una 5070 haci que el frame no te afectara especialmente si ya tienes la 4090 no necesitas una 5070 alomenos que estes desactualizado y tengas como una 2050-3050 o incluso 4050
Ahora resulta que el futuro es comprarte un monitor de 4k para que el dlss automàticamente te baje la resolucion a 1080p , cojonudo vaya tomadura de pelo. Demasiados vendedores por aqui.
@@orlandogarrido527 No es igual ni de broma, en los juegos pierdes una barbaridad de nitidez y detalles a lo lejos, sobretodo en juegos de estrategia y simuladores.
Te recuerdo que la tecnología avanza maestro... Va a llegar un punto donde se vea exactamente igual, de todas formas, imposible correr 4k a altos fps si que te saquen un ojo de la cara. La tecnología ya esta haciendo lo suyo y mostrando resultados viables @@Slickslot
@@Slickslot te recuerdo que no se que nivel de dlss usas, por qué el dlss 3 se ve igual a nativo incluso hay juegos que mejora la calidad de imagen, de hecho en este mismo canal lo mencionan
@@orlandogarrido527 amigo oficialmente queda demostrado q mejor q vaya pronto al oculista, dlss es una tecnica de reescalado basada en temporal antialiasing, lo q hace es literalmente emborronar la imagen para q sean menos perceptibles los detalles ocultando los errores de renderizado (mayormente las pifias q hacen los desarrolladores) un gamer un pelin mas ciego, es un gamer feliz dirian algunos
Siempre que no se engañe a la gente, y se sepa lo que está comprando no me parece mal. Estas tecnologías cada vez están más conseguidas, sin duda son el futuro. En cuanto a la presentación en el Ces de la 5070, analizándolo fríamente la información no llegaron a mentir en ningún momento. Creo que fue una paja mental por parte de muchos de nosotros a la hora de interpretar la información. Además, quizá el idioma tampoco ayudo mucho. Un saludo.
El problema es que la gente solo se ha quedado con lo de "la 5070 rinde como una 4090" y claro, es una verdad a medias. Seria contradictorio aparte para Nvidia que como justificamos ahora que sigamos teniendo las 4090 a mas de 2000€ si salen las 5070 por 650€... automaticamente se devaluarian las 4090
DF subio un analisis de la latencia con Multi FG+Reflex en CP2077 donde la minima con x2 es de 52ms y la maxima de x4 60ms, Esto equivale a una latencia real por debajo de 20FPS. y el estandar es 60FPS 16.6ms, yo veo al FG aun muy verde, quiza en un par de generaciones podamos tener FG sin inputlag y esto sera increible, pero de momento no recomiendo FG.
Para aportar algo de luz también al asunto decir que el techo tecnológico viene un poco condicionado por los fabricantes, al final solo existen dos fabricantes que pueden trabajar en esos tamaños de litografías ( TSMC Y SAMSUNG) , asi que por mucho que NVIDIA quiera depende de que estos fabricantes tengan esa tecnología desarrollada y que además como es obvio tiene un limite de fabricación anual y no todo se asigna a NVIDIA y menos a gaming, es mas, ahora ya sabemos que los procesos mas avanzados como 2 NM se van a priorizar para inteligencia interficial, que es lo que mas dinero da. NVIDIA esta forzada a buscar alternativas si quiere seguir ofreciendo mejor rendimiento a corto/medio plazo y seguir vendiendo un producto nuevo cada 2-3 años donde exista realmente un salto, aunque sea dependiendo de tecnologias como esta, xk en fuerza bruta le va a ser dificil seguir avanzando sin subir mucho los costes y los consumos.
Esto quiere decir que ya solo abra mejoras a la IA no habra mas potencia bruta y en el futuro los rt cores los cuda y todo disminuira excepto los AI TOPS
Que se dejen de tantísimos buenos graficos y de frames falsos y los desarrolladores hagan juegos divertidos, que la magia que tiene el mundo de los videojuegos se está perdiendo. Menos datos técnicos y más magia y diversión al crear videojuegos. La época de los 90, eso si era la edad dorada de este mundillo.
Veo tanta gente en los comentarios defendiendo el input lag y los artifacts que generan los fotogramas por IA que uno queda medio tonto. Me encanta Nvidia pero esta vez les vendieron la moto y sin motor xD.
Yo creo que si existe un error en Nvidia seria mostrar path tracing, yo personalmente prefiero full ray tracing tipo sombras reflejos y sombras del sol, se me iba el lightning. Apuesto que en rasterizado esa 5090 va muy bien, luego le agregas el frame generation x4 y dlss quality y pasas a 200 y resto fps, pero path tracing es demasiado. La gente ve dlss performance y se asusta, yo si te soy sincero no creo que la 6090 te vaya a correr un juego en nativo con path tracing a 60 fps, quizas la 7090 y es dudoso. Hay que esperar cuando haya gente que ya las tenga y pruebe diferentes modos, yo iré por una 5080 qué me parece un buen salto de mi 7900xt ganando un escalador genial, se sabe que el de Nvidia es muy muy bueno y será mejor aún y gano un frame generation especifico dentro de muchos juegos, se sabe que el frame generation es mucho mejor cuando viene dentro de los settings del juego y ya dijeron que muchos juegos lo tendrán. Dicho eso ese tipo deberia dejar de hacerse chaquetas y salir un poco, pc de 10 mil dólares dijo
Brother felicito por tu investigación pero estas olvidando un detalle muy importante y es que para activar la generación de fotogramas de Nvidia no precisamente debes hacerlo y ya, por la sencilla razón de la latencia de la que hablas. pero para eso han desarrollado Nvidia REFLEX para bajar esa latencia extra. Vi todo el video y jamás hablaste sobre Nvidia reflex... y lo de generación de cuadros los que usamos Nvidia ya sabíamos que no aplica para juegos competitivos (shooters) ❤desde el cariño sigue adelante con tus video.
Excusas para no trabajarse la optimización de los juegos, y venderte el 4K y el humo tracing, cuando en físicas animaciones, destrucción de escenarios, IA de los NPC, y visualmente, los juegos dan pena muchas veces. Horizon 2, diran lo que quieran del juego, pero visualmente como se ve de increíble, y hasta version de ps4 tiene, y ese juego no tiene ray tracing, red dead 2 otro, las companias tienen que actualizar motores gráficos y dejarse de solo venderte el humo de las resoluciones y ray tracing.
Pienso que todo el mundo está fumando porros porque no debería de pensar en la latencia añadido con la generación de fotogramas sino la diferencia entre correr el videojuego a 20 fotogramas por segundo base versus correr el videojuego a baja calidad y a 1080p para conseguir una tasa de fotogramas alta como 90 fotogramas por segundo la ecuación es latencia total = latencia base + latencia de generación de fotogramas Latencia total @ 19fps w FG = 52ms + 55 = 107 ms Latencia total @ 120fps = 8.3 ... esperaba más de los ser humanos
Estas tecnologías no deberían hacer todo bastante más barato? Yo no veo mal que vendan una gráfica enfocada al DLSS, pero casi siempre cuando implementan una nueva tecnología o algún programa para compensar el hardware, eso es siempre algo bastante más barato de hacer, pero es que yo no veo para nada que valga la pena Las 4000 eran gráficas de verdad, estaban en un buen rango de precio y el DLSS eran un agregado, no sacrificaba nada solo para agregarlo
En realidad esta tecnológica es cojonuda, el problema es que nos den juegos con una optimizacion del carajo. Y por supuesto, la potencia bruta siempre es importante, ya que sino, no hay nada que reescalar.
Por ahora la polemica nisiquiera tiene sentido por el lado de la latencia . Si alfin y al cabo el 99% de los juegos competitivos famosos . Corren en una tostadora A lo dijiste alfinal xd
Juegos single player: graficos ultra + DLSS Juegos competitivos : Graficos de carton y todo en bajo + pantalla strech La gente no sabe eso por lo que veo
Oigan y si hicieran una placa de video que haga sli con una grafica especial solo echo para IA no seria mucho mas potente que hacer esas graficas con tecnologias que a veces no se pueden aprobechqr bien con juegos potentes. Osea que el rtx y dlss y eso venga por separado y no cobrarte tqnto por algo incompleto. Una con full rasterizado y otra a parte para evitar temperaturas altas en un solo componente.
los que realmente se van a beneficiar de esto son las consolas portátiles y las laptop gamers porque al tener menos potencia bruta evitará sobrecalentamientos ya que el trabajo será de software , Nvidia apunta al futuro de los videojuegos desde el software
Yo digo q la polemica es.. primero un ejemplo digamos q quiero jugar stalker 2 y digamos q ya tenemos la rtx 7090 la cual no tiene potencia bruta pero tiene el dlss 6 q te multiplica los fps x10000 pero.. el stalker 2 no tiene disponible la tecnologia de dlss6 entonces lo q tienes es una grafica q para juegos antiguos no sirve para nada ya q no tiene potencia bruta y todo se centra en la IA obviamente me voy a enfadar
Ayer me puse a jugar los juegos Castlevania 1 y Simon Quest 2 de la Gameboy! Si de la GB- Ladrillo. En mi GBA, con sus colores que puedes ponerle. Tenía años, pero años de no jugar esos juegos, y me encantaron. Y aquí, molestandose, por los FPS, RT ( raid traicing) o como sea que se escriba, no me interesa no se inglés. Y no me interesa nada eso. Ya que ayer, jugué, uno de mis juegos favoritos, como un enano, talvez el fin de semana juegue el 3. Uff, y los FPS que tiene ese juego, no se si llega a 10! Jajaja jajaja jajaja! Pero lo gocé, como un enano! Y ahora se quejan de como se ve y se corren, los juegos de esta época! Que gente más, hmmm! Tonta, i¢°¢×€{
Yo soy de los juegos clásicos, pero debo decir, que me estoy armando una pc para jugar cierto juegos con teclado y mouse, y eso es los Hitman clásicos del 1 al 4 y todos los resident evil. Pero no ando pendiente de los 1000 FPS o el Ray tracing etcétera
@diegolagos2341 No! Yo igual uso mi PC para jugar videojuegos, pero soy de los que prefiere usar un control normal de videojuegos. Usar mouse y Raton, ya me da tortícolis. Demasiado estar usando esas cosas en el trabajo, para luego jugar con ellos, no gracias! Prefiero un control de videojuegos tradicional. Y más adelante, me voy a comprar la Asus ROG Ally X. Pero adoro jugar, con mis consolas portátiles, GBA, 3ds, entre otras!
@@enerc2333 Pasa que... En mi niñez me crié jugando con teclado y ratón y me trae nostalgia, porque se lo que es. Y si, es más cómodo con mando de cierto modo pero... En temas de atmósfera? Es mejor jugar en teclado y ratón, por eso vendí hace poco mi series x je.
@diegolagos2341 Yo igual! Mis primeros videojuegos, los jugué en una computadora con teclado y ratón. Pero cuando jugué, con la family, (la NES japonesa) de mi padrino, fue de lo mejor, y después casi nunca jugaba con telcado. Tampoco juego. Juegos con vista en primera persona (FPS) nunca pude jugar bien el Doom! Solo miraba a mi hermano de lejos, jugarlo! Por eso preferí, la comodidad de un joystick o un control tradicional!
lo del fg va a depender del juego y de la persona, cuando lo uso en stalker 2 lo veo fluido y si lo uso en cyberpunk se nota bastante los artefactos, pero cuando mis amigos les comento eso para ellos no lo notan en el cyberpunk pero si en el stalker 2 xd
Acaso lo de la 5070 - 4090 no paso con la 4070 - 3090 o ya no se acuerdan? aparte de eso el mismo ceo de Nvdia viene diciendo desde la serie 30 que ellos ya estaban dejando de lado el renderizado bruto.
Alex estan haciendo con esas tarjetas gráficas lo mismo que el lossless scallin es lo mismito que ese programa para aumentar fps pero incorporado ya a las tarjetas y obviamente mejor trabajado ,prefiero mejor que mejores el lossless y así es lo mismo que tener esa tarjeta
@soy_alexwhite eso si más con un equipo tan grande pero las bases son las mismas solo incorporado a la tarjeta ,bueno solo espero que no se vea como loosless después de x2 por q se ve feo el movimiento como agua
Lo que ustedes no entienden es que alcanzar 240 FPS en 4K nativos implica procesar 2 mil millones de píxeles por segundo, lo cual es una demanda monumental. Incluso la RTX 5090, con toda su potencia bruta, no está diseñada para manejar esa carga de manera consistente. Crear una GPU capaz de ofrecer 240 FPS en 4K nativos no solo sería técnicamente inviable por las limitaciones actuales, sino que también requeriría un consumo energético excesivo y costos de fabricación que la harían inaccesible para la mayoría de personas
Bien dicho
pero ahi estan los pro amd ,quieren todo por potencia bruta y eso es imposible a menos que quieras tener una gpu de tres metros dentro de un case de 4 metros
te confundiste la 5080 puede con el ancho de banda... el problema lo tendrías con el cable HDMI o DisplayPort... ya que 4k a 240fps tendrías problemas si no tenes buen cable de conexion
Yo sigo sin entender la obsesión por jugar a 240 fps😂 si después de 120 fps casi ni percibes más de 200
@@miguelhuertas115 que yo sepa ya hay monitores que llegan hasta 240hz osea que se puedan percibir esos 240fps, asi que supongo lo hacen porque de alguna forma hay que vender esos monitores xd
La gente le tiene miedo al avance y a la evolución. Algunos no se enteran que cada vez los juegos son más pesados, que usan motores gráficos muy complejos, que en algunos juegos están literalmente renderizado una película con un PC doméstico. Es cierto que algunos juegos están mal optimizados y algunas desarrolladoras se aprovechan de eso.
@@carlosgerardodias2263 El avance es optimizar fatal. Uncharted 4 o Red Dead redemption 2 piden una gtx1060, ¿se ven peor o mucho peor que algún juego actual? A simple vista yo veo mejor el Uncharted 4 que el Alan wake 2 por ejemplo y con Alan wake 2 cuesta sacar los 60fps. 0 optimización para clavar dlss/fsr y poco poco avance gráfico.
@Edgar-f8qcon que equipo has jugado Alan Wake 2 Bro?
@@oswaldogutierrez6432 con la 4060 en su tier a mas de 60 no entiendo que llora este muchacho
En 4k con una 4080 super, gráficos al máximo, Ray tracing, DLSS con FG (lo tengo pendiente de jugar pero si que lo probé en el comienzo) y tiene una media de 65fps. Si me están diciendo que los juegos han mejorado tanto gráficamente como para que la segunda gráfica más potente del mercado apenas pueda mover el juego de forma fluido, entonces una de dos, o los desarrolladores no se molestan en optimizar los juegos porque la IA de las gráficas les vienes muy bien porque se puede sacar 60 fps decentes o las gráficas no han mejorado tanto como nos hacen ver. Y me da a mí que me quedo con la primera. El DLSS y el FG deberían servir uno, para poder jugar a los juegos de una forma muy fluida obteniendo altos fps cuando los activas y dos, para alargar la vida de las tarjetas gráficas, para poder llegar a esos mínimos 60fps que hacen que un juego no de toc jugarlo cuando la tarjeta ya tiene unos años y los juegos sean de generaciones siguientes. La 5080 será increíble con su DLSS 4 que va ha hacer que se multipliquen los fps por 4, pues ya veréis que poco tardan los próximos juegos en hacer que con todo eso activo, apenas los puedas mover más allá de los 60 o 70 dos y será porque la optimización de los juegos será mucho peor aprovechando la IA. Y si, se que se pueden bajar las configuraciones gráficas para obtener más FPS y se que no es un sacrilegio hacerlo para disfrutar de un juego, pero si uno se gasta 1300€ en una tarjeta gráfica, lo mínimo que espera es que esos juegos AAA "increíbles" de la misma generación que la misma tarjeta gráfica los pueda jugar con todo al máximo y con un mínimo de fluidez más allá del estándar de los 60fps de hace 10 o 15 años.
@@carlosgerardodias2263 la gente no entiende aún lo que es renderizar una escena o videojuego en tiempo real frame a frame con iluminación en tiempo real
ps no entiendo la polemica como si hubieran mentido, si al momento de presentar la 5070 el mismo dijo que seróa imposible sin IA
La polémica viene a que si dlss la potencia de la tarjeta deja mucho que desear, abría que ver su rendimiento comparada con la generación anterior.
La polémica es que para uso profesional, en rendimiento para bruto y cálculos no precargados en los juegos ya entrenados para la IA dlss4, sino para desarrollo realmente rinde mucho menos, hay mucha gente que compra las gráficas con doble intención, no solo el lúdico sino el profesional.
@@leonbenhur8218 Saca la cuenta de cuanta potencia de raster tendrías que necesitar para obtener el mismo resultado que con IA. A demás de que DLSS no es solo software, necesita los tensor cores para funcionar y lo mismo con el frame generation que necesita el optical flow accelerator. Al final solo te están cambiando el raster por IA porque es más eficiente y escalable a largo plazo.
@@chanqueteperez2070exacto es un cambio de era , ya no es solo para jugar
@@angelaranda755pero a fin de cuentas en que ayudará tener todo esos tensor cores si solos los puedes usar en juegos, que por cierto tienen que ser específicos porque no todos cuentan con ddls, eso pues deja mucho que desear.
No has mencionado el tema de los artifacts en dlss4 ni nvidia reflex para bajar las latencias.
Al principio si se veian artifacts, a este momento ya no los he visto con el DLSS3
Depende del juego, en silent hill si se ven y mucho y en otros ni se nota diferencia @@pabmargera
@@SkylineC Sillent hill lo jugue sin FG, pero si, no dudo que juegos tengan problemas con el FG, ya me ha pasado, pero despues de algunas actualizaciones se corrige todo.
El último Dlss ya se ve casi igual que 4K nativos, y lo del multi frame generation es una locura, no me cabe duda que los problemas de ghosting y latencia serán solucionados en el futuro cercano,la 5070 de 549 dólares sera muchísimo más potente que una PS5 Pro
El aumento real de la RTX 5070 es de un 30%, ni de lejos se acerca a la 4090.
Con multi frame gen la supera fácil
@@Alextrillo94 Y con ghosting y latencia también la supera
@@AlexMartinez-cc7hc y con el nuevo reflex reduciría mas que la nativa
alex tengo una observación!: recuerdas que en el pasado cuando se llego al limite de ghz por temperaturas en los procesadores comenzaron a meter procesadores mas pequeños y de esa forma seguir aumentando, de ahi nacen los "CORE" que conocemos de toda la vida , que pasa si en tecnologia de tarjetas graficas ya estan en el limite y los AI TOPS sean la unica forma de aumentar rendimiento de cara al futuro ?
Eso fue lo que dijeron en la presentación XD
Debe ser que eres el unico que lo ha pensado xd, Mira a AMD haciendo maravillas para tratar de equparar con rasterizado a una gama media xd
Las gpus pueen escalar de hecho tienen muchos nucleos a diferencia de una de escritorio el detallé es el consumo y el tamaño del chip.
@@HobbyPCMasterRace El calor tambien, si nvidia no se ahorra CUDA cores los chips serán monstruosos con TDPs de 1000w pero lo están balanceando metiéndole mas y mas núcleos para dlss y entrenando la ia en su super computadora, o sino es un desperdicio hacer chips tan caros e ineficientes, Por cierto para hacer sus super computadoras hicieron básicamente lo que dijiste, super chips con cantidades de nucleos CUDA monstruosos para poder optimizar las IAs de sus productos finales.
@@fabiandarksv8493 jajaj solo vi lo que anunciaron no la prrsentacion completa xd
que pereza tiene que dar tener que intentar explicarle todas las tecnologias nuevas a gente que no las ha probado y no las entiende y solo van a criticar porque es lo que han oido xD
Pe pe pero si no tiene potencia bruta no sirve, estos son unos cavernícolas que no saben nada de cosas básicas como réflex
Veo ya juegos en un futuro cercano, con potencia bruta a 5 fps y con el DLSS 4 llegar a 70fps 😅 . Esto vuelve más perezosos los desarrolladores, en PC la optimización va a ser con el CU.
@@santostian1437 si tan solo la gente dejara de comprar esos juegos que salen mal y dejar de llevarse por el hype y hacer de beta tester talves las cosas cambien...
Sí y no.
En sí, sería aún más benéfico lo que dices.
¿Por qué lo digo?
Para optimizar un juego hay que "downgradear" el juego, y es que no hay otra forma de optimizar un juego más que recortando gráficos.
¿y esto que conlleva? pues mayor tiempo de desarrollo y pérdida en la cálidad gráfica final.
Eventualmente si esto sigue así, las gráficas sin IA estarán descontinuadas.
Pero no le veo mayor problema, mientras la cálidad gráfica no se vea afectada y tenga buen rendimiento, sigue siendo funcional.
Si tan solo trabajaras o estudiaras para entender cómo funciona lo nuevo, verías que complejo es y no es falta de optimización, es que esa tecnología es sumamente pesada de procesar. Pero ni entendían sus clases de física básica que van a andar entendiendo estas cosas xd
@@criticallokii6137Menudo cuñado socio
Buen video alex! En el minuto 7:44 vemos el rendimiento en esa demostración, 148 fps usando el dlss4 en performance mas el MFG x4, Para saber el rendimiento real sin esos frames extras podemos calcular 37x4 nos da un total de 148fps es decir que con el dlss en performance llegan a 37fps y de ahi hacen el x4, Sinceramente viendo que eso es una 5090, no me parece un rendimiento super loco hay que pensar que al usar el dlss performance como tu dices, se renderiza a 1080p y se rescala a 4k, vamos a tardar muchas generaciones en alcanzar al menos 4K60fps con dlss calidad y en nativo ya ni te cuento.
Haz las matematicas, y ponlo en DLAA mentales, si llega a mas de 60 ¡VAMOS! si que puedes!
Buen vídeo, pero la música de fondo me mata😢
Exacto, esa Música no es necesaria 🤦
además del competitivo, en los juegos de PCVR ocurre lo mismo: como mucho, algunos títulos utilizan DLSS 2.0, pero sin ningún tipo de generación de frames, ya que esta latencia generaría incomodidad e incluso mareos. Quizás en juegos 2D no haya problema, pero en realidad virtual no se lleva bien. Por eso, la gran mayoría de los títulos de PCVR emplean rasterización normal, sin esos efectos.
que mas da si usa fuerza bruta o IA, lo importante es el resultado final y sinceramente, es impresionante, porque estas calidades a esos fotogramas tan altos de hasta 240hz en monitores 4k seria imposible sin la tecnologia.
Frames falsos con 100 segundos de delay
Conoces el concepto de Input lag?
Lit es imposible desaparecer un input lag tan bestia, por cada 10 fotogramas solo 2 son verdaderos
Es una pndjada qué de 20 Fps saque 240 Fps o más,
Cada que le vayas a dar a un botón el personaje tardará mil años en reaccionar.
Pero es que bro, no solo hablamos de juegos, las tarjetas gráficas nvidia están vendiendo lo que no son idealizando la inteligencia artificial aún cuando están imperfecto, ya veremos si eres capaz de esperar 2 años a que un juego saque ddls.
el problema quizas sea por que nomas sirve para eso
@@GUILLERMO03 jajaj no justo para eso reflex 2 y frame warp el input lag solo ha aumentado 10 ms con respecto a nativo y han pensado incluso en competitivo para lo jugadores de shooters con mirar la web de nvidia y a los techtubers que ya lo han probado en vivo confirman que el input lag no ha aumentado incluso es menos que con la serie 40 incluso en algunos shooters como valorant esta dando 2 de ms de latencia en pc
La gente se queja pero en un futuro todo será creado con ia
Eso es imposible ya que la IA depende de alguna imagen por más mala que sea para poder reescalar e imaginar los próximos frames. 🤓👆
See, es como los que se quejaban cuando estaba comenzando a aparecer el internet
La revolucion llegara con las texturas por IA, diremos adios a juegos de mas de 100 GB.
ua-cam.com/video/NPgTlPHIOpg/v-deo.html
Y si, creo que llegaremos al dia en que necesitemos IA hasta para ir al baño y no pasa nada antes ibamos a oscuras cuando no existía la electricidad xd.
Esque el problema no es la IA en si, si no que a las desarrolladoras cada vez les va dar más pereza optimizar sus juegos
Te falto hablar de nvida reflex 2 que disminuyé mucho la latencia cuando usas frame generation
Para eso el juego tiene q ir al menos a 60 fps estables si no vas a sentir el imput lag y los problemas con la imagen.
Esa es la latencia de pc, lo bueno es que llega para todas la RTX y promete mejoras importantes al DLSS 3.0
@@awaken5622 Ni un conductor de F1 debería sentirlo,
La ia te pone a bailar/cantar fotos, hasta imita voces de cantantes, etc, ya todo lo que viene será basado en inteligencia artificial, son resultados no al 100% perfectos, aún así es lo que viene por delante.
Es lo que la gente no entiende ellos quieren fuerza bruta pero creo que ya llego a su limite por el momento y lo que demanda hoy a futuro es la ia xd
@@luisdjz totalmente, ya la capacidad de los procesadores gráficos no soportan tanta carga, por lo que la IA se vuelve vital para seguir a la vanguardia.
La gente tiene que entender que el silicio está llegando a su tope de capacidad. Si literalmente estamos llegando la limite de lo que se puede hacer con dicho material y lo que se hace Nvidia es hacer avances gigantescos en la IA para no depender solamente de de la fuerza bruta. Desafortunadamente a día de hoy no hay un material que pueda reemplazar al silicio de entrada, aunque hay candidatos, aún hay problemas que deben solventar y hacer investigaciones.
Yo personalmente estoy asombrado de lo está logrando Nvidia, si la tecnología se perfecciona no veo porque seria negativo, siempre me ha molestado como la gente se ruhusa al avance de la tecnología, es bien estúpido.
Edit: De lo qué deberían quejarse todos es como los desarrolladores no optimizan sus juegos, no echarle la culpa a una tecnología revolucionaria. Dejen de odiar tan mal encaminadamente.
Creo que la queja no va tanto por el uso de IA en sus GPUs, sino que la forma en que venden sus gráficas. En la conferencia Nvidia puso "Performance" de RTX 5070 = RTX 4090, pero sin específicar a qué rendimiento se refiere, ya que este tipo de hardware tienen uso profesional. Finalmente, su aplicación es en gaming, donde utiliza el sistema de MFG (multi frame generation), llegando a cuatriplicar los cuadros con inteligencia artificial, pero con una latencia limitada a la cantidad de FPS con DLSS 4
¿Qué significa esto? Que la respuesta de los controles no estará sincronizada con la fluidez del juego, por lo que el movimiento va a tener un breve desfase. Es increíble que estas tecnologías presenten grandes avances, pienso comprar la 5070, lo único que me preocupa es la cantidad de Vram que trae, hay juegos modernos que de por sí no aceptan menos de 6 - 8, por lo que su vigencia estará controlada por la evolución de los requerimientos en el hardware.
pero los framnes que genera la inteligencia artificial se ve igual de bien pues cual es el problema, que sigan asi cada vez tenemos graficas que consuman menos y tengan mejor rendimiento
la latencia es el problema
@@cubanoflash7235 por eso habrá reflex 2
El problema es que esa tecnologia no esta disponible en las 4000, la misma jugada que hicieron en las 4000 con el Frame Generation respecto a las 3000, es una estratagema para que compres las revisiones de sus GPU jugando con la obsolescencia programada.
De las 3000 a las 4000 bajaron el ancho de banda de la VRAM a la mitad en la 4060 le quitaron 4 GB pasando de un ancho de banda de 192 bits (RTX 3060 12 GB) a tan solo 128 bits, la 3060 TI tenia 256 Bits con 8 GB, RTX 4060 TI 128 bits 8 GB.
@@juan1911 Quitando el lado malo, el mercado y la jugada sucia de Nvidia, es lo que hay lamentablemente, sigue siendo una avance brutal en respecto a como se utiliza la IA y lo que pueden llegar a hacer.
@@cubanoflash7235pues por lo menos es una opción que puedes añadir para cuando no vas a jugar competitivo
He probado el tema del imput lag en varios juegos competitivos (Marvel Rivals y Forza Horizon 5) y creo que la gente le da mas importancia de la que tiene realmente, testeando el maximo de imput lag que he podido conseguir en marvel Rivals, 40fps y cuando activo el FG pasa a 60fps todo al maximo en 4K ultra nativo y FG ( 70-80ms) vs DLSS rendimiento, medio y FG desactivado (20-30ms), si que es cierto que el juego se siente mejor y mas fluido a 20-30ms que a 70-80ms, pero vamos haciendo la prueba me acabo de sacar un MVP usando a Starlord (personaje que se basa en la punteria con pistolas, donde se supone que mas se nota el imput lag) con 80ms de imput lag para que veais lo que afecta al rendimiento , tengo que decir que en configuraciones normales, con FG activado paso de 25ms de media a 40ms, en ese caso el cambio es apenas apreciable, y no va a afectar al rendimiento de alguien a nivel promedio, pero vamos que el Yoya en un monitor de 60HZ y con 100ms de imput lag va a seguir dando una paliza a Manolo plata 4 con un monitor de 1000hz y un imput lag de 2ms
El problema es que la gente no sabe cómo funciona el ray tracing, para una gráfica tan primitiva como la nueva generación 50 el Ray tracing le sigue dando muy fuerte a la GPU, no por algo en el cine hacer 24 FPS con Ray tracing completo se demoran horas o hasta días ( ya que el Ray tracing de nvidia no es completo y solo usa algunas partes del ray tracing) y por eso en las películas se demoran 24 horas o más en renderizar 5 fotogramas con máquinas 7000 mil veces más potente
Así que si quieren Ray tracing tienen que tragarse la IA a mascadas
Pero si no es así, entonces quejense lo malo es que para los desarrolladores de videojuegos el Ray tracing les ahorra mucho tiempo por lo que es el futuro, así que quejense pero ni modo, no van a poder hacer nada XDD
Cuál es esa gráfica 7000 mil veces más potente al que te refieres?
@RODRIGOTUPRINCIPE se llaman "renders farm"
Interesante Video!! Las TVs LG desde el 2010 hace eso pero con un LAG grande, en la era del Play 3 y 4 Jugaba con esa "latencia" a 60Hrz y 120Hrz, desde una salida nativa de 30 p 60 fps, tenía un retraso como de un cuarto de segundo, que si era perceptible, pero ahí estaba desde ese entonces. Ahora tengo una TV TCL para mi PS5 que no tiene eso, la neta hasta lo extraño sobre todo cuando los juegos no requieren una super reacción, y ahora pues depende del juego y de las exigencias de uno es como jugarlo.
Depende mucho del juego, porqué ejemplos de acción como un DMC o Sekiro todo el tema de input lag es super importante.
El futuro de los videojuegos: juegos que se corren 🥵 16:00
que puede ser mejor para un i7 8700 para jugar a 1080p y calidad alta a los triple A, una rtx 2080 ti o una rtx 3070?
con la llegada de Marvel Rivals parece que si que no están del todo pensando en tener una optimización tan brutal como en otros juegos competitivos y es que cada vez se esta poniendo mas de "moda" usar el Unreal Engine 5 como motor grafico, sin embargo, para juegos competitivos vaya que es demasiada carga grafica si no estas siempre con las generaciones actuales de graficas
10:02 y que paso con el reflex?, esta de adorno?
El 99% de los tipos que lloran aquí no saben que existe un reflex, menos aun donde activarlo xD
@elpatoredfield 👏
Y deja tu ya hay hasta un réflex 2
@@oswaldogutierrez6432 ?
@@oswaldogutierrez6432 digo Reflex en general ya se debe sobre entender que viene el 2.
Mi pregunta es para alex, vas a cambiar de gen?
Obvio va a por la 5080
AI tops es lo nuevo, ya el rendimiento bruto o los tflops ya no seran importante.
se sabe que no se debe activar esas tecnologias en competitivo ademas es raro quien juegue a altas resoluciones cuando se juega multijugador
A altas resoluciones si se debe jugar, a altos niveles de detalles, tales como sombras y brillos eso sí que no
Yo tengo una 2080 entonces que hago? Cambio o no cambio? No se si tirar una generación mas o no, suelo esperar 3 como mucho...
Me gusta el precio de las nuevas tarjetas, pero lo de los upscalers la verdad es que nvidia quiere promocionarla para sacar mayor dinero a menores costos, cuando DLSS y FSR sean la norma genial, mientras no hay nada como jugar a resolución nativa tus juegos. Algo que sí es bueno es que muchos usuarios eventualmente tendrán tarjetas de video para rato si los reescaladores se usasen siempre en el futuro
Meh, la resolución nativa esta muy sobrevalorada
Si mañana sale un Seat con un turbo q hace tener más fuerza q un Ferrari,podríamos decir q cual motor es mejor? O miramos cual es más rápido?
Buen video amigo,hay algunos youtubers q ni te aclaran esto
Hay q ver cuándo salga, porq de momento me suena al lossless. Ademas q sea exclusivo de serie 50 jajs podian colocar tambien a las otras tarjetas si bien no por x4 por 3 pero bueno obsolescencia programada pero por toda la cara
Es que a la 4090 le meterán extremamente el x4 y a volar.
Empeorará la situación de los videojuegos ya lo verán
pues no le hayo ni un sentido a tu comentario ponte la pilas amd intel te deja abajo sigues por ese camino ya aprendieron rdna 4 que es lo mismo dlss pero peor
Me gardo tu comentario pa despues, así te invitas las chelas.
Dónde está el que me adelanta la publicidad
👁👄👁su chaqueta hasta tiene ray tracing 2:30, el márquetin no descansa
los que piensan que teniendo 20 fps de base y activando dlss 4 van a poder jugar a 100 fps y sin que se note, van a llevarse una hostia bastante fuerte.
En unos años mejorará eso seguro es.
yo creo que la explicacion simple es graficos generados por hardware y graficos generados por software pero llamarlo falso es demasiado por que que es real en esto de losgraficos absolutamente nada
La gente parece no entender que Frame Generation no son fotogramas falsos, no es interpolación como FSR que promedia 2 frames y te hace uno intermedio mediante puro software.
FG y MFG literalmeente crean y procesan los fotogramas en el Optical Flow Aceleration que usa la información de los vectores de movimiento de los fotogramas base, y este procesado se logra con la potencia de los Tensor Cores. Es decir se estan procesando con Hardware Físico, no con software únicamente. La diferencia está en como se generan estos fotogramas, no será por potencia bruta de renderizado (Cuda Cores), pero de que es una potencia en IA lo es, porque usa piezas físicas para generar esos cuadros.
Acabas de confundir el fsr con interpolación, fsr no hace interpolación sino el fluid motion frames, segundo la tecnica de envidia es un nuevo tipo de interpoladi, que si sigue metiendo muchisimo imput lag, o eso muestra en las pruebas que se estan haciendo en el ces, igual y luego lo solucionan.
SI y graficamente se vera como un qlo cuando actives el dlss 4
@@awaken5622 De que rayos hablas, si está demostrado que Dlss ya se ve mucho mejor que el rasterizado nativo en la gran mayoría de los casos, y ni que mencionar en DLAA. Esto porque la interfaz neural fue entrenada con imágenes en 16K. Hay cientos de reviews que lo confirman.
@@josuyelin Revisa la documentación de AMD, ahí viene que es interpolación de 2 cuadros y los promedia. Y por ende genera muchísima latencia, y también se nota al poner algun contador de cuadros y verás que no te los refleja porque son "falsos".
En Nvidia la latencia es prácticamente nulas porque la tecnología de nvidia reflex lo mitiga, y con la nueva versión será aún mejor. Ve las comparativas de digital foundy.
@@link1219 no hay latencia nula, en la demo del ces de Nvidia peudes ver que tiene 50ms de latencia, porque cuadros falsos es cualquier cuadro que no ea el que genero el juego con la potencia de la propia gpu, con mayor o menor latencia peros iguen sin ser reales, y por ende siemrpe hay lag, pro esos acaron el reflex 2, que sin eso me imagino que la latencia se iria a 100ms, y mientras menor sean los fps base, mayor sera esa latencia. pero no puede ser nula a menos que los cuadros fueran generados de base, principalmente porque no puedes hacer saltos en el tiempo.
Los juegos competitivos no usan frame generation es mas ni traen la opcion y nvidia lo sabe y por eso ha mejorado la fuerza bruta en 25% y el nuevo reflex 2 con frame warp ya hay pruebas en valorant donde juegan a altisimos fps con 2 ms de latencia, ademas si hubieran tirado por solo fuerza bruta los consumos de watts se hubiera ido por los aires y no hubieron podido dar esos precios competitivos pero hay varios que no lo analizan el raster ya esta quedando obsoleto ya que para el usuario no es conveniente por tema de costos si hubieran tirado por fuerza bruta la 5070 hubiera salido en 800 dolares aproximadamente y la serie 5060 en 500 a 600 dolares, e igual la gente se hubiera quejado
Por fin alguien menciona Reflex, con eso ayuda bastante con la latencia, totalmente de acuerdo bro
el único detalle que le veo serían los artefactos y los desgarros de pantalla que pueda tener la imagen al activar frame generation...
Sinceramente veo hasta estúpido el hecho de llamarlos "frames falsos", es decir, cada vez la humanidad avanza a pasos gigantescos y negar el progreso y básicamente tener las de perder... La gente no acepta que el gaming esta teniendo una evolución y más específicamente en el modo de jugar y desarrollar, veo a muchos alterados por el falso rendimiento de la serie 5000 cuando en realidad es una revolución total de como conocíamos los procesos de ciertas cosas... Si no se quieren montar, esta bien, o lo hagan, pero de ahora en adelante va a seguir siendo así y no va a cambiar. Felicidades a Nvidea y sorprendió con lo bien que hicieron las cosas esta vez.
Hay mucha gente q no entendió nada el dlss 4 también está en la serie 4mil,lo único exclusivo de la serie 5mil es el MFG y es por software y no por hardware se activa desde el panel de control de nvidia
La realidad que en un caso como el mío, en el cual juego prácticamente en VR (simracing) la diferencia que hay entre modelos serie 40 y 50 es poca. En estos casos el dlss no es una opción viable y se necesita más de potencia bruta. Para el resto de casos puede ser que sea una buena opción, ahora si tienes una serie 40 no cambies a la 50. No te hará falta para correr los juegos, espera mejor un par de años a por la serie 60.
Estoy de acuerdo, en juegos single player me importa mas como se ve graficamente y como se ve de fluida la imagen, mas que si agrego 20mls mas de latencia o no. Lo que deberia de importar, es ver si esos fps generados x4, no genera muchos artefactos, ya en la generacion por cuadros normal aveces se llegan a ver uno que otro problema.
148 fps con sensación de 28, porque de momento el frametime se mantiene altisimo, a 50ms nose si ya vieron las pruebas, y si metes el antilag lo reduces un poco, pero en ese caso mejor no pones el framegeneration, y usas el antilag para que se sienta mejor. No es que ses inperseptible eso seria si juegas sin moverte, pero cuando te vaa moviendo de forma fluida sientes como que moverte pesa, y es un poco incomodo,
Esta latencia es con una configuración DEMENCIAL así que en competitivos puede que experimentes la latencia pura de la PC.
Tambien tengan en cuenta que la latencia de la PC tiene un minimo no es posible bajar de eso, da igual que vayas con 1ms en render latency El PC tendra por lo mismo siempre 35-40ms de latencia por lo que sea.
Hay que tener en cuenta también que de esos 140 fps que se mostró en el video tú solo estás controlando los 20 que verdaderamente te está dando tu gráfica así que aunque aún he visto un video donde pongan a prueba esto pienso que debe sentirse algo extraño
me pregunto para torneos competitivos y demas , si es q sirve tener 300 FPS donde 70 son reales y 230 son fabricados y hasta con artifacts
No existe ningún juego competitivo que sea tan pesado como Cyberpunk. Con una 4070 a 1440 van a más de 160 FPS. EL raster de Nvidia es suficiente para esto, sin embargo, para juegos gráficamente pesados si es necesario DLSS.
Puedes tener 300 fps, pero en realidad los fps que cuentan son los reales, no te daran ninguna ventaja a la hora de jugar, por eso recomiendan el FG por encima de los 60fps.
Una pregunta, soy totalmente ignorante de la tecnología de PC. ¿Estas tarjetas gráficas con ia para rescalar los juegos funcionan sin haber internet de por medio? Si yo no tengo conexión y quiero jugar mis juegos instalados, ¿Funciona igual?
Si la IA funciona por hardware no por software. Lo que si te digo es que el reescalado funciona genial, pero la latencia de fg es muy incomodo ya que si mueves tu raton vas a ver como el cursor en el monitor se mueve con delay. Aunque Alex diga que no se nota, es mentira si se nota, quiza si juegas con un control lo notas menos pero con un cursor es muy molesto.
@@andresfeliperodriguezruiz1460Reflex amigo
@andresfeliperodriguezruiz1460 gracias bro, abrazo!
@@andresfeliperodriguezruiz1460 te sabes la del Reflex, prácticamente con el FG activo y el Reflex tienes menos latencia que jugando en nativo.
E visto a mucha gente quejandose de los ultimos anuncios y filtraciones de las RX 9000 pero no se distancia tanto de lo que esta haciendo Nvidia.
Eventualmente los juegos van a funcionar solo con Ray Tracing, eliminar la iliuminación por rasterizado ahorraría mucho tiempo de desarrollo en los juegos.
Es inevitable, por más que digan que es que esos no son "Frames Fieles u Originales"
Al final ni lo notan, fisicamente es imposible que lo noten en tiempo real, no pueden saber cual es el Frame original y cual el generado.
No es como que se vayan a poner a pausar el juego cada 50ms (que es prácitcamente imposible hacerlo a voluntad y si pasa sería más por suerte) para decir: "este frame es falso"
El problema no es dlss, es que muchos desarrolladores no están optimizando los juegos y están abusando del dlss.
El verdadero problma es que los juegos no estan bien optimizados practicamente tienen tanto detalle que necesitan enborronarlo con TAA y reescalados para que se pueda jugar lo cual no tiene sentido pero la culpa en parte la tiene envidia con el marketing del dlss y rtx las empresas de videojuegos se volvieron flojas y ya no optimizan la iluminacion ni las mallas 3d en parte culpa de unreal engine tambien. Es por eso que el dlss no deve tomarse como algo bueno o positivo en mi opinion ya que en principio es una tegnologia buena pero el problema es que como la mayoria de personas tiene graficas nvidia las desarrolladoras cada vez hacen peores juegos y cada vez se hace mas incapie en mas poder de dlss cosa que es un bucle que no va a terminar nada bien ya estamos viendo practicamente graficos de ps3 que requieren 100 teraflops de poder para poder moverse a miseros frames 😢
buen video , no tenia mucho conocimiento sobre la latencia aprendí muchas cosas
El problema de la generacion de fotogramas es que tienes que tener una buena tasa de FPS para no tener latencia, si un juego te va a 30fps si usas FG vas a tener un imput lag enorme pero si tienes 76 o 90 no vas a tener problema y lo vas a gozar.
Efectivamente. Si tienes activado FG y obtienes 60 FPS, visualmente estás obteniendo 60 FPS, pero a nivel jugable es como si siguieras jugándolo a 30 FPS, lo que te da una latencia de 30ms.
Es jugable? Si. Pero la sensación es rara y desagradable. Por eso recomiendan usar FG siempre y cuando tu juego funcione por lo menos entre 40 y 60 FPS mínimo SIN esta tecnología; de manera que, activandola, obtendrías en torno a unos 100-120 FPS y una latencia de unos 14-16 ms, lo cual es muy fluido tanto visual como jugablemente.
@@BreathStink 48 fps exactamente, se supone que reflex lo arregla quitandole la "sensación" ni un corredor de formula uno debería "sentirla" xd pero bueno son cosas que pasan
la gente vive a lo cromañón en sus cuevas y no se dan cuenta el salto en tecnologia y hacia donde va el futuro irremediablemente se quejen o no todos terminaran pasando por ese aro de comprarse una nueva gpu y activar la generacion de fotogramas para jugar a los ultimos titulos, monster hunter, alan wake, etc etc
Un futuro todo lageado debido a los frames falsos, se ve promeredor.
@@nicane-9966Para eso esta la opción de jugar con gráficos al mínimo, pero es que quieren todo
@@nicane-9966 no son falsos del todo y no por mucho, lageado para juegos compeetitivos pero no para juegos normales, no entendiste el video?
@@nicane-9966tampoco es medio segundo de retraso, en caso de ser 50ms de latencia sería muchísimo menos que la latencia que percibes con un mando bluetooth o con audífonos
@@hibay7816 Pero dijo que ni siquiera es perseptible, son cincuenta milesimas de segundo, ni un conductor de F1 debería notarlo jaja
Y creeme que un jugador competitivo compraria una 5090 no una 5070 haci que el frame no te afectara especialmente si ya tienes la 4090 no necesitas una 5070 alomenos que estes desactualizado y tengas como una 2050-3050 o incluso 4050
Todos los que lloran no saben distinguir si está el dlss activado o no! así son la redes..
Descubriste America bro, felicidades.
El aumento real de la 5070 es de un 30%, ni de lejos se acerca a la 4090, esa parte como que no la cuentan.
No te hagas el listillo sin saber.
Ahora resulta que el futuro es comprarte un monitor de 4k para que el dlss automàticamente te baje la resolucion a 1080p , cojonudo vaya tomadura de pelo. Demasiados vendedores por aqui.
No veo el problema si la calidad final es igual a nativo 4k
@@orlandogarrido527 No es igual ni de broma, en los juegos pierdes una barbaridad de nitidez y detalles a lo lejos, sobretodo en juegos de estrategia y simuladores.
Te recuerdo que la tecnología avanza maestro... Va a llegar un punto donde se vea exactamente igual, de todas formas, imposible correr 4k a altos fps si que te saquen un ojo de la cara. La tecnología ya esta haciendo lo suyo y mostrando resultados viables @@Slickslot
@@Slickslot te recuerdo que no se que nivel de dlss usas, por qué el dlss 3 se ve igual a nativo incluso hay juegos que mejora la calidad de imagen, de hecho en este mismo canal lo mencionan
@@orlandogarrido527 amigo oficialmente queda demostrado q mejor q vaya pronto al oculista, dlss es una tecnica de reescalado basada en temporal antialiasing, lo q hace es literalmente emborronar la imagen para q sean menos perceptibles los detalles ocultando los errores de renderizado (mayormente las pifias q hacen los desarrolladores) un gamer un pelin mas ciego, es un gamer feliz dirian algunos
Buen video, Alex!
Oye, quiero armarme una pc y para jugar en 2k, que tarjeta de Nvidia necesito?
4060 será más que suficiente?
No, la 4070 , o espérate para la 5070
@andyuyaguari1966 y con la 4060 no me podría ayudar con el dlss3? Para 2k? Mmm
@@diegolagos2341 si, pero creo q en juegos exigentes gráficamente se va mantener en 50 o 60 fps, aúnq depende de los ajustes gráficos q hagas
@@andyuyaguari1966 y la ultima duda: se nota mucho jugar 1080 todo en ultra VS 2k todo en ultra.?
@@diegolagos2341 en 2K, obviamente en un monitor 2K, y si, si se nota la diferencia
Siempre que no se engañe a la gente, y se sepa lo que está comprando no me parece mal. Estas tecnologías cada vez están más conseguidas, sin duda son el futuro.
En cuanto a la presentación en el Ces de la 5070, analizándolo fríamente la información no llegaron a mentir en ningún momento. Creo que fue una paja mental por parte de muchos de nosotros a la hora de interpretar la información. Además, quizá el idioma tampoco ayudo mucho. Un saludo.
La verdad tienes razon en lo que dices. En cuanto a la latencia, mientras no sea como la de cloudgaming me sirve y mucho jaja
Likazo por esa buena explicación y esos sonidos de ace attorney 😊
El problema es que la gente solo se ha quedado con lo de "la 5070 rinde como una 4090" y claro, es una verdad a medias. Seria contradictorio aparte para Nvidia que como justificamos ahora que sigamos teniendo las 4090 a mas de 2000€ si salen las 5070 por 650€... automaticamente se devaluarian las 4090
Música ambiental de fondo ? Canal en ascendencia ;)
DF subio un analisis de la latencia con Multi FG+Reflex en CP2077 donde la minima con x2 es de 52ms y la maxima de x4 60ms, Esto equivale a una latencia real por debajo de 20FPS. y el estandar es 60FPS 16.6ms, yo veo al FG aun muy verde, quiza en un par de generaciones podamos tener FG sin inputlag y esto sera increible, pero de momento no recomiendo FG.
Para aportar algo de luz también al asunto decir que el techo tecnológico viene un poco condicionado por los fabricantes, al final solo existen dos fabricantes que pueden trabajar en esos tamaños de litografías ( TSMC Y SAMSUNG) , asi que por mucho que NVIDIA quiera depende de que estos fabricantes tengan esa tecnología desarrollada y que además como es obvio tiene un limite de fabricación anual y no todo se asigna a NVIDIA y menos a gaming, es mas, ahora ya sabemos que los procesos mas avanzados como 2 NM se van a priorizar para inteligencia interficial, que es lo que mas dinero da.
NVIDIA esta forzada a buscar alternativas si quiere seguir ofreciendo mejor rendimiento a corto/medio plazo y seguir vendiendo un producto nuevo cada 2-3 años donde exista realmente un salto, aunque sea dependiendo de tecnologias como esta, xk en fuerza bruta le va a ser dificil seguir avanzando sin subir mucho los costes y los consumos.
Esto quiere decir que ya solo abra mejoras a la IA no habra mas potencia bruta y en el futuro los rt cores los cuda y todo disminuira excepto los AI TOPS
Que se dejen de tantísimos buenos graficos y de frames falsos y los desarrolladores hagan juegos divertidos, que la magia que tiene el mundo de los videojuegos se está perdiendo. Menos datos técnicos y más magia y diversión al crear videojuegos. La época de los 90, eso si era la edad dorada de este mundillo.
Por que no hablan de las otras tecnologias ? Neural shader ?, Reflex 2 ? solo se enfocan en DLSS ;//
Yo ya lo sabia... solo agregaron algo como un Lossless scaling en las nuevas graphicas.
Veo tanta gente en los comentarios defendiendo el input lag y los artifacts que generan los fotogramas por IA que uno queda medio tonto. Me encanta Nvidia pero esta vez les vendieron la moto y sin motor xD.
si ya se tiene una serie 4000 lo suyo es esperar a la serie 6000, no tendria mucho sntido cambiar ahora
O las super
Yo creo que si existe un error en Nvidia seria mostrar path tracing, yo personalmente prefiero full ray tracing tipo sombras reflejos y sombras del sol, se me iba el lightning. Apuesto que en rasterizado esa 5090 va muy bien, luego le agregas el frame generation x4 y dlss quality y pasas a 200 y resto fps, pero path tracing es demasiado. La gente ve dlss performance y se asusta, yo si te soy sincero no creo que la 6090 te vaya a correr un juego en nativo con path tracing a 60 fps, quizas la 7090 y es dudoso. Hay que esperar cuando haya gente que ya las tenga y pruebe diferentes modos, yo iré por una 5080 qué me parece un buen salto de mi 7900xt ganando un escalador genial, se sabe que el de Nvidia es muy muy bueno y será mejor aún y gano un frame generation especifico dentro de muchos juegos, se sabe que el frame generation es mucho mejor cuando viene dentro de los settings del juego y ya dijeron que muchos juegos lo tendrán. Dicho eso ese tipo deberia dejar de hacerse chaquetas y salir un poco, pc de 10 mil dólares dijo
Brother felicito por tu investigación pero estas olvidando un detalle muy importante y es que para activar la generación de fotogramas de Nvidia no precisamente debes hacerlo y ya, por la sencilla razón de la latencia de la que hablas. pero para eso han desarrollado Nvidia REFLEX para bajar esa latencia extra. Vi todo el video y jamás hablaste sobre Nvidia reflex... y lo de generación de cuadros los que usamos Nvidia ya sabíamos que no aplica para juegos competitivos (shooters) ❤desde el cariño sigue adelante con tus video.
Dios te bendiga recuerda Dios solo es uno
Kratos
Goku
Programar juegos abordables ❌
Programar fumadas graficas y cobrar 2000 euros por algo que genera frames que son fake ✅
Excusas para no trabajarse la optimización de los juegos, y venderte el 4K y el humo tracing, cuando en físicas animaciones, destrucción de escenarios, IA de los NPC, y visualmente, los juegos dan pena muchas veces. Horizon 2, diran lo que quieran del juego, pero visualmente como se ve de increíble, y hasta version de ps4 tiene, y ese juego no tiene ray tracing, red dead 2 otro, las companias tienen que actualizar motores gráficos y dejarse de solo venderte el humo de las resoluciones y ray tracing.
Pienso que todo el mundo está fumando porros porque no debería de pensar en la latencia añadido con la generación de fotogramas sino la diferencia entre correr el videojuego a 20 fotogramas por segundo base versus correr el videojuego a baja calidad y a 1080p para conseguir una tasa de fotogramas alta como 90 fotogramas por segundo
la ecuación es
latencia total = latencia base + latencia de generación de fotogramas
Latencia total @ 19fps w FG = 52ms + 55 = 107 ms
Latencia total @ 120fps = 8.3
... esperaba más de los ser humanos
Hola youtuber favorito Alex white youtuber favorito Alex white youtuber favorito 😊
Estas tecnologías no deberían hacer todo bastante más barato?
Yo no veo mal que vendan una gráfica enfocada al DLSS, pero casi siempre cuando implementan una nueva tecnología o algún programa para compensar el hardware, eso es siempre algo bastante más barato de hacer, pero es que yo no veo para nada que valga la pena
Las 4000 eran gráficas de verdad, estaban en un buen rango de precio y el DLSS eran un agregado, no sacrificaba nada solo para agregarlo
Amdelita
Facil el que quiera comprarla y el que no no y ya
En realidad esta tecnológica es cojonuda, el problema es que nos den juegos con una optimizacion del carajo. Y por supuesto, la potencia bruta siempre es importante, ya que sino, no hay nada que reescalar.
Por ahora la polemica nisiquiera tiene sentido por el lado de la latencia . Si alfin y al cabo el 99% de los juegos competitivos famosos . Corren en una tostadora
A lo dijiste alfinal xd
Juegos single player: graficos ultra + DLSS
Juegos competitivos : Graficos de carton y todo en bajo + pantalla strech
La gente no sabe eso por lo que veo
Oigan y si hicieran una placa de video que haga sli con una grafica especial solo echo para IA no seria mucho mas potente que hacer esas graficas con tecnologias que a veces no se pueden aprobechqr bien con juegos potentes. Osea que el rtx y dlss y eso venga por separado y no cobrarte tqnto por algo incompleto. Una con full rasterizado y otra a parte para evitar temperaturas altas en un solo componente.
Señor youtuber de este canal su ignorancia me atropellan. Primero investigue para que no hable tanta estupidez
los que realmente se van a beneficiar de esto son las consolas portátiles y las laptop gamers porque al tener menos potencia bruta evitará sobrecalentamientos ya que el trabajo será de software , Nvidia apunta al futuro de los videojuegos desde el software
Yo digo q la polemica es.. primero un ejemplo digamos q quiero jugar stalker 2 y digamos q ya tenemos la rtx 7090 la cual no tiene potencia bruta pero tiene el dlss 6 q te multiplica los fps x10000 pero.. el stalker 2 no tiene disponible la tecnologia de dlss6 entonces lo q tienes es una grafica q para juegos antiguos no sirve para nada ya q no tiene potencia bruta y todo se centra en la IA obviamente me voy a enfadar
Ayer me puse a jugar los juegos Castlevania 1 y Simon Quest 2 de la Gameboy! Si de la GB- Ladrillo. En mi GBA, con sus colores que puedes ponerle. Tenía años, pero años de no jugar esos juegos, y me encantaron.
Y aquí, molestandose, por los FPS, RT ( raid traicing) o como sea que se escriba, no me interesa no se inglés.
Y no me interesa nada eso.
Ya que ayer, jugué, uno de mis juegos favoritos, como un enano, talvez el fin de semana juegue el 3.
Uff, y los FPS que tiene ese juego, no se si llega a 10! Jajaja jajaja jajaja!
Pero lo gocé, como un enano!
Y ahora se quejan de como se ve y se corren, los juegos de esta época!
Que gente más, hmmm!
Tonta, i¢°¢×€{
Yo soy de los juegos clásicos, pero debo decir, que me estoy armando una pc para jugar cierto juegos con teclado y mouse, y eso es los Hitman clásicos del 1 al 4 y todos los resident evil. Pero no ando pendiente de los 1000 FPS o el Ray tracing etcétera
@diegolagos2341 No! Yo igual uso mi PC para jugar videojuegos, pero soy de los que prefiere usar un control normal de videojuegos.
Usar mouse y Raton, ya me da tortícolis.
Demasiado estar usando esas cosas en el trabajo, para luego jugar con ellos, no gracias!
Prefiero un control de videojuegos tradicional. Y más adelante, me voy a comprar la Asus ROG Ally X.
Pero adoro jugar, con mis consolas portátiles, GBA, 3ds, entre otras!
Uka uka yo jugar uka castlevania y lo disfruto y uds no, jajajajajaj
@@enerc2333 Pasa que... En mi niñez me crié jugando con teclado y ratón y me trae nostalgia, porque se lo que es. Y si, es más cómodo con mando de cierto modo pero... En temas de atmósfera? Es mejor jugar en teclado y ratón, por eso vendí hace poco mi series x je.
@diegolagos2341 Yo igual! Mis primeros videojuegos, los jugué en una computadora con teclado y ratón.
Pero cuando jugué, con la family, (la NES japonesa) de mi padrino, fue de lo mejor, y después casi nunca jugaba con telcado.
Tampoco juego. Juegos con vista en primera persona (FPS) nunca pude jugar bien el Doom! Solo miraba a mi hermano de lejos, jugarlo! Por eso preferí, la comodidad de un joystick o un control tradicional!
Vamos que de una generación a otra se cargan la anterior por software... Muy triste esto que está haciendo nvidia.
lo del fg va a depender del juego y de la persona, cuando lo uso en stalker 2 lo veo fluido y si lo uso en cyberpunk se nota bastante los artefactos, pero cuando mis amigos les comento eso para ellos no lo notan en el cyberpunk pero si en el stalker 2 xd
Sera que las graficas ya no rinden mas a fuerza bruta almenos a presios accsesibles
Acaso lo de la 5070 - 4090 no paso con la 4070 - 3090 o ya no se acuerdan? aparte de eso el mismo ceo de Nvdia viene diciendo desde la serie 30 que ellos ya estaban dejando de lado el renderizado bruto.
BOOOOA ENTRE 50 A 57 DE LATENCIA ES UN MONTON ya con 20 a 30ms de latencia en el sistema ya se siente un montón no me imagino a 50
Alex estan haciendo con esas tarjetas gráficas lo mismo que el lossless scallin es lo mismito que ese programa para aumentar fps pero incorporado ya a las tarjetas y obviamente mejor trabajado ,prefiero mejor que mejores el lossless y así es lo mismo que tener esa tarjeta
Ya pero es que en las tarjetas siempre va a funcionar MUCHO mejor
@soy_alexwhite eso si más con un equipo tan grande pero las bases son las mismas solo incorporado a la tarjeta ,bueno solo espero que no se vea como loosless después de x2 por q se ve feo el movimiento como agua