Ver a Varo con menos de 100K y ahora más cerca al medio millón que cuando lo encontré y teniendo más voz y ayuda de marcas es un sentimiento inexplicable
@@rincondelvaro Hola Varo ... mira tu video al 5:30 .... porque en la prueba la ram utilizada (sea CPU que GPU) por la 4090 es el doble de la 5090 ... ¿ estan en calidades diferentes ? ¿estas haciendo trampa ?
Joer como has crecido tío. Te sigo desde hace unos 4 años y has pasado de buscar info de análisis y datos en terceros a ser tu el puntero y tener una RTX5090 a día 0 y sacar tus propios datos. Me alegro un montón por tí tío, te lo mereces!!! Que grande Varo🎉🎉
@@agustinrosales3632para gaming? Eso ya es no es para gaming si no más pasta aprendizaje de IA, para gaming debe de ser de las peores GPU no vale nada la pena
Has hecho un gran teabajo con la recopilación de la información y no solo eso, lo has estructurado muy bien y has sudo bastante recnico. Te superas dia a día
Excelente información , siempre aprendiendo del Grande , todo los detalles y explicaciones son impresionantes , se lo agradezco Maestro Varo , y que sigan los éxitos, un abrazo !!!!!
Que locura la RTX 5090, a pesar de que esta más enfocada en uso para IA en juegos es realmente brutal sobre todo con el DLSS4, me interesaría ver a detalle cada fotograma a ver si hay alguna diferencia en rendimiento. ¡Muchas gracias por las pruebas y compartirlas con nosotros Varo! Saludos y espero que pronto llegues a los 500K subs!!!
Grande Varito, tomando mate y ya viendo el video. Solo decirte que no solo el nivel técnico de cada video es fabuloso, si no el trabajo de cada producción es increible!
Me fascina que consideréis que jugar con un input lag equiparable a jugar el juego a 25 fps lo consideréis una innovación... Acojonante lo disparada que está la latencia y todos aplaudiendo con las orejas..."ehhh pero 300 fps" y encima con artefactos ricos...lo que hay que ver y escuchar hoy en día...
Así es cuando se está llegando al límite, es como doblar un papel, el primero y 2do dobles es fácil, después empieza lo complicado y necesitas mas fuerza y un papel maa largo, lo mismo pasa cuando entrenas, duplicas el peso que cargas cada semana o 2 semanas pero en cierto punto, subirle solo 1 kg o menos, representa un gasto mayor de energía y mejor alimentación, suplementación, etc, esto es lo mismo, quieres un salto aún mayor? Alista una refrigeración con nitrógeno líquido, una grafica tamaño de un tv antiguo grande y gasto energético ni te digo.
@@robertogutierrez2935no estamos ni cerca del límite , eso lo dijo el CEO de Nvidia para que no se le abalanzaran encima al dar una mejora de rendimiento tan baja , osea todavía queda los 3 nm , hasta el 1 nm , y después de eso los 0,9 nm hasta los 0,1 nm , y después de eso cambiaremos el silicio por el grafeno o alguna movida haci Nvidia pudo dar un salto mejor , por ejemplo la 5070 consumirá más que la 4070 ¿Pero apenas sumo 300 núcleos y mantuvo frecuencias? Eso quiere decir que Nvidia aumento mucho el consumo de los tensor cores , para que den más potencia , lo cual tiene sentido viendo que en potencia de IA casi triplicaron el rendimiento , pero eso a los gamers no nos sirve mucho , si hubieran mantenido el consumo de las RTX 4000 en la IA , podrían haber llegado a los 3 Ghz de frecuencias , haciendo que cada gráfica 5090 , 5080 , etc , tuviera una mejora extra de almenos un 15% , lo cual sumando lo al 15% que nos dio Nvidia , sería un 30% de mejora , lo cual estaría bien
@traelkel8789 Con esta tecnología entonces se está llegando al límite, cuántos procesadores conoces que funcionen así? Aparte del iPhone no he visto otro, el fabricarlos es muy difícil, por eso el salto es de a poco, una vez no se pueda mas, será cuando se use nuevas tecnologías, pero por el momento si deseas mas potencia el precio sube muchísimo.
@@robertogutierrez2935 hace miles de años el hierro era muy difícil de hacer y era caro , hoy en día está súper estandarizado , con esto pasará lo mismo , la principal razón que creo yo que es el por qué son tan caros los nodos actualmente es por qué TSMC domina el mercado y al no llegar a satisfacer la demanda toca aumentar precios , necesitamos que Samsung o Intel o quien sea se le plante y le haga competencia Además sobre eso que estamos llegando al límite pienso que es una idea alarmista , osea quedan varios nodos y después de eso reemplazaremos el silicio por otro material , o con nuevas tecnologías que ayuden
@@robertogutierrez2935 Si quieren pueden darles las RTX 6000 que ya tiene hasta una fábricada ya, esta años luz de AMD o Intel, el problema es que pueden darte el triple de rendimiento pero tendeia que consumir 2000 wats y venderlos a 15.000 dólares cada una y eso no tiene sentido, por eso es mejor ir mejorando en tecnologías
A mí una mejora de un 30-40% de una generación a otra, me parece bastante potente. Eso sí, me parece que no es igual en todas las tarjetas. A lo mejor la pega está en el consumo de energía adicional.
Y no tiene pinta de que lo vaya a ser, la 5090 es la que tiene mayor diferencia con respecto a su predecesora, del resto a falta de saber más de la gama baja/media baja(5060/5060 Ti) se habla de un 15-20%, comparas la 5070 con la 4070 y 5080 con la 4080 y quitando la cantidad de núcleos de IA que es donde las han inflado mucho, apenas hay diferencia.
30% con un aumento del precio del 25% , cuando la 4090 rendía un 60% más que la 3090 costando solo $100 extra , es un salto algo bajo , pero si este salto fuese en gama media o baja sería considerablemente más bueno
Pienso lo mismo, si tomamos en cuenta las especificaciones que tiene la 5090 y la comparamos con la 4090, la 5090 tiene más de todo y el consumo también aumenta considerablemente. En lo personal no veo una que sea una nueva arquitectura y parece más una 4090 super TI mamada, y el precio viendo lo que rinde me parece razonable, y más si tenemos en cuenta que no tiene competencia, así que lo más probable es que mientras más tiempo pasé más va ir subiendo su precio
@@traelkel8789 el problema creo recordar que lo menciona Varo: la ley de Moore se ha acabado, chips más pequeños = mucho más caros. Y si en esa dirección no se puede avanzar, toca la del software e IA
@@andresvillenero desde siempre creo yo que mientras más mejor el nodo más caro , desde los 90 nm hasta los 2 nm , después de llegar a 1 nm , pasaremos a 0,9 hasta 0,1 nm , y después de eso pasaremos a remplazar el silicio por el grafeno o algo similar , necesitando que le hagan competencia a TSMC , ya que al ser la que tiene más del 60% de la cuota de mercado hace que no satisface a la demanda , haciendo que aumente los precios en consecuencia , Samsung o Intel o los chinos deberían de ponerse las pilas y darle pelea
Entré en el vídeo con poca esperanza de quedarme, o al menos mucho tiempo... No recuerdo desde cuando no me veía un vídeo de 20 minutos tan atento... enhorabuena, super bien explicado o muy completo el vídeo, nuevo sub por querer ver más contenido así
Gracias Varo. Sin duda, eres de los mejores Techtubers en español. Todo el vídeo rebosa calidad. Te explicas genial y además, tienes una magnífica edición. Te deseo la mejor de las suertes en esto, porque de verdad que lo vales. Enhorabuena. 😊
Que grande Varo! de los primeros en sacar la review!! que bueno verte crecer y que no hay necesidad de tener 18 o 20 años para triunfar! un ejemplo a seguir sos un abrazo desde Guatemala!
Enhorabuena Varo, me alegro mucho por el crecimiento del canal, más que merecido. No cambies 💪🏼💪🏼. Este año toca cambio de torre completa incluida gráfica. Voy a por la 5080 salvo que me caliente mucho. A ver las reviews más adelante comparando la 5080 con la 4090. A ver también si sacan la 5080 super y Ti en un año que seguro que hay mejora y sigue no doliendo tanto como la 5090. Saludos!!!
SOS un crack, número 1 en lo que haces, me encantan tus videos y con este la sacaste del estadio. Yo la verdad no hace tanto que me pase a Pc, viendo tus videos opté por un Ryzen 7 7700x y una Rtx 4080 súper y sé que es un caño en verdad no me hace falta mas, pero es tal cual la comparación que hiciste del lambo, yo quiero sacar el brazo y despeinarme ahí con el viento 😅😅😅 así que voy por la 5090 🤷🏻♂️😉 lo que no se va en lagrimas se va en suspiros decía mi madrina. Un abrazo, máquina 🫶🏽🦾🦾 Estoy siempre firme ahí siguiendo tu canal
Excelente video Varo. Muy bien por analizar la tarjeta desde el punto de vista del profesional, en cada campo (3d, path tracing, compresion de video, rendimiento en IA). En definitiva, muy bien analizarla desde el punto de vista de la herramienta y no solo desde la gráfica para jugar. Bravo!
Gracias por tus videos tambien explicados. La comunidad de jugadores de vr en pc cada día va en aumento y creo que a muchos de nosotros nos gustaría conocer la opinión de expertos como tú sobre el comportamiento y rendimiento(compreision de video, codificación, etc,..)de estas gráficas cuando jugamos con un visor de realidad virtual. Muchas Gracias❤
Muy buen video @Varo 😊 Yo sigo pensando que mult generation es marketing para pasar por caja...luego sacarán la 5060...y no se sostiene que una 4090 no pueda usarlo, la verdad. Veremos los demás modelos que varían menos en specs si sube mucho el rendimiento bruto y luego con DLSS4 con mult...ahí va a estar la mejora, pero claro, por SW ...
Excelente Review Varo. Muy completo, didáctico (sobre todo lo del DLS4 para generaciones anteriores) y sobre todo en mi opinión sin ningún sesgo, a pesar de que NVIDIA te hizo llegar ese monstruo de GPU. Felicitaciones y saludos desde el otro lado del Atlántico
gracias maestro por tu tiempo!! eres un capo. Felicidades por esa increíble review. Tú y Nate Gentile, los mejores creadores de contenido sobre Hardware de habla hispana :)
Un video genial Varo. Es preciosa e Impresionante esta 5090 FE ; el consumo asusta y la vez tranquiliza ver las temperaturas(tengo una 4090 con undervolt y siempre está mas cerca de los 300w que de los 400w) Sin duda será la mejor GPU .Deseando ver la review de la 5080 y a ver en que posición queda la 4090 entre las 3 5090,5080 y 4090.Muchas gracias por el contenido de altísima calidad que nos traes y nos vemos en el siguiente video. Un saludo
genial review como siempre, con esto ya confirmamos que nos podemos ir adelantando al rendimiento en el resto de gamas, que sera muy similar a lo que se estaba suponiendo muchas gracias varo y felicidades!!!
sera la "review mas difiicil y diferente" que has hecho, pero que buena review. Muchas gracias varo por dejar claro como sera implementado el dlss4 a todas las rtx, estaba confundido con eso.
¡Muy buena review! Ya veremos eso de que la serie 4000 no pueda con el Multi Frame... seguro que alguien se las ingenia y terminamos viendo una 4070 tirando Cyberpunk en 4K ultra a casi 200 fps y el Muti Frame x4 😂👏 Con ganas de ver las review para los más mortales.. las 5070!!! y también las de AMD , esperemos que le puedan hacer competencia!
Excelente Review y vídeo Varo! , Honestamente el salto generacional ya no existe :( , si un 30-40% más de rendimiento pero también un 25% más de consumo más el cambio de arquitectura y casi un 40% de núcleos de CUDA extra, se esperaría algo más de diferencia en raster, ojalá AMD aproveche la oportunidad en la gama media-alta
Es que Nvidia concentro en aumentar el consumo en la IA y no en las frecuencias para llegar a los 3 Ghz , ya que perfectamente lo pudieron hacer , parece que AMD si lo hará y llegará a los 3 Ghz y veremos muy buena calidad-precio
@@hugoramallo1980 Reddit jajjaja mas falso que las historias de me hizo millonario y lo perdí todo, y demas historias de REDDIT llena de desinformación, mentiras, desinformación, imparcialidad y demas temas.
El vídeo que muchos estábamos esperando. Gracias Varo por traernos al momento todo lo que queremos saber :). Da miedo ese consumo jugando. Es muy cuestionable el beneficio que una persona normal va a obtener de esa gráfica teniendo en cuenta el desembolso por la compra y consumo de luz :P
Grande por fin explican bien sobre el dlls 4 muchos canles ponen que la tecnología dlls4 serán para otras tarjetas de la generación pasada, bien explicado y conciso
Varo, lo primero, y como siempre, buen vídeo y saludos!! Un pedazo de cacharro esta 5090, pero creo que es un desperdicio de dinero si solo vas a jugar con ella. Creo que con una 5080 o 5070Ti tendríamos gráfica para tiempo. Ahora el que tenga pasta se la pillará seguro.
lo que si me he percatado, es que con fg x4 en cyberpunk, las latencias todavia estan bastantes aceptables y mas si se trata de juegos de un solo jugador... espero que esta tecnologia tenga mas margen de mejora hasta el punto que se pueda implementar en juegos competitivos
Muchas gracias por el vídeo. Es una tarjeta para profesionales y muy entusiastas. Es un consumo energético muy elevado. Casi hay que analizar su rentabilidad FPS/€ y tiempos de procesado. La buena noticia es que DLSS4 beneficie a generaciones anteriores. Yo tengo una 4060 comprada en en Blackfriday por 264€ en amazon.
Primero que todo, *felicidades por la review* y el reconocimiento de que te envíen el hardware directamente. Así como mantener la imparcialidad frente a los datos y el contexto de la mayoría de consumidores. Sobre la GPU, pues está dentro de lo que todos esperábamos, 32% más de núcleos CUDA (aparte de consumo y usando un nodo básicamente igual), y se obtiene entre un 30-35% de aumento de rendimiento bruto, que en esta gama no es lo único que importa. Lo bueno es que los nuevos núcleos RT y Tensor pintan muy bien, por lo que en uso diario con DLSS y algo de RT, el rendimiento aumente un poco más allá del conteo de núcleos CUDA. La verdad es que como usuario normal, Blackwell no es muy interesante porque fuera de MFG todo llega a RTX 4000 e incluso mayormente a 3000 y 2000, pero me da curiosidad ver qué tan abajo de la 4090 se queda la 5080 y ver si se arma polémica cuando salga la review de 5070, además del nuevo reescalador (transformer) en GPUs menos potentes y con menos Vram.
Buen video Varo, saludos desde Colombia, un gran salto tecnológico de parte de Nvidia, vale la pena comprarla si eres usuario de las 4090 ya que es una tecnología que solo se ve cada 4 años. Yo mientras seguiré aquí con mi humildad Xbox 😅.
Alguien mas se dio cuenta que todos los porcentajes de diferencia que el informa están incorrectos en todas las pruebas. En TimeSpy dice que la 5090 obtuvo 48326 y la 4090 32684 y dice que la diferencia es de solo el 38.62%, cuando el porcentaje real es de 47.85% Este porcentaje se saca de una manera muy sencilla solo hay que dividir los puntos de la 5090 entre los de la 4090 y restar 1: (48326/32684) - 1 (1.478582) -1 .478582 para terminar solo se multiplica por cien el resultado: 47.8582 y ese es el porcentaje correcto 47.85% En TimeSpyEx: ((25335/17809)-1)*100 = 42.25% no 34.89% que el menciona. PortRoyal:((166.60/111.93)-1)*100 = 48.84% no 39.26% 3DMark:((244.85/171.13)-1)*100 = 43.07% no 35.44% y asi con todos los demas.
Varo, hay algo que no comentaste, el cual es la latencia, se nota al activar FG x4? Ya que la mayoría decia que eso iba a generar una latencia significable, pero se siente de verdad? O no se nota para nada😅
Ver a Varo con menos de 100K y ahora más cerca al medio millón que cuando lo encontré y teniendo más voz y ayuda de marcas es un sentimiento inexplicable
No sabes lo feliz que me hace ver que tantos de vosotros os alegrais por mí. Mil gracias, de corazón
@@rincondelvaro Hola Varo ... mira tu video al 5:30 .... porque en la prueba la ram utilizada (sea CPU que GPU) por la 4090 es el doble de la 5090 ...
¿ estan en calidades diferentes ?
¿estas haciendo trampa ?
Pienso igual, es más pienso que tiene poco para el contenido tan bueno que nos ofrece.
Yo le empecé a seguir si no recuerdo mal cuando andaba por los 40k
@@rincondelvaro Siempre alegra que le pasen cosas buenas a la buena gente. Grande Alvaro.
Joer como has crecido tío.
Te sigo desde hace unos 4 años y has pasado de buscar info de análisis y datos en terceros a ser tu el puntero y tener una RTX5090 a día 0 y sacar tus propios datos.
Me alegro un montón por tí tío, te lo mereces!!!
Que grande Varo🎉🎉
Gracias varo por el video ! ya quiero ver las reviews de las 5070 y las 5080 que son mas para gaming y para nuestros bolsillos
5090 es tanto para productividad como también es para gaming, solo que es más cara…
@@agustinrosales3632para gaming? Eso ya es no es para gaming si no más pasta aprendizaje de IA, para gaming debe de ser de las peores GPU no vale nada la pena
Que ganas de ver el review de la 5070 es la que me voy a comprar y tambien de ver con que procesadores funciona bien, campanita activa!
5070 vs 4090 :3
A mi me han recomendado la 5070 ti, pero me voy ha esperar a las comparativas calidad precio. sobre las series 5000.
@@azunitasama4231 x2, yo pienso ir por la 5080 a ver que tal
Aaah, esperaba este vídeo. Nada mejor que un café mientras veo un video de varo en el trabajo.
:-[:-$(TT):-
Yo me lo vi pero con el Carretillo 😂
Bien dicho y explicado ... sobre todo aclarado el tema de los nanómetros.... pagas mas por un refrito bien optimizado.
Me encanta tu canal! Siempre informas de manera objetiva y dando la información tal y como es! Sigue así Varo, has crecido muy rápido ❤
Has hecho un gran teabajo con la recopilación de la información y no solo eso, lo has estructurado muy bien y has sudo bastante recnico. Te superas dia a día
vamos varo eres el puto amo, felicidades :D
Excelente información , siempre aprendiendo del Grande , todo los detalles y explicaciones son impresionantes , se lo agradezco Maestro Varo , y que sigan los éxitos, un abrazo !!!!!
buen trabajo, beu
na tarjeta que placer hacer la review, un abrazo y a seguir asi de bien
vamos varo todavia ! felicidad hermano !
Que locura la RTX 5090, a pesar de que esta más enfocada en uso para IA en juegos es realmente brutal sobre todo con el DLSS4, me interesaría ver a detalle cada fotograma a ver si hay alguna diferencia en rendimiento. ¡Muchas gracias por las pruebas y compartirlas con nosotros Varo! Saludos y espero que pronto llegues a los 500K subs!!!
Grande Varito, tomando mate y ya viendo el video. Solo decirte que no solo el nivel técnico de cada video es fabuloso, si no el trabajo de cada producción es increible!
Buen trabajo varo. Felicidadess 😁
Muy potente. Te lo has currao mucho el video tio. Chapó!
Me fascina que consideréis que jugar con un input lag equiparable a jugar el juego a 25 fps lo consideréis una innovación... Acojonante lo disparada que está la latencia y todos aplaudiendo con las orejas..."ehhh pero 300 fps" y encima con artefactos ricos...lo que hay que ver y escuchar hoy en día...
Buenísimo el video, de calidad como siempre en este canal. 👌🏾👏🏾👏🏾👏🏾👏🏾👏🏾👏🏾👏🏾
Que monstruo casi 2400€ y 600W, como un Pc entero. A don de llegaremos. Un saludo 👍 🎮🎮💻💻
Así es cuando se está llegando al límite, es como doblar un papel, el primero y 2do dobles es fácil, después empieza lo complicado y necesitas mas fuerza y un papel maa largo, lo mismo pasa cuando entrenas, duplicas el peso que cargas cada semana o 2 semanas pero en cierto punto, subirle solo 1 kg o menos, representa un gasto mayor de energía y mejor alimentación, suplementación, etc, esto es lo mismo, quieres un salto aún mayor? Alista una refrigeración con nitrógeno líquido, una grafica tamaño de un tv antiguo grande y gasto energético ni te digo.
@@robertogutierrez2935no estamos ni cerca del límite , eso lo dijo el CEO de Nvidia para que no se le abalanzaran encima al dar una mejora de rendimiento tan baja , osea todavía queda los 3 nm , hasta el 1 nm , y después de eso los 0,9 nm hasta los 0,1 nm , y después de eso cambiaremos el silicio por el grafeno o alguna movida haci
Nvidia pudo dar un salto mejor , por ejemplo la 5070 consumirá más que la 4070 ¿Pero apenas sumo 300 núcleos y mantuvo frecuencias? Eso quiere decir que Nvidia aumento mucho el consumo de los tensor cores , para que den más potencia , lo cual tiene sentido viendo que en potencia de IA casi triplicaron el rendimiento , pero eso a los gamers no nos sirve mucho , si hubieran mantenido el consumo de las RTX 4000 en la IA , podrían haber llegado a los 3 Ghz de frecuencias , haciendo que cada gráfica 5090 , 5080 , etc , tuviera una mejora extra de almenos un 15% , lo cual sumando lo al 15% que nos dio Nvidia , sería un 30% de mejora , lo cual estaría bien
@traelkel8789 Con esta tecnología entonces se está llegando al límite, cuántos procesadores conoces que funcionen así? Aparte del iPhone no he visto otro, el fabricarlos es muy difícil, por eso el salto es de a poco, una vez no se pueda mas, será cuando se use nuevas tecnologías, pero por el momento si deseas mas potencia el precio sube muchísimo.
@@robertogutierrez2935 hace miles de años el hierro era muy difícil de hacer y era caro , hoy en día está súper estandarizado , con esto pasará lo mismo , la principal razón que creo yo que es el por qué son tan caros los nodos actualmente es por qué TSMC domina el mercado y al no llegar a satisfacer la demanda toca aumentar precios , necesitamos que Samsung o Intel o quien sea se le plante y le haga competencia
Además sobre eso que estamos llegando al límite pienso que es una idea alarmista , osea quedan varios nodos y después de eso reemplazaremos el silicio por otro material , o con nuevas tecnologías que ayuden
@@robertogutierrez2935 Si quieren pueden darles las RTX 6000 que ya tiene hasta una fábricada ya, esta años luz de AMD o Intel, el problema es que pueden darte el triple de rendimiento pero tendeia que consumir 2000 wats y venderlos a 15.000 dólares cada una y eso no tiene sentido, por eso es mejor ir mejorando en tecnologías
Este Varo Hace las Mejores Review De Targetas Graficas . El Mejor !!!!
A mí una mejora de un 30-40% de una generación a otra, me parece bastante potente. Eso sí, me parece que no es igual en todas las tarjetas. A lo mejor la pega está en el consumo de energía adicional.
Y no tiene pinta de que lo vaya a ser, la 5090 es la que tiene mayor diferencia con respecto a su predecesora, del resto a falta de saber más de la gama baja/media baja(5060/5060 Ti) se habla de un 15-20%, comparas la 5070 con la 4070 y 5080 con la 4080 y quitando la cantidad de núcleos de IA que es donde las han inflado mucho, apenas hay diferencia.
30% con un aumento del precio del 25% , cuando la 4090 rendía un 60% más que la 3090 costando solo $100 extra , es un salto algo bajo , pero si este salto fuese en gama media o baja sería considerablemente más bueno
Pienso lo mismo, si tomamos en cuenta las especificaciones que tiene la 5090 y la comparamos con la 4090, la 5090 tiene más de todo y el consumo también aumenta considerablemente. En lo personal no veo una que sea una nueva arquitectura y parece más una 4090 super TI mamada, y el precio viendo lo que rinde me parece razonable, y más si tenemos en cuenta que no tiene competencia, así que lo más probable es que mientras más tiempo pasé más va ir subiendo su precio
@@traelkel8789 el problema creo recordar que lo menciona Varo: la ley de Moore se ha acabado, chips más pequeños = mucho más caros. Y si en esa dirección no se puede avanzar, toca la del software e IA
@@andresvillenero desde siempre creo yo que mientras más mejor el nodo más caro , desde los 90 nm hasta los 2 nm , después de llegar a 1 nm , pasaremos a 0,9 hasta 0,1 nm , y después de eso pasaremos a remplazar el silicio por el grafeno o algo similar , necesitando que le hagan competencia a TSMC , ya que al ser la que tiene más del 60% de la cuota de mercado hace que no satisface a la demanda , haciendo que aumente los precios en consecuencia , Samsung o Intel o los chinos deberían de ponerse las pilas y darle pelea
Tremendo trabajo Varo 🤜🤛
Entré en el vídeo con poca esperanza de quedarme, o al menos mucho tiempo... No recuerdo desde cuando no me veía un vídeo de 20 minutos tan atento... enhorabuena, super bien explicado o muy completo el vídeo, nuevo sub por querer ver más contenido así
Acabo de pasar por Toro tocho.... Sois los mejores Varo, los mejores!!! ❤❤❤ Un saludo!!
Felicidades Varo! Sigue así que te llegarán mas cositas pata negra!
Gracias Varo. Sin duda, eres de los mejores Techtubers en español. Todo el vídeo rebosa calidad. Te explicas genial y además, tienes una magnífica edición. Te deseo la mejor de las suertes en esto, porque de verdad que lo vales. Enhorabuena. 😊
Que grande Varo! de los primeros en sacar la review!! que bueno verte crecer y que no hay necesidad de tener 18 o 20 años para triunfar! un ejemplo a seguir sos un abrazo desde Guatemala!
Locura de video, buenisima rewiew, uno de los mejores cuentas de informatica de españa
Muy buen video varo, eso sí te faltó hablar un poco sobre la latencia y las sensaciones que te dejó al jugar.
Gracias por el review, no soy de video juegos en absoluto pero tu análisis me es de gran ayuda. Un abrazo desde México.
muy buena review!!! saludos desde colombia bro
Enhorabuena Varo, me alegro mucho por el crecimiento del canal, más que merecido. No cambies 💪🏼💪🏼. Este año toca cambio de torre completa incluida gráfica. Voy a por la 5080 salvo que me caliente mucho. A ver las reviews más adelante comparando la 5080 con la 4090. A ver también si sacan la 5080 super y Ti en un año que seguro que hay mejora y sigue no doliendo tanto como la 5090. Saludos!!!
Impecables tus videos como siempre Varo. Saludos!
SOS un crack, número 1 en lo que haces, me encantan tus videos y con este la sacaste del estadio.
Yo la verdad no hace tanto que me pase a Pc, viendo tus videos opté por un Ryzen 7 7700x y una Rtx 4080 súper y sé que es un caño en verdad no me hace falta mas, pero es tal cual la comparación que hiciste del lambo, yo quiero sacar el brazo y despeinarme ahí con el viento 😅😅😅 así que voy por la 5090 🤷🏻♂️😉 lo que no se va en lagrimas se va en suspiros decía mi madrina.
Un abrazo, máquina 🫶🏽🦾🦾
Estoy siempre firme ahí siguiendo tu canal
VARO ERES UN MAESTRO AMIGO.
Te las mandaste👏🏻 una exelente review, de la mejor y mas completa que he visto en español👌🏻
Muy buen review super transparente y sin meterte en lios, aplausos a tu trabajo varo.!
el avance que has tenido es increíble y lo mejor es que eres voz de este tipo de noticias, felicidades
Muchas gracias por el contenido de calidad. Eres el mejor
Que buen trabajo, el mejor review por lejos! Te sigo
Excelente video Varo. Muy bien por analizar la tarjeta desde el punto de vista del profesional, en cada campo (3d, path tracing, compresion de video, rendimiento en IA). En definitiva, muy bien analizarla desde el punto de vista de la herramienta y no solo desde la gráfica para jugar. Bravo!
Me alegra ver videos de alta calidad. :)
Saludos Varo, desde México. Muy buen video como siempre.
Habla más sobre los Transformers! Yo no me enteré con la peli😂😂
Gracias por tus videos tambien explicados.
La comunidad de jugadores de vr en pc cada día va en aumento y creo que
a muchos de nosotros nos gustaría conocer la opinión de expertos como tú
sobre el comportamiento y rendimiento(compreision de video, codificación, etc,..)de estas gráficas cuando jugamos con
un visor de realidad virtual.
Muchas Gracias❤
Muy buena review, muy completa y con mucha información...
Estoy esperando con ganas las de la 5070 y sus variedades...
Saludos y gracias 💪💪💪
Y pensar que seguir a este señor cuando tenía menos de 10k de seguidores, sigue así 🎉🎉🎉
Muy buen video @Varo 😊
Yo sigo pensando que mult generation es marketing para pasar por caja...luego sacarán la 5060...y no se sostiene que una 4090 no pueda usarlo, la verdad. Veremos los demás modelos que varían menos en specs si sube mucho el rendimiento bruto y luego con DLSS4 con mult...ahí va a estar la mejora, pero claro, por SW ...
Excelente video varo, un saludito 😊
Excelente Review Varo. Muy completo, didáctico (sobre todo lo del DLS4 para generaciones anteriores) y sobre todo en mi opinión sin ningún sesgo, a pesar de que NVIDIA te hizo llegar ese monstruo de GPU. Felicitaciones y saludos desde el otro lado del Atlántico
Analisis espectacular 👍👍👍👍👍👍👍
Buen análisis, felicidades Varo!
Desde que conocí el canal me encanta el mundo del hardware. Sin duda el mejor canal de hardware y pc gaming.
Gran vídeo varo, cuando podremos tener más datos sobre la 5070 y su versión ti. Muchas gracias y sigue así 🎉.
excelente review el mas objetivo de todos grande varo
gracias maestro por tu tiempo!! eres un capo. Felicidades por esa increíble review.
Tú y Nate Gentile, los mejores creadores de contenido sobre Hardware de habla hispana :)
Que me alegra que la tengas día 1, que locura Varo
buena review y buen video, como siempre no fallas
Excelente, muy buena información.
Un video genial Varo. Es preciosa e Impresionante esta 5090 FE ; el consumo asusta y la vez tranquiliza ver las temperaturas(tengo una 4090 con undervolt y siempre está mas cerca de los 300w que de los 400w) Sin duda será la mejor GPU .Deseando ver la review de la 5080 y a ver en que posición queda la 4090 entre las 3 5090,5080 y 4090.Muchas gracias por el contenido de altísima calidad que nos traes y nos vemos en el siguiente video. Un saludo
Muy bien Varo ,si bien tengo una 6600 y estoy muy contento con el resultado,esta cosa es de locos.
genial review como siempre, con esto ya confirmamos que nos podemos ir adelantando al rendimiento en el resto de gamas, que sera muy similar a lo que se estaba suponiendo
muchas gracias varo y felicidades!!!
sera la "review mas difiicil y diferente" que has hecho, pero que buena review. Muchas gracias varo por dejar claro como sera implementado el dlss4 a todas las rtx, estaba confundido con eso.
¡Muy buena review! Ya veremos eso de que la serie 4000 no pueda con el Multi Frame... seguro que alguien se las ingenia y terminamos viendo una 4070 tirando Cyberpunk en 4K ultra a casi 200 fps y el Muti Frame x4 😂👏 Con ganas de ver las review para los más mortales.. las 5070!!! y también las de AMD , esperemos que le puedan hacer competencia!
Mas es mas muchachos. Si se puede. Adelante.
Excelente Review y vídeo Varo! , Honestamente el salto generacional ya no existe :( , si un 30-40% más de rendimiento pero también un 25% más de consumo más el cambio de arquitectura y casi un 40% de núcleos de CUDA extra, se esperaría algo más de diferencia en raster, ojalá AMD aproveche la oportunidad en la gama media-alta
Es que Nvidia concentro en aumentar el consumo en la IA y no en las frecuencias para llegar a los 3 Ghz , ya que perfectamente lo pudieron hacer , parece que AMD si lo hará y llegará a los 3 Ghz y veremos muy buena calidad-precio
Excelente video! Gracias.
Genial review! Al fin salimos de dudas, gracias por el vídeo a ver si te mandan la 5080 cuando toque y puedes tambien compararla con la 4080 super
13% ya ha salido en Reddit.
@hugoramallo1980 pero me gustaría verlo en vivo, porque dependerá del juego en muchos casos
A ver, sin duda al mismo precio o 100-200 euros más, merecerá la pena la 5080. Ahora a los precios que estoy viendo en Reddit, no se yo.
@@hugoramallo1980 Reddit jajjaja mas falso que las historias de me hizo millonario y lo perdí todo, y demas historias de REDDIT llena de desinformación, mentiras, desinformación, imparcialidad y demas temas.
El vídeo que muchos estábamos esperando. Gracias Varo por traernos al momento todo lo que queremos saber :).
Da miedo ese consumo jugando. Es muy cuestionable el beneficio que una persona normal va a obtener de esa gráfica teniendo en cuenta el desembolso por la compra y consumo de luz :P
Grande por fin explican bien sobre el dlls 4 muchos canles ponen que la tecnología dlls4 serán para otras tarjetas de la generación pasada, bien explicado y conciso
Buen video varo❤
Varo, lo primero, y como siempre, buen vídeo y saludos!! Un pedazo de cacharro esta 5090, pero creo que es un desperdicio de dinero si solo vas a jugar con ella. Creo que con una 5080 o 5070Ti tendríamos gráfica para tiempo. Ahora el que tenga pasta se la pillará seguro.
buen video Cavani 👍👍
lo que si me he percatado, es que con fg x4 en cyberpunk, las latencias todavia estan bastantes aceptables y mas si se trata de juegos de un solo jugador... espero que esta tecnologia tenga mas margen de mejora hasta el punto que se pueda implementar en juegos competitivos
Esto calla a todos los fanboys de AMD que no paraban de decir que multi FG tendría una enorme latencia jajaja
@@sowllitoxd696 es que si ves las pruebas, en Harry Potter tiene una latencia de 22ms con el fg activado... O sea, es súper jugable !!!!
@ Con reflex deberia bajar incluso mas
@@sowllitoxd696 reflex? que esta implementado en un puñado de juegos?
@@chocapic6465 Se activa en el panel de control de Nvidia
Excelente review Varo. Quedo a la espera de la 5080 para conocer tu opinion al respecto. Saludos!
Varo, sos god, gracias por hacer tus videos
Siii súper por unas filtraciones que el día 23 saldrían todos los rewiew y me dijeron estas loco pero no estaba loco siuuuu
Muchas gracias por el vídeo. Es una tarjeta para profesionales y muy entusiastas. Es un consumo energético muy elevado. Casi hay que analizar su rentabilidad FPS/€ y tiempos de procesado. La buena noticia es que DLSS4 beneficie a generaciones anteriores. Yo tengo una 4060 comprada en en Blackfriday por 264€ en amazon.
Bien explicado gran trabajo
Gracias!!
Te estaba esperando!!
Eres el más fiable, sin duda
Excelente video, sería genial probar esta gráfica con un pcie 4.0 vs pcie 5.0 para ver una comparativa.
Primero que todo, *felicidades por la review* y el reconocimiento de que te envíen el hardware directamente. Así como mantener la imparcialidad frente a los datos y el contexto de la mayoría de consumidores.
Sobre la GPU, pues está dentro de lo que todos esperábamos, 32% más de núcleos CUDA (aparte de consumo y usando un nodo básicamente igual), y se obtiene entre un 30-35% de aumento de rendimiento bruto, que en esta gama no es lo único que importa. Lo bueno es que los nuevos núcleos RT y Tensor pintan muy bien, por lo que en uso diario con DLSS y algo de RT, el rendimiento aumente un poco más allá del conteo de núcleos CUDA.
La verdad es que como usuario normal, Blackwell no es muy interesante porque fuera de MFG todo llega a RTX 4000 e incluso mayormente a 3000 y 2000, pero me da curiosidad ver qué tan abajo de la 4090 se queda la 5080 y ver si se arma polémica cuando salga la review de 5070, además del nuevo reescalador (transformer) en GPUs menos potentes y con menos Vram.
gracias varo por la review 🎉
Gran Video!
Buen video Varo, saludos desde Colombia, un gran salto tecnológico de parte de Nvidia, vale la pena comprarla si eres usuario de las 4090 ya que es una tecnología que solo se ve cada 4 años. Yo mientras seguiré aquí con mi humildad Xbox 😅.
que barbaridad de grafica, excelente video
que buena presentacion de datos.. like al videomaker!
Buen review, esperando a la review de 5080 - 5070Ti que encaja mas con el presupuesto que tengo y ver si vale la pena
Buena review Varo! Y gracias por traer pruebas en rasterización, y no de juegos a 1080p que a nadie le interesa.
Lo del 1080p es para comparar CPUs, no para este monstruo que hasta el 4k se le queda corto.
Grande Varo como siempre el mejor, creo que esperare una 5080 o 5080 TI o Super, aun guardo las esperanzas de esos 24GB
Alguien mas se dio cuenta que todos los porcentajes de diferencia que el informa están incorrectos en todas las pruebas.
En TimeSpy dice que la 5090 obtuvo 48326 y la 4090 32684 y dice que la diferencia es de solo el 38.62%, cuando el porcentaje real es de 47.85%
Este porcentaje se saca de una manera muy sencilla solo hay que dividir los puntos de la 5090 entre los de la 4090 y restar 1:
(48326/32684) - 1
(1.478582) -1
.478582
para terminar solo se multiplica por cien el resultado:
47.8582
y ese es el porcentaje correcto 47.85%
En TimeSpyEx: ((25335/17809)-1)*100 = 42.25% no 34.89% que el menciona.
PortRoyal:((166.60/111.93)-1)*100 = 48.84% no 39.26%
3DMark:((244.85/171.13)-1)*100 = 43.07% no 35.44%
y asi con todos los demas.
Varo, hay algo que no comentaste, el cual es la latencia, se nota al activar FG x4? Ya que la mayoría decia que eso iba a generar una latencia significable, pero se siente de verdad? O no se nota para nada😅
La quiero. Gran video!!
Me ha encantado la review! Estaba deseando ver una. Aunque para ser honestos, la que más me interesa es la 5080. La 5090 es soñar demasiado... :p
Veamos esa review ❤
Grande justo estaba buscando informacion de la rtx 5090
Muy buen video, si me interesaba ver el rendimiento de juegos sin dlss y sin ray tracing porque este ultimo no lo uso casi nunca
Excelente video!!!
Nah simplemente contenido de calidad como siempre.
Me voy sin dudas por una RTX 5070 TI, aun asi a esperar su review 👻