Aunque tengas dinero, el mercado está fatal Las gráficas de Nvidia llevan varias generaciones siendo muy elitistas, pensadas solo para gente sin aficiones más allá de este sector. Para todo el resto de usuarios son muy poco prácticas. Por otro lado AMD no está sabiendo hacer la competencia, está sacando gráficas muy normalitas a precios no tan competitivos como deberían, y en resumen no están sabiendo aprovechar el inmenso hueco que Nvidia deja en el mercado E Intel por el momento está durmiendo
La gente olvida que el proceso de fabricación de chips de la serie 50 es prácticamente el mismo que el de la serie 40 y eso es porque cada vez es más difícil hacer más pequeños los transistores. La generación pasada se vio un gran cambio porque pasaron de una arquitectura de Samsung a una de TSMC y este año solo repitieron TSMC en un proceso bastante pulido pero que no tiene gran mejora con respecto a la serie anterior en nm , por lo que si. Lamentablemente el único camino que se ve por ahora es el uso de IA para mejorar el rendimiento de los juegos. El renderizado tradicional por ahora está limitado a la arquitectura, compatibilidad y tamaño de los transistores de la GPu.
también paso que nvidia no tiene competencia y por eso no se calienta sacar grafica con mas potencia. amd no compite y intel tampoco. cuando amd saque algo groso o intel en gpu, hay nvidia va a sacar gpu mas potente y otro tema es el consumo. mas potencia mas consumo
@@fernandogalli9114te hago una pregunta sera que a raiz de la nintendo swich 2 nividia se le mete al rancho amd y empezara hacer cpu para portatiles)? otra cosa ya se filtro que el chip 239 de nividia , va alcancar 1.75 teraflop en portátil y 3:teraflop en sobremesa , sera que eso le alcanza para competir con los pc actuales del mercado?
También cabe mencionar que se están enfocando mucho en IA y por ahora están dejando de lado a los gamers pobres que no tengan para comprarse al menos la 5070
Solo discrepo en 1 cosa, creo que no todas son para 4k, pienso que la 5070 está destinada a 1440p ya que tiene 12gb de vram y a día de hoy hay juegos AAA que están usando 14-15gb de vram, creo que todas las gráficas son buena opción si tienes el dinero ya que todas valen menos que la gen anterior, menos la 5090, teniendo un rendimiento de aprox 30% mejor. Aguante el 1440p
@pedromonkey8946 los generadores de cuadros utilizan vram adicional, hay gráficas que se ahogan en 1080p de 8gb, y bajan de no se 70 fps a 20 por falta de vram
A mi me da la sensación de que todo esto tiene que ver con que cada vez se cumple menos la Ley de Moore, cada vez es mas complicado achicar el tamaño del transistor para mejorar la potencia y la eficiencia de cualquier tipo de dispositivo semiconductor como una GPU. Ahora la revolución es la IA mas allá de que pueda tener ciertos problemas como lo visto en el video, es innegable que el futuro apunta a su correcto funcionamiento y perfección.
Es cierto, cada vez es más complicado transistores más pequeños entonces ellos solo nos traen esto de la IA para poder sacando nuevas GPU tal vez en el próximo lanzamiento hayan nuevas mejoras y no tanta ia
Muy buen análisis para los pocos datos disponibles. Ojalá lleguen a la Argentina, que respeten el precio internacional y la carga impositiva sea mínima. El resto pasa a segundo plano. Un abrazo y excelente contenido.
eso lo dudo que repete lo precio, va esta el mismo precio que la serie 40 o mas cara para que baje el la unidade de la serie 40, yo calculo que llegaría en abril o mayo en argentina
buen Video, yo creo que haré el salto a la RTX 5070 cambiando mi actual RTX 2060, creo que si el precio se "respeta" y mas aca en argentina creo que vale totalmente la pena comprarla.
@@Blasdelezo92 claro pero economicamente aumentaria mi presupuesto, y debo cambiar otras cosas (fuente, placa madre, procesador) aparte de comprar la 5070
No estamos "entregando" potencia bruta, lo que pasa es que cada vez es mas complicado aumentar la potencia bruta, no es tan facil como decir "metele más teraflops" hay limites tanto logisticos como fisicos y ya estamos alcanzando ambos, cada vez cuesta mas meter 1 transistor más en el mismo mm² y ya estamos cerca de que sea imposible, no estamos sacrificando potencia bruta, si no que ya casi no hay mas de donde sacarla.
Por que usa IA para aumentar rendimiento, por qué la ley de Moore está muerta. Estábamos acostumbrados a aumentar el rendimiento en base a meter más transistores en menos tamaño. Pero ya llegamos a ese límite, miren a AMD, también le pasa lo mismo con las 9070.
lo peor de todo esto es que amd esta haciendo las cosas a medias con sus gamas sin integrar inteligencias artificiales e intel estan basicamente experimentando con las gamas de entrada... NECESITAMOS COMPETENCIA. MATENSE A COMPETIR
Yo viendo esto con la esperanza que bajen de precio la serie 4000, así es mas fácil de conseguir la serie 3000 y comprarme una 2060 así jubilo mi pobre GTX 960 que esta muy cansada
El pathtracing y el dlss son el futuro, es imposible poder pensar que una GPU corra el trazado de rayos de manera nativa, cuando hasta el día de hoy incluso en la industria cinematográfica se siguen utilizando optimizadores y aceleradores para que se pueda renderizar con pathtracing (tecnología que existía de mucho antes de la serie 20). Ahora imaginen llevar ese renderizado a tiempo real, es imposible, estamos a décadas de lograr eso de manera nativa. Lo mismo aplica a nuevas tecnologías que van surgiendo en el camino, es por ello que el dlss se está volviendo tan crucial. Por otra parte después de 3 generaciones la gente sigue sin entender que están obteniendo un producto que no es solo para gaming, sino también para productividad, y por suerte para la gente que estamos en esto son un golazo estas GPUS y lo que nos ofrecen, antes de las RTX si te dedicabas profesionalmente a esto necesitabas invertir en una GPU Quadro que eran muy pero muy costosas. Hoy estamos recibiendo placas de video que se comportan muy bien en gaming y también en productividad por un precio muchisimo menor que una Quadro y considerablemente más caro que una gtx o modelos anteriores donde el MSRP era medianamente accesible. Y todo esto con AMD perdiendo absurdamente en productividad, a tal punto que la 4070 común renderiza más rápido que una 7900 XTX. Y acá pueden seguir excusándose que los programas estos están optimizados solo para Nvidia y blabla pero una 70 que supera al buque insignia de la competencia en productividad no es solamente una cuestión de optimización del software, es la carencia de tecnologica por la que está pasando AMD. Y no es un comentario de fanboy o mala leche porque al contrario, me encantaría que AMD pueda competir, tener precios más accesibles y no estar obligado a comprar una RTX al precio que se les canta el choto a Nvidia para poder laburar.
Agrego porque me olvidé de ponerlo en el comentario anterior, también estás tecnologías ahorran tiempo de trabajo a los desarrolladores, el raytracing redujo una locura de tiempo de trabajo porque ahora hace de manera casi automática lo que antes te llevaba horas y horas mapear la iluminación. Y por lo tanto cuando salen estás tecnologías nos terminan beneficiando indirectamente porque los desarrolladores de videojuegos aceleran su flujo de trabajo notablemente y pueden dedicar ese tiempo a pulir otras cosas y entregar un mejor producto. El problema de esto es que los desarrolladores no aprovechan como corresponde estás tecnologías y terminan abusando de ellas porque optimizan menos y después tenés que bajar 200-300gb para jugar un AAA porque son pajeros y no optimizan, total el dlss todavía lo tira.
Lo que como comunicador deberías compartir en tu comunidad es que estamos al limite físico del silicio y que saltos de rendimiento bruto sera muy difícil en este punto por lo menos tratando de mantener mas o menos los precios y que seremos dependientes de estas tecnologías de IA con los juegos tan pesados y con efectos de iluminación en tiempo real, saludos
Concuerdo loco, la verdad que por mas "El salto en rasterizado no sea para tanto", estamos hablando de que una 5070 seria superior a una 4070 Ti super, una grafica que cuesta $150 (msrp) por encima de la primera. Es una reduccion de precio zarpada y mas si tenemos en cuenta que en los juegos que saldrán a partir de ahora, con MFG habría una mejora mucho mas importante
Pues tu cuando comprar una grafica no compras silicio, compras el desempeño, si no te gusta el desempeño de estas todavía queda ver que cosa entrega AMD
Si tienes mucha razon pero al parecer si es un software apoyado en hardware que a mi no me consta por que no soy ingeniero y facil nos juegan el dedo en la boca.
Que Nvidia este haciendo todo lo posible por estandarizar el DLSS al 100% es un esfuerzo notorio, sin embargo, incluso el DLSS base como tal sigue estando verde en madurez, de ahí a decir que es una estafa, es un trecho un poco largo. Si ahora parece estafa, quizás en 2 años cuando el hardware sea aun mas especializado y la IA mas entrenada, sean menos los que se quejan de un avance en distinta dirección, mas no la contraria. Es curioso, hace 30 años, el creador del Quake 2 dijo que una GPU nunca igualaría ni podría ser mejor que un procesador, y adivinen, se usan en dupla desde hace 20 años. Creo que se debería madurar y así como la GPU tuvo su despertar hace tiempo, cuando se descatalogaba su razón de ser, deberíamos apoyar esta segundo avance en metodología, quien sabe cuantos acá tengan que tragarse las palabras que lo criticaban.
el tema no es de potencia de hardware, es de optimizar bien lo juego ya que la desarrolladora no ase y depende de potencia bruta, imagínate si ase un juego optimizado para una grafica le saca mas el jugo por eso la consola gana y eso que tiene mucho meno potencia que una gpu
De hecho si, se espera que en fuerza bruta rinda como una 4080, con el salto qué darán con RT y FSR abra qué ver como quedan, si queda por debajo de la 4080 entonces si no se ve tan buen producto.
yo ya no veo tan increible esta tecnologia de nvidia de mult generation, tengo una 3080ti y cuando salio la serie 4000, y salio la tecnologia de frame generation instale un mod y tuve tambien esa misma tecnologia y el resultado es sorprendente, y en cuanto al nuevo mult generation exclusivo de la serie 5000, me compre el lossless scaling que ahora con su version 3.0 se puede multiplicar los frames hasta por 20, esto le dio una vida increible a mi 3080ti y nuevamente el resultado es increiblemente bueno, igualmente no creo que la serie 5000 sea una estafa, todo va a hacia la IA hoy en dia
el mod para la serie 3000 no es igual que usar nativo de serie 40 en muchos aspectos , segundo losselen scaling es un rescalado como fsr es una puta mierda . es la realidad son parches para la gente que no tiene un dolar quiere a toda costa estirar como chicle el hardware que tiene pero hay que ser realistas
Es como dices, no es lo mismo renderizar una imagen por software mayormente que en un balance con potencia bruta, esto se traduce en que aumenta la latencia, ya veremos las pruebas, porque te digo, en la generación 4 mil cuando activas una tecnología de rescaldado o interpolado si no obtienes más de 50/60 FPS nativos, te tragas tremendos tirones y latencia, entonces, si hay diferencia, una reconstrucción de imagen mayormente basada en IA no es igual a que tengas más apoyo en potencia bruta, se está perdiendo el equilibrio. Me gustan las tecnologías nuevas y no niego que es bueno que estén ahí, mi problema es que nos la vendan tan pretenciosamente queriendo que pensemos, que sin activarla tendremos artefacts o stutering si o si, el que nos quieran vender software a precio de hardware nuevo es lo que molesta, y esto repercute en las desarrolladoras para pulir menos los juegos, Se agradece que bajen un poco los precios, pero no debemos olvidar que nos han cobrado lo que han querido durante mucho tiempo, reitero, si siguen apuntando a que el rendimiento mejore más en base a tecnologías (claramente por eso no les duele tanto bajar un poco el precio jaja) no vamos a poder ver todo el potencial real que podriamos estar disfrutando, saludos shux.
Yo ya vendí mi 4080 super iré por la 5080 , la vendí por 900 dlls , solo pondré 200 para dar el salto , lo malo es que si no hay stock para mi me voy a quedar como el chino ( milando) jaja
En España hay un refran "nadie da duros a 4 pesetas", o "nadie te cambiaria 1 moneda de 2 euros por 1 moneda de 1 euro", vamos, que esto de alguna forma es un timo. Con menos nucleos cuda una 5070 no puede rendir como una 4090, ahora, si en la estadisticas meten el "copia pega" de frames con IA, pues apaga y vamonos
Goey, no veo a prácticamente nadie que tenga una serie 4000 cambiando a una serie 5000, vaya de la 3000 ya se le ve más sentido, pero quizá támpoco vale tanto la pena cambiar tu serie 3000 por una serie 5000, ahi vamos que los que tenemos una serie 2000 o una 3000 de entrada, si está ya justificado una serie 5000 no son equipos que se deban cambiar cada que sale una serie nueva, es como cambiar de celular cada que sale uno nuevo, no tiene caso, será prácticamente igual y los mismos diseñadores lo dicen, son equipos hechos para que te duren 4 años a menos que te sobre el dinero y lo tires cada que sale algo "mejor" porque ya lo dijiste, el crecimiento en rendimiento entre una generación y otra es poquito, ya cuando son dos o tres generaciones ya se nota el cambio, Saludos!!
Tecnologías que conforman aunque NO resuelven, son estos los argumentos de "beneficios". Ventajas? Solamente para la empresa que desplaza tractores y mete Mini cooper en el campo para arar la tierra.
En 2012 usaba 2 GTX 670 en SLI, 2017 compre la GTX 1080Ti y el salto de rendimiento fue increíble tanto en juegos como en renderizado de video con programas de edición, en 2020 compre la 2080 Super y en juegos que no usaban raytracing el rendimiento era apenas superior pero ni en 4k era necesario más rendimiento (y sin la necesidad de activar DLSS), y en juegos que si usaban raytracing el salto fue ENORME, actualmente aún tengo la 2080 Super y no hay juego que me dé problemas serios en rendimiento, ya no puedo jugar a todos los títulos en 4k pero si en 1440p a más de 60fps incluso con RTX ON, uso la PC para jugar y para trabajar y a día de hoy el rendimiento en ambos aspectos es excelente, y si la 2080 super aún sigue siendo muy buena, imagino que el salto a la 5080 va a ser brutal
La arquitectura actual no tiene mucho futuro de "mejora" pero si llegase a haber algo diferente como los procesadores cuanticos (y fuesen algo viables claro) ese seria el futuro
Creo que lo más sensato es esperar y ver que tal rinden; las compañías te van a decir que son lo mejor que le pasó al gaming, es marketing, te quieren vender su producto y es algo obvio, por eso hay que tomarlo como especulación, con una base pero especulación. Claramente Nvidia es una empresa que tiene su prestigio más allá de la propaganda, pero suele inflar sus productos; lo más interesante será ver su desempeño y el input lag. Esta generación me es un poco indiferente, no tengo muchas espectativas, pero tambien soy un jugador más bien casual, orientado al Indi o juegos que salieron del 2015 para atrás pero cada tanto juego a un AAA más actual.
Muy buen video buena edicion buen analosis guion etc este canal es increiblemente mejor que la mierda mediocre que sacan la mayoria de los canales latinoamericanos
Yo creo que el problema más grande es culpa de los desarrolladores qué no se preocupan en optimizar sus juegos. No tiene sentido que el conter strike 2 de 160fps con una 2060. Mientras el delta force qué tiene más jugadores, más efectos etc me de 120fps. Las gráficas actuales son bestiales. Pero lo que más las limita son la poca cantidad de buenos triple AAA y que vienen cada vez menos optimizados.
Este tipo de cosas es el camino, siempre y cuando haya transparencia, y el consumidor a su vez sea sensato. No es lo mismo decir "Rinde igual" que "Es más eficiente". Porque una gpu tal, más potente (así a lo bruto), consume más, calienta más... y eso tiene su costo también. Ponele que se llega al punto de que la diferencia visual es imperceptible, y te cuesta $300 en lugar de $800, pues perfecto. Siempre y cuando seas consciente de que ese mismo componente tal vez no te es igual de útil si querés editar un video, por ejemplo. Es medio que la misma historia de PC vs Consolas; unos son dispositivos dedicados y optimizados para una tarea, y los otros para varias boludeces. Por eso las consolas también usan firuletes de rescalado y demás; porque no podés meter tanta potencia bruta en esa cajita, y además que sea barato, y que no tengas que poner la consola en la heladera para que no se incendie. El futuro, allá en el horizonte, es por ahí; pero bueno, en cada paso habrá problemitas y esa bola. Así ningó es la evolución. La Unión Soviética tenía un piso entero de "Super computadoras" que en total alojaban 500 mb de datos, y hoy tu smartphone de esa cantidad se caga de risa, ahí en tu bolsillo al lado de tus bolas mientras te las rascás viendo la presentación de Nvidia
Pero no se dan cuenta de que la tecnología está cambiando? La IA está aquí para quedarse, y por ahí es donde van a mejorar las gráficas. El rasterizado está muerto y el que se empeñe en lo contrario pues que no se compre una tarjeta rtx. Quédense con sus Radeon. Jugaran a los juegos que están por venir a 4k nativos, todo a full y nitido que te cagas a 30 fps y tendrán al aldo a uno jugando al mismo juego con una rtx, jugando con todo a full y con una calidad estupenda a 300 fps disfrutando del juego y olvidandose de hacer zoom 40x para ver las sutiles diferencias entre ambas pantallas
hay algun juego comercial que no utilize rasterizado para dibujar elementos 3d? La ia esta para quedarse , si , la ia podria ser el principal forma de representación, tal vez , lo sera esta generación o la proxima, no xd, asi que bajemos del pony y esperemos a ver como se ve el mfg que y principalmente como siente
@@MrSuperpaco ambas compañias tienen su fg , ambos funcionan por interpolación pero el de nvidia usa ia , más frames reales generados por rasterizado significa que puedes crear más frames interpolados con mejor calidad ,mejor estabilidad y con una mejor sensación del input de los controles
a mi no me parece mal que se enfoquen en la IA,pero espero que si quieren que me gaste mas de mil euros en la nueva grafica,porr lo menos en todos los juegos tenga dlss porque si vas a enfocarte todo en IA y luego los juegos nuevos que salgan se juegan sin dlss,pues no tiene sentido ninguno actualizarse,ya que el salto es de un 20 por ciento de rendimiento sin tecnologias de IA
Yo tengo la 4070 que pille en 2023 y obviamente no me voy a cambiar. Por lo que he visto solo te renta el cambio si vienes de una generacion 2000 o anterior, o salvo que quieras irte al tope de gama. La mayor decepcion y que me perece reirse de los usuarios es que la 5090 no sea capaz de mover el ciberpunk [un juego de hace 5 años, es del 2020] ni a 30 fps sin el dlss
a menos de que trabajes con tu grafica y que la potencia extra en inteligencia artificial se vuelvan escenciales en ese aspecto no creo que merezca la pena para nada
Es como criticar un vehículo que tiene turbo porque es potencia artificial. No señores, son nuevas tecnologías y la forma en que se construye el path tracing y ray tracing es muy muy brutal, ningún hardware convencional lo soportaría a 4k es por ello que se utilizan otras técnicas, sobre todo software integrado al hardware. Recomendación: no es cierto que los frames van a ser “falsos” no hay tal cosa o hay o no hay, disfruten las nuevas tecnologías y aprendan a cambiar su formar de pensar y actualicen sus conocimientos.
Hay bastante humo en esta generación. Lo de los precios mas bajos coincido en que lo compensaría pero creo que es mas un deseo que una realidad cuando lleguen finalmente.
el rasterizado es todavia importante, si no lo fuese las graficas de Nvidia no serian mas potentes que las anteriores y sin embargo, lo son... los fake frames seran utilizables cuando no generen tanta latencia porque reflex no hace nada al respecto (nunca hizo ni hara nada), faltan años. Que el super sampling tenga un poco mas de calidad lo agradeceran los usuarios de las RTX en general, la unica buena noticia de las tecnologias anunciadas, el lag generation, loseless scaling, FSR 3 y demas tecnologias de generacion de latencia estan lejos de ser utilizables todavía
La serie 2000 fue una muy mala salida con la primera generación de rtx. Rendían casi igual las placas. Me acuerdo que yo no actualizé solo por el desastre que era el rtx y la poca diferencia en rendimiento bruto. Hubo que esperar un año a que nvidia saque por primera vez la gama Súper y fue la diferencia promedio que hubo entre una 980ti y 1070 por decir un ejemplo
Yo diría que sí vale la pena pero desde la 5080 en adelante. Si tienes poco dinero, pues mejor esperar a la 5060 o conseguirte una serie 40 en una buena oferta
La rtx 5080 puede igualar en rendimiento de rasterizado (sin usar dlss) a rtx 4090, por medio de memoria más rápida, una arquitectura más avanzada, aunque con 16 VS 24 GB, aun así me parecen muy atractivas estas gpu, tampoco se debe dudar del avance en IA es mucho mayor y que funcionarán muchas mejoras en rtx 4000
Las tecnologias de reescalado estan muy bien para alargar la vida util de tarjetas, por ejemplo los ultimos juegos en ultra han sido por DLSS en mi 2070 super. Pero ahora con la 7800xt el FSR lo tengo de adorno salvo que active el path tracing en Cyberpunk o me voy a jugar a la 75' del salon en 4k. Es que no tiene sentido jugar en una monitor de 24 o 27' en mas de 1080, tienes que pegar la cara al monitor para ver los pixeles
no lo veo mal, si vos me decis que los precios se duplicaron bueeeeno. Pero literalmente estas pagado un poquito mas por una nueva teconologia, que quieras o no es lo util de esto. Es como comprar un cepillo electrico y usarlo de forma manual y quejarte que no saca tanto la carne de tus diente como el cepillo clasico, si compras el electrico es para usarlo con su sistema xd. Si pago por una 5090 que tiene como funcion mas llamativa la implementacion de IA para aumentar drasticamente los frames por segundo, perdiendo menos calidad grafica que sus antecesoras, entonces esta perfecto. Aun asi muy buen video, siempre los veo y sos un capo explicando la data
Decenas de videos en UA-cam con la misma chorrada de siempre de la fuerza del rasterizado contra los "frames falsos". Juego siempre con Dlss calidad desde que salió la serie 3000. En casi ningún caso se notan las diferencias con el nativo. Está generación incluso con el Reflex 2 bajará la latencia. A mí solo me importa jugar con la máxima calidad con el mejor rendimiento y es lo que consiguen estás tecnologías; si lo hace con poder de rasterizado o con "trucos" me es totalmente indiferente. Si la rtx 5080 tiene el poder de la rtx 4090 y además con trucos multiplica x2 su rendimiento, hasta me parece barato su precio. A veces la magia es casi indistinguible de la realidad y si nadie te dice que es magia tus sensaciones son las mismas, por lo que este debate se está quedando ya algo anticuado....
Perfecto, buen video. Creo que ya es hora de cambiar mi actual GTX 280 por una nueva GTX 295 porque creo que ya es hora de cambiar mi GPU a una más potente.
la unica que hay cambio es la 5090 rtx ya que trae mas cuda, tenso y memoria aparte una mejora de lo nucleo. pero el dia de mañana la inteligencia artificial va ser lo salta ya que en potencia estamos al limite por tamaño y consumo
La única que vale la pena en mi humilde opinión es la 5070ti q sin dlss ni na tiene un rendimiento aproximado de un 30-35% extra con respecto a la 4070ti. Habrá que ver, la 5080/90 me parecen un chiste, solo un 3% más de rendimiento sin dlss es una cargada
@KUMEADOR Sí, pero a lo que voy es que por rendimiento bruto en calidad precio, creo q conviene la 5070ti, yo voy a apuntar a esa. Después obvio q usas el dlss yo lo uso desde q salió
Yo te recomiendo que primero lo pruebes y luego les des tus opiniones a las personas, Si eres una persona cuyas decisiones influyen en las de los demás, habla más con hechos comprobados y no con teorías. Esperen a que salga y, luego, tomen su decisión
...5070 con 48SM comparada con la 4070 con 46SM es un 5% + rapida / 5070ti con 70SM comparada con la 4070ti super con 66SM es un 6% + rapida / 5080 con 84SM comparada con la 4080 con 80SM es un 5% + rapida / 5090 con 170SM comparada con la 4090 con 128SM es un 33% + rapida
Para mi el focus ya no son las GPU ahora porque poder avanzar los juegos tiene que estar completos con buena base de graficos de nada sirve tener un Ferrari en un carretera de tierra
Yo pienso si pagas algo menos y tenes un 20 porciento más no me parece tan malo y el dlls 4 pero no creo que el salto sea más que eso y también tal vez en 2027 larguen la serie 6000 y dlss 5 todo comercio
No se si son un mentira, lo que sí es notorio que apuestan por tecnologías dejando poco a poco de lado la fuerza bruta de las gráficas. Con el Path Traicing se ve genial, pero vale la pena pagar ese costo por ver un juego así? no sé. Por otro lado, pienso que los juegos están en un buen nivel gráfico, pero faltan juegos, faltan títulos, faltan cosas distintas, faltan que las empresas se arriesguen más porque gastar no sé, 1500 USD en una gráfica para jugar Spiderman de Insomniac? nah gracias paso... Ojalá GTA VI fuerza y de un piso, y no un techo, de lo que se puede hacer, y repito, no hablo de apartado gráfico solamente, sino de interacción, de novedodes, de salir ya de esas mecánicas que UBISOFT tanto explota de ser un UBER de misiones en un mapa lleno plagado de iconos. Se necesita un salto a nivel artístico, un salto a nivel desarrollo, al nivel producto, las PC vienen sobradas, pero los juegos son demasiado monótonos.
Voy a ver que onda con la 5070, espero que ahorrar 6 meses no sea en vano, planeo jugar en 2k ultra con todos los chiches (si es que no se les canta ponerle un sobreprecio epico a las empresas ladris de hardware)
Perdón pero yo no banco NADA esto del dlss. Me molesta que todo tenga componente temporal y que por lo tanto todo se vea tan borrosísimo. Por qué no volvemos al antialiasing de Call of Duty Advanced Warfare por ejemplo?
que pena no ver mas de 4 minutos de su fabuloso video, pero nunca habia escuchado tantas estupideses en todos mis 40 años. yo sólo espero que no sean la media de su generación.
En lo personal)y con poco conocimiento), creo que quienes están en problema son quienes las usan para trabajar. Sobre todo por el consumo energético. Quedan lejos de los M4 😢
El tema es que toda la comparación de la 5070 con la 4090 fue con toda la IA arriba de la 5070 contra el rendimiento bruto de la 4090, si hubiera sido con la IA al palo de esta última ni ahí se iguala ni ahí
yo creo que en la prox apuesto por AMD. tengo una rtx 4070 y estoy bastante conforme, pero Nvidia nos va a llevaer a la rebelion de las maquinas (? jaja
Ojo con lo del dlss que pusiste el ejemplo más horrible que es el metro Exodus con el DLSS 2.0 y ya vamos por el 4.0 que ya con el 3.0 se ve infinitamente mejor que el 2.0 incluso hay casos que se ve mejor que nativo. No es 100% así ya que hay algunos juegos donde se nota un poco lo borroso pero nunca tanto como el ejemplo que pusiste.
Bueno manito yo tengo un monitor Optix G27C la tengo con una 3080 10gb y coming soong una 5080 con dios mediantes el DLSS jamas lo tocare todo en ultra con saco de fps y la grafica de chill to fria con potencia de sobra para cierta cagadas mal optimizadas 😎👌 ahora la gente que espero que la RTX 5070 rindiera la como la RTX 4090 esperaba un salto de rendimiento como fue la GTX 1070 que se comia sin problema a la GTX 980Ti.
mientras las sigan comprando cada dos añitos no van a exprimir y sacar una disque tegnologia nueva , quien me acegura que ese dlss4 no puede estar en la serie 4000 , mejor nos vendian las tegnologia, por que ellos mejor no nos venden una tegnologia por varios años y dejar de estar haciendo graficas cada dos años y hay gente que acaban de comprar o tienen 3 o 4 meses que compraron la serie 4000 😂, para mi dos años es poco , ni las consolas se atreven hacer eso 😂 que valen mucho menos.
El Chino ya viene quemandose hace años con las mentiras y las cagadas xD ojala lo de amd rinda como dicen en potencia y precio, porque lo unico que tiene el chino es el multi frame generation
yo viendo esto como si tuviese dinero para pagar la 4060 xd
Hay varias paginas que ofrecen buenas graficas a buenos precios hasta en cuotas, como Venex o libreopcion
No te preocupes yo tengo para comprar 10 y me parecen una estafa por que nos venden algo que no pedimos.
Mregalas una prfa @@12x3-y2b
Aunque tengas dinero, el mercado está fatal
Las gráficas de Nvidia llevan varias generaciones siendo muy elitistas, pensadas solo para gente sin aficiones más allá de este sector. Para todo el resto de usuarios son muy poco prácticas.
Por otro lado AMD no está sabiendo hacer la competencia, está sacando gráficas muy normalitas a precios no tan competitivos como deberían, y en resumen no están sabiendo aprovechar el inmenso hueco que Nvidia deja en el mercado
E Intel por el momento está durmiendo
@@mikivini73 en teoria la ARC B580 viene mostrando buenos numeros a un precio safable pero no de locura
Es el meme de "Lo cambia todo" y "No cambia nada" al mismo tiempo
14:00 no alcanzó el presupuesto para poner un gameplay grabado de fondo , por eso ahora hay un gameplay en vivo
La gente olvida que el proceso de fabricación de chips de la serie 50 es prácticamente el mismo que el de la serie 40 y eso es porque cada vez es más difícil hacer más pequeños los transistores. La generación pasada se vio un gran cambio porque pasaron de una arquitectura de Samsung a una de TSMC y este año solo repitieron TSMC en un proceso bastante pulido pero que no tiene gran mejora con respecto a la serie anterior en nm , por lo que si. Lamentablemente el único camino que se ve por ahora es el uso de IA para mejorar el rendimiento de los juegos. El renderizado tradicional por ahora está limitado a la arquitectura, compatibilidad y tamaño de los transistores de la GPu.
también paso que nvidia no tiene competencia y por eso no se calienta sacar grafica con mas potencia. amd no compite y intel tampoco. cuando amd saque algo groso o intel en gpu, hay nvidia va a sacar gpu mas potente y otro tema es el consumo. mas potencia mas consumo
@@fernandogalli9114te hago una pregunta sera que a raiz de la nintendo swich 2 nividia se le mete al rancho amd y empezara hacer cpu para portatiles)? otra cosa ya se filtro que el chip 239 de nividia , va alcancar 1.75 teraflop en portátil y 3:teraflop en sobremesa , sera que eso le alcanza para competir con los pc actuales del mercado?
También cabe mencionar que se están enfocando mucho en IA y por ahora están dejando de lado a los gamers pobres que no tengan para comprarse al menos la 5070
Solo discrepo en 1 cosa, creo que no todas son para 4k, pienso que la 5070 está destinada a 1440p ya que tiene 12gb de vram y a día de hoy hay juegos AAA que están usando 14-15gb de vram, creo que todas las gráficas son buena opción si tienes el dinero ya que todas valen menos que la gen anterior, menos la 5090, teniendo un rendimiento de aprox 30% mejor. Aguante el 1440p
Con dlss 4 tal vez no haga falta 16gbvram :v
@pedromonkey8946 los generadores de cuadros utilizan vram adicional, hay gráficas que se ahogan en 1080p de 8gb, y bajan de no se 70 fps a 20 por falta de vram
A mi me da la sensación de que todo esto tiene que ver con que cada vez se cumple menos la Ley de Moore, cada vez es mas complicado achicar el tamaño del transistor para mejorar la potencia y la eficiencia de cualquier tipo de dispositivo semiconductor como una GPU. Ahora la revolución es la IA mas allá de que pueda tener ciertos problemas como lo visto en el video, es innegable que el futuro apunta a su correcto funcionamiento y perfección.
Es cierto, cada vez es más complicado transistores más pequeños entonces ellos solo nos traen esto de la IA para poder sacando nuevas GPU tal vez en el próximo lanzamiento hayan nuevas mejoras y no tanta ia
Ese rage si se pudo ver 13:56
minecraft a su edad? JAJAJA
Muy buen análisis para los pocos datos disponibles.
Ojalá lleguen a la Argentina, que respeten el precio internacional y la carga impositiva sea mínima.
El resto pasa a segundo plano.
Un abrazo y excelente contenido.
eso lo dudo que repete lo precio, va esta el mismo precio que la serie 40 o mas cara para que baje el la unidade de la serie 40, yo calculo que llegaría en abril o mayo en argentina
buen Video, yo creo que haré el salto a la RTX 5070 cambiando mi actual RTX 2060, creo que si el precio se "respeta" y mas aca en argentina creo que vale totalmente la pena comprarla.
yo igual me ire por esa aun tengo una gtx 1080
Acá habría que ver... compragamer es el que más respeta esos precios, igual en nuestro mercado siempre sale unos 100/50 USD más cada placa
Te recomiendo el salto a la 5070 Ti porque cambia bastante de 5070 a 5070 ti
@@Blasdelezo92 claro pero economicamente aumentaria mi presupuesto, y debo cambiar otras cosas (fuente, placa madre, procesador) aparte de comprar la 5070
En este pais eso lamentablemente jamas pasa. No se va a respetar ni de cerca el precio, ojala.
No estamos "entregando" potencia bruta, lo que pasa es que cada vez es mas complicado aumentar la potencia bruta, no es tan facil como decir "metele más teraflops" hay limites tanto logisticos como fisicos y ya estamos alcanzando ambos, cada vez cuesta mas meter 1 transistor más en el mismo mm² y ya estamos cerca de que sea imposible, no estamos sacrificando potencia bruta, si no que ya casi no hay mas de donde sacarla.
Por que usa IA para aumentar rendimiento, por qué la ley de Moore está muerta. Estábamos acostumbrados a aumentar el rendimiento en base a meter más transistores en menos tamaño. Pero ya llegamos a ese límite, miren a AMD, también le pasa lo mismo con las 9070.
Incluso AMD tubo que meter IA en FSR 4 así que si es algo que es nesesario
jaja, y tu te crees lo que dice el multimillonario? 😄
Buen chivo metió el CEO de Nvidia jajaja 😂😂
Y Los se amd 🤣🫣🫣🤣 mejor ni te digo
lo peor de todo esto es que amd esta haciendo las cosas a medias con sus gamas sin integrar inteligencias artificiales e intel estan basicamente experimentando con las gamas de entrada... NECESITAMOS COMPETENCIA. MATENSE A COMPETIR
😂😂😂 eso no va a pasar. Nvidia les lleva mucha ventaja. Ojala amd salga algo bueno asi como la b580 de intel ya que lo de la ia me la suda mucho.
Yo viendo esto con la esperanza que bajen de precio la serie 4000, así es mas fácil de conseguir la serie 3000 y comprarme una 2060 así jubilo mi pobre GTX 960 que esta muy cansada
El pathtracing y el dlss son el futuro, es imposible poder pensar que una GPU corra el trazado de rayos de manera nativa, cuando hasta el día de hoy incluso en la industria cinematográfica se siguen utilizando optimizadores y aceleradores para que se pueda renderizar con pathtracing (tecnología que existía de mucho antes de la serie 20). Ahora imaginen llevar ese renderizado a tiempo real, es imposible, estamos a décadas de lograr eso de manera nativa. Lo mismo aplica a nuevas tecnologías que van surgiendo en el camino, es por ello que el dlss se está volviendo tan crucial.
Por otra parte después de 3 generaciones la gente sigue sin entender que están obteniendo un producto que no es solo para gaming, sino también para productividad, y por suerte para la gente que estamos en esto son un golazo estas GPUS y lo que nos ofrecen, antes de las RTX si te dedicabas profesionalmente a esto necesitabas invertir en una GPU Quadro que eran muy pero muy costosas. Hoy estamos recibiendo placas de video que se comportan muy bien en gaming y también en productividad por un precio muchisimo menor que una Quadro y considerablemente más caro que una gtx o modelos anteriores donde el MSRP era medianamente accesible. Y todo esto con AMD perdiendo absurdamente en productividad, a tal punto que la 4070 común renderiza más rápido que una 7900 XTX. Y acá pueden seguir excusándose que los programas estos están optimizados solo para Nvidia y blabla pero una 70 que supera al buque insignia de la competencia en productividad no es solamente una cuestión de optimización del software, es la carencia de tecnologica por la que está pasando AMD. Y no es un comentario de fanboy o mala leche porque al contrario, me encantaría que AMD pueda competir, tener precios más accesibles y no estar obligado a comprar una RTX al precio que se les canta el choto a Nvidia para poder laburar.
Agrego porque me olvidé de ponerlo en el comentario anterior, también estás tecnologías ahorran tiempo de trabajo a los desarrolladores, el raytracing redujo una locura de tiempo de trabajo porque ahora hace de manera casi automática lo que antes te llevaba horas y horas mapear la iluminación. Y por lo tanto cuando salen estás tecnologías nos terminan beneficiando indirectamente porque los desarrolladores de videojuegos aceleran su flujo de trabajo notablemente y pueden dedicar ese tiempo a pulir otras cosas y entregar un mejor producto.
El problema de esto es que los desarrolladores no aprovechan como corresponde estás tecnologías y terminan abusando de ellas porque optimizan menos y después tenés que bajar 200-300gb para jugar un AAA porque son pajeros y no optimizan, total el dlss todavía lo tira.
Lo que como comunicador deberías compartir en tu comunidad es que estamos al limite físico del silicio y que saltos de rendimiento bruto sera muy difícil en este punto por lo menos tratando de mantener mas o menos los precios y que seremos dependientes de estas tecnologías de IA con los juegos tan pesados y con efectos de iluminación en tiempo real, saludos
Concuerdo loco, la verdad que por mas "El salto en rasterizado no sea para tanto", estamos hablando de que una 5070 seria superior a una 4070 Ti super, una grafica que cuesta $150 (msrp) por encima de la primera. Es una reduccion de precio zarpada y mas si tenemos en cuenta que en los juegos que saldrán a partir de ahora, con MFG habría una mejora mucho mas importante
es una farsa todo marketing . es mas software que hardware, cada vez va a sacar graficas menos potentes , con software actualizados
Pues tu cuando comprar una grafica no compras silicio, compras el desempeño, si no te gusta el desempeño de estas todavía queda ver que cosa entrega AMD
Se ve que eres un ignorante
Si tienes mucha razon pero al parecer si es un software apoyado en hardware que a mi no me consta por que no soy ingeniero y facil nos juegan el dedo en la boca.
Que Nvidia este haciendo todo lo posible por estandarizar el DLSS al 100% es un esfuerzo notorio, sin embargo, incluso el DLSS base como tal sigue estando verde en madurez, de ahí a decir que es una estafa, es un trecho un poco largo. Si ahora parece estafa, quizás en 2 años cuando el hardware sea aun mas especializado y la IA mas entrenada, sean menos los que se quejan de un avance en distinta dirección, mas no la contraria. Es curioso, hace 30 años, el creador del Quake 2 dijo que una GPU nunca igualaría ni podría ser mejor que un procesador, y adivinen, se usan en dupla desde hace 20 años. Creo que se debería madurar y así como la GPU tuvo su despertar hace tiempo, cuando se descatalogaba su razón de ser, deberíamos apoyar esta segundo avance en metodología, quien sabe cuantos acá tengan que tragarse las palabras que lo criticaban.
el tema no es de potencia de hardware, es de optimizar bien lo juego ya que la desarrolladora no ase y depende de potencia bruta, imagínate si ase un juego optimizado para una grafica le saca mas el jugo por eso la consola gana y eso que tiene mucho meno potencia que una gpu
Yo tengo expectativas del FSR 4 que tiene muy buena pinta, estoy a la espera de ver como rinden la 9070 y 9070 XT
Vaya basura te ofrecieron en el ces
Será basura como siempre
@@KUMEADOR no me importa la opinión de un fanboy de nvidia
amd es caca
De hecho si, se espera que en fuerza bruta rinda como una 4080, con el salto qué darán con RT y FSR abra qué ver como quedan, si queda por debajo de la 4080 entonces si no se ve tan buen producto.
Si la 5070ti costase $600, estariamos hablando.
La 5070 y sus 12gb de VRAM es una 3070 2.0.
A mi no me la cuelan otra vez.
yo ya no veo tan increible esta tecnologia de nvidia de mult generation, tengo una 3080ti y cuando salio la serie 4000, y salio la tecnologia de frame generation instale un mod y tuve tambien esa misma tecnologia y el resultado es sorprendente, y en cuanto al nuevo mult generation exclusivo de la serie 5000, me compre el lossless scaling que ahora con su version 3.0 se puede multiplicar los frames hasta por 20, esto le dio una vida increible a mi 3080ti y nuevamente el resultado es increiblemente bueno, igualmente no creo que la serie 5000 sea una estafa, todo va a hacia la IA hoy en dia
el mod para la serie 3000 no es igual que usar nativo de serie 40 en muchos aspectos , segundo losselen scaling es un rescalado como fsr es una puta mierda . es la realidad son parches para la gente que no tiene un dolar quiere a toda costa estirar como chicle el hardware que tiene pero hay que ser realistas
Lo curioso es que hablas y nisiquiera tienes pc @@maxwellsempai
Es como dices, no es lo mismo renderizar una imagen por software mayormente que en un balance con potencia bruta, esto se traduce en que aumenta la latencia, ya veremos las pruebas, porque te digo, en la generación 4 mil cuando activas una tecnología de rescaldado o interpolado si no obtienes más de 50/60 FPS nativos, te tragas tremendos tirones y latencia, entonces, si hay diferencia, una reconstrucción de imagen mayormente basada en IA no es igual a que tengas más apoyo en potencia bruta, se está perdiendo el equilibrio.
Me gustan las tecnologías nuevas y no niego que es bueno que estén ahí, mi problema es que nos la vendan tan pretenciosamente queriendo que pensemos, que sin activarla tendremos artefacts o stutering si o si, el que nos quieran vender software a precio de hardware nuevo es lo que molesta, y esto repercute en las desarrolladoras para pulir menos los juegos,
Se agradece que bajen un poco los precios, pero no debemos olvidar que nos han cobrado lo que han querido durante mucho tiempo, reitero, si siguen apuntando a que el rendimiento mejore más en base a tecnologías (claramente por eso no les duele tanto bajar un poco el precio jaja) no vamos a poder ver todo el potencial real que podriamos estar disfrutando, saludos shux.
Yo ya vendí mi 4080 super iré por la 5080 , la vendí por 900 dlls , solo pondré 200 para dar el salto , lo malo es que si no hay stock para mi me voy a quedar como el chino ( milando) jaja
Che ¿Sabes si en ARM también se comenzara a implementar algo similar a DLSS?
"Son lo mismo, solo que con una nueva tecnología"... Entonces no son lo mismo.
En España hay un refran "nadie da duros a 4 pesetas", o "nadie te cambiaria 1 moneda de 2 euros por 1 moneda de 1 euro", vamos, que esto de alguna forma es un timo. Con menos nucleos cuda una 5070 no puede rendir como una 4090, ahora, si en la estadisticas meten el "copia pega" de frames con IA, pues apaga y vamonos
Goey, no veo a prácticamente nadie que tenga una serie 4000 cambiando a una serie 5000, vaya de la 3000 ya se le ve más sentido, pero quizá támpoco vale tanto la pena cambiar tu serie 3000 por una serie 5000, ahi vamos que los que tenemos una serie 2000 o una 3000 de entrada, si está ya justificado una serie 5000 no son equipos que se deban cambiar cada que sale una serie nueva, es como cambiar de celular cada que sale uno nuevo, no tiene caso, será prácticamente igual y los mismos diseñadores lo dicen, son equipos hechos para que te duren 4 años a menos que te sobre el dinero y lo tires cada que sale algo "mejor" porque ya lo dijiste, el crecimiento en rendimiento entre una generación y otra es poquito, ya cuando son dos o tres generaciones ya se nota el cambio, Saludos!!
Eso que dijiste de "MENOS DETALLE AL MOVERNOS " es la verdad más grande que nadie dice de nvidia. tengo una 4060ti.
Salto de rendimiento muy bueno en IA, salto de rendimiento chato en rasterizado a mi parecer 😅
Tecnologías que conforman aunque NO resuelven, son estos los argumentos de "beneficios". Ventajas? Solamente para la empresa que desplaza tractores y mete Mini cooper en el campo para arar la tierra.
La dirección de nvidia va hacia ese camino y a los gamers nos están dejando de lado
@@erikbullon5511 GPGPU, esa es la clave.
@@erikbullon5511 Esto se sabia hace años sinceramente.
En 2012 usaba 2 GTX 670 en SLI, 2017 compre la GTX 1080Ti y el salto de rendimiento fue increíble tanto en juegos como en renderizado de video con programas de edición, en 2020 compre la 2080 Super y en juegos que no usaban raytracing el rendimiento era apenas superior pero ni en 4k era necesario más rendimiento (y sin la necesidad de activar DLSS), y en juegos que si usaban raytracing el salto fue ENORME, actualmente aún tengo la 2080 Super y no hay juego que me dé problemas serios en rendimiento, ya no puedo jugar a todos los títulos en 4k pero si en 1440p a más de 60fps incluso con RTX ON, uso la PC para jugar y para trabajar y a día de hoy el rendimiento en ambos aspectos es excelente, y si la 2080 super aún sigue siendo muy buena, imagino que el salto a la 5080 va a ser brutal
La arquitectura actual no tiene mucho futuro de "mejora" pero si llegase a haber algo diferente como los procesadores cuanticos (y fuesen algo viables claro) ese seria el futuro
Alguien sabe si bajarán los precios de las series 4000 en arg?
No creo se mantendrán y las 5000 serán caras
Creo que lo más sensato es esperar y ver que tal rinden; las compañías te van a decir que son lo mejor que le pasó al gaming, es marketing, te quieren vender su producto y es algo obvio, por eso hay que tomarlo como especulación, con una base pero especulación.
Claramente Nvidia es una empresa que tiene su prestigio más allá de la propaganda, pero suele inflar sus productos; lo más interesante será ver su desempeño y el input lag.
Esta generación me es un poco indiferente, no tengo muchas espectativas, pero tambien soy un jugador más bien casual, orientado al Indi o juegos que salieron del 2015 para atrás pero cada tanto juego a un AAA más actual.
Muy buen video buena edicion buen analosis guion etc este canal es increiblemente mejor que la mierda mediocre que sacan la mayoria de los canales latinoamericanos
Yo creo que el problema más grande es culpa de los desarrolladores qué no se preocupan en optimizar sus juegos. No tiene sentido que el conter strike 2 de 160fps con una 2060. Mientras el delta force qué tiene más jugadores, más efectos etc me de 120fps.
Las gráficas actuales son bestiales. Pero lo que más las limita son la poca cantidad de buenos triple AAA y que vienen cada vez menos optimizados.
Escuche “potencia bruta” y dije: otro canal más del montón 😮💨
sigue mirando tortillita squad amigo ahi seguro encuentras tus verdades jajajaj
@ tú sigue usando el programa del Patito, tú no te preocupes
Este tipo de cosas es el camino, siempre y cuando haya transparencia, y el consumidor a su vez sea sensato. No es lo mismo decir "Rinde igual" que "Es más eficiente". Porque una gpu tal, más potente (así a lo bruto), consume más, calienta más... y eso tiene su costo también. Ponele que se llega al punto de que la diferencia visual es imperceptible, y te cuesta $300 en lugar de $800, pues perfecto. Siempre y cuando seas consciente de que ese mismo componente tal vez no te es igual de útil si querés editar un video, por ejemplo. Es medio que la misma historia de PC vs Consolas; unos son dispositivos dedicados y optimizados para una tarea, y los otros para varias boludeces. Por eso las consolas también usan firuletes de rescalado y demás; porque no podés meter tanta potencia bruta en esa cajita, y además que sea barato, y que no tengas que poner la consola en la heladera para que no se incendie. El futuro, allá en el horizonte, es por ahí; pero bueno, en cada paso habrá problemitas y esa bola. Así ningó es la evolución. La Unión Soviética tenía un piso entero de "Super computadoras" que en total alojaban 500 mb de datos, y hoy tu smartphone de esa cantidad se caga de risa, ahí en tu bolsillo al lado de tus bolas mientras te las rascás viendo la presentación de Nvidia
Pero no se dan cuenta de que la tecnología está cambiando? La IA está aquí para quedarse, y por ahí es donde van a mejorar las gráficas. El rasterizado está muerto y el que se empeñe en lo contrario pues que no se compre una tarjeta rtx. Quédense con sus Radeon. Jugaran a los juegos que están por venir a 4k nativos, todo a full y nitido que te cagas a 30 fps y tendrán al aldo a uno jugando al mismo juego con una rtx, jugando con todo a full y con una calidad estupenda a 300 fps disfrutando del juego y olvidandose de hacer zoom 40x para ver las sutiles diferencias entre ambas pantallas
hay algun juego comercial que no utilize rasterizado para dibujar elementos 3d? La ia esta para quedarse , si , la ia podria ser el principal forma de representación, tal vez , lo sera esta generación o la proxima, no xd, asi que bajemos del pony y esperemos a ver como se ve el mfg que y principalmente como siente
@piero_0912 me refiero a que solo con rasterizado no se pueden conseguir buenos fps solo con rasterizado
@@MrSuperpaco ambas compañias tienen su fg , ambos funcionan por interpolación pero el de nvidia usa ia , más frames reales generados por rasterizado significa que puedes crear más frames interpolados con mejor calidad ,mejor estabilidad y con una mejor sensación del input de los controles
que esperan cada 6 meses tenemos graficas y aun no andamos sobrados en nada
Y la 5070 TI a cual equivale?
a mi no me parece mal que se enfoquen en la IA,pero espero que si quieren que me gaste mas de mil euros en la nueva grafica,porr lo menos en todos los juegos tenga dlss porque si vas a enfocarte todo en IA y luego los juegos nuevos que salgan se juegan sin dlss,pues no tiene sentido ninguno actualizarse,ya que el salto es de un 20 por ciento de rendimiento sin tecnologias de IA
Yo tengo la 4070 que pille en 2023 y obviamente no me voy a cambiar. Por lo que he visto solo te renta el cambio si vienes de una generacion 2000 o anterior, o salvo que quieras irte al tope de gama. La mayor decepcion y que me perece reirse de los usuarios es que la 5090 no sea capaz de mover el ciberpunk [un juego de hace 5 años, es del 2020] ni a 30 fps sin el dlss
a menos de que trabajes con tu grafica y que la potencia extra en inteligencia artificial se vuelvan escenciales en ese aspecto no creo que merezca la pena para nada
Pero el por path tracing sin eso lo corre a más de 60 sin problemas, si tú con tu 4070 en 4k le pones path tracing a lo mucho te irá a 5fps
No entiende nada el tipo y todavía le dan likes jajajajaja
Es como criticar un vehículo que tiene turbo porque es potencia artificial. No señores, son nuevas tecnologías y la forma en que se construye el path tracing y ray tracing es muy muy brutal, ningún hardware convencional lo soportaría a 4k es por ello que se utilizan otras técnicas, sobre todo software integrado al hardware. Recomendación: no es cierto que los frames van a ser “falsos” no hay tal cosa o hay o no hay, disfruten las nuevas tecnologías y aprendan a cambiar su formar de pensar y actualicen sus conocimientos.
No se dice frame generado de forma organica. Se dice un frame nativo y no reescalado o generado (duplicado) por ia
Hay bastante humo en esta generación. Lo de los precios mas bajos coincido en que lo compensaría pero creo que es mas un deseo que una realidad cuando lleguen finalmente.
Mientras haya gente que compre estas nuevas graficas y la competencia sea muy poca, Nvidia seguirá por este camino y maximizando sus ganancias.
Hola, quiero actualizar y tengo una 3070ti, me valdrá la pena la 5070 o me sale más a cuenta esperar la 5070 super?
No hay forma de que ustedes noten la perdida de calidad en sus monitores de 1080p a 20" vayan a que los duerman en un telo
Tengo un televisor qn90d 4k de 65"
@@manriprinze5187 Y jugas a 1080p
sin contar que gracias estas tecnologias los devs no dedican tiempo en optimizar los juegos
el rasterizado es todavia importante, si no lo fuese las graficas de Nvidia no serian mas potentes que las anteriores y sin embargo, lo son... los fake frames seran utilizables cuando no generen tanta latencia porque reflex no hace nada al respecto (nunca hizo ni hara nada), faltan años. Que el super sampling tenga un poco mas de calidad lo agradeceran los usuarios de las RTX en general, la unica buena noticia de las tecnologias anunciadas, el lag generation, loseless scaling, FSR 3 y demas tecnologias de generacion de latencia estan lejos de ser utilizables todavía
La serie 2000 fue una muy mala salida con la primera generación de rtx. Rendían casi igual las placas. Me acuerdo que yo no actualizé solo por el desastre que era el rtx y la poca diferencia en rendimiento bruto. Hubo que esperar un año a que nvidia saque por primera vez la gama Súper y fue la diferencia promedio que hubo entre una 980ti y 1070 por decir un ejemplo
Yo diría que sí vale la pena pero desde la 5080 en adelante. Si tienes poco dinero, pues mejor esperar a la 5060 o conseguirte una serie 40 en una buena oferta
La rtx 5080 puede igualar en rendimiento de rasterizado (sin usar dlss) a rtx 4090, por medio de memoria más rápida, una arquitectura más avanzada, aunque con 16 VS 24 GB, aun así me parecen muy atractivas estas gpu, tampoco se debe dudar del avance en IA es mucho mayor y que funcionarán muchas mejoras en rtx 4000
Las tecnologias de reescalado estan muy bien para alargar la vida util de tarjetas, por ejemplo los ultimos juegos en ultra han sido por DLSS en mi 2070 super. Pero ahora con la 7800xt el FSR lo tengo de adorno salvo que active el path tracing en Cyberpunk o me voy a jugar a la 75' del salon en 4k.
Es que no tiene sentido jugar en una monitor de 24 o 27' en mas de 1080, tienes que pegar la cara al monitor para ver los pixeles
no lo veo mal, si vos me decis que los precios se duplicaron bueeeeno. Pero literalmente estas pagado un poquito mas por una nueva teconologia, que quieras o no es lo util de esto. Es como comprar un cepillo electrico y usarlo de forma manual y quejarte que no saca tanto la carne de tus diente como el cepillo clasico, si compras el electrico es para usarlo con su sistema xd.
Si pago por una 5090 que tiene como funcion mas llamativa la implementacion de IA para aumentar drasticamente los frames por segundo, perdiendo menos calidad grafica que sus antecesoras, entonces esta perfecto. Aun asi muy buen video, siempre los veo y sos un capo explicando la data
con nvidia siempre toca separar producto del 'marketing'
...los productos (del todo)malos no son, pero el 'marketing' es una maquina de hacer humo
Yo digo que depende del dlss y precio, en mi caso la 5070 cuesta lo mismo que la 4060 ti, pero si en trabajo bruto rinde mas ya sería ganancia
Decenas de videos en UA-cam con la misma chorrada de siempre de la fuerza del rasterizado contra los "frames falsos". Juego siempre con Dlss calidad desde que salió la serie 3000. En casi ningún caso se notan las diferencias con el nativo. Está generación incluso con el Reflex 2 bajará la latencia. A mí solo me importa jugar con la máxima calidad con el mejor rendimiento y es lo que consiguen estás tecnologías; si lo hace con poder de rasterizado o con "trucos" me es totalmente indiferente. Si la rtx 5080 tiene el poder de la rtx 4090 y además con trucos multiplica x2 su rendimiento, hasta me parece barato su precio. A veces la magia es casi indistinguible de la realidad y si nadie te dice que es magia tus sensaciones son las mismas, por lo que este debate se está quedando ya algo anticuado....
el que "predice" quizas haya utilizado los datos o los graficos utilizando machine learning
Necesitamos una gráfica que ya lo tenga todo y que lo único que se actualice sea el software
Sería ideal, pero se les acaba el negocio
Perfecto, buen video. Creo que ya es hora de cambiar mi actual GTX 280 por una nueva GTX 295 porque creo que ya es hora de cambiar mi GPU a una más potente.
Espero no quedarme muy fuera de las proximas tecnologias porque no voy a actualizar de mi 4060 en 1 o 2 generaciones mas😅
la unica que hay cambio es la 5090 rtx ya que trae mas cuda, tenso y memoria aparte una mejora de lo nucleo. pero el dia de mañana la inteligencia artificial va ser lo salta ya que en potencia estamos al limite por tamaño y consumo
La única que vale la pena en mi humilde opinión es la 5070ti q sin dlss ni na tiene un rendimiento aproximado de un 30-35% extra con respecto a la 4070ti. Habrá que ver, la 5080/90 me parecen un chiste, solo un 3% más de rendimiento sin dlss es una cargada
No usar dlss es muy estúpido, por algo estás pagando esa tarjeta
@KUMEADOR Sí, pero a lo que voy es que por rendimiento bruto en calidad precio, creo q conviene la 5070ti, yo voy a apuntar a esa. Después obvio q usas el dlss yo lo uso desde q salió
Yo te recomiendo que primero lo pruebes y luego les des tus opiniones a las personas, Si eres una persona cuyas decisiones influyen en las de los demás, habla más con hechos comprobados y no con teorías. Esperen a que salga y, luego, tomen su decisión
...5070 con 48SM comparada con la 4070 con 46SM es un 5% + rapida / 5070ti con 70SM comparada con la 4070ti super con 66SM es un 6% + rapida / 5080 con 84SM comparada con la 4080 con 80SM es un 5% + rapida / 5090 con 170SM comparada con la 4090 con 128SM es un 33% + rapida
Para mi el focus ya no son las GPU ahora porque poder avanzar los juegos tiene que estar completos con buena base de graficos de nada sirve tener un Ferrari en un carretera de tierra
Yo pienso si pagas algo menos y tenes un 20 porciento más no me parece tan malo y el dlls 4 pero no creo que el salto sea más que eso y también tal vez en 2027 larguen la serie 6000 y dlss 5 todo comercio
No se si son un mentira, lo que sí es notorio que apuestan por tecnologías dejando poco a poco de lado la fuerza bruta de las gráficas. Con el Path Traicing se ve genial, pero vale la pena pagar ese costo por ver un juego así? no sé. Por otro lado, pienso que los juegos están en un buen nivel gráfico, pero faltan juegos, faltan títulos, faltan cosas distintas, faltan que las empresas se arriesguen más porque gastar no sé, 1500 USD en una gráfica para jugar Spiderman de Insomniac? nah gracias paso...
Ojalá GTA VI fuerza y de un piso, y no un techo, de lo que se puede hacer, y repito, no hablo de apartado gráfico solamente, sino de interacción, de novedodes, de salir ya de esas mecánicas que UBISOFT tanto explota de ser un UBER de misiones en un mapa lleno plagado de iconos. Se necesita un salto a nivel artístico, un salto a nivel desarrollo, al nivel producto, las PC vienen sobradas, pero los juegos son demasiado monótonos.
muy buen video, podrian hacer un video de cpus para el 2025, muchas gracias
Muy buen video, excelente la ambientación
Voy a ver que onda con la 5070, espero que ahorrar 6 meses no sea en vano, planeo jugar en 2k ultra con todos los chiches (si es que no se les canta ponerle un sobreprecio epico a las empresas ladris de hardware)
Nadie se ha dado cuenta ya ? El 1080 manda y el 4 k es muy caro ya de una vez !!!!!!!
Perdón pero yo no banco NADA esto del dlss. Me molesta que todo tenga componente temporal y que por lo tanto todo se vea tan borrosísimo. Por qué no volvemos al antialiasing de Call of Duty Advanced Warfare por ejemplo?
Tengo pensado comprar el 5700x3D(ya que no quedan del 2800x3D) creen que me ande bien con la 5070? :V no tengo ganas de pasarme a AM5
Lo del dlss Overdrive ya existia en amd XD. Aunque si funciona mejor que afmf, tampoco me quejo
que pena no ver mas de 4 minutos de su fabuloso video, pero nunca habia escuchado tantas estupideses en todos mis 40 años. yo sólo espero que no sean la media de su generación.
Cuestión de verlo y probarlo. Espero pruebas de alta calidad.
Entonces me compro o no la 5070 ti?
Si no fuera por la ia, son casi la misma 4000!
En lo personal)y con poco conocimiento), creo que quienes están en problema son quienes las usan para trabajar. Sobre todo por el consumo energético. Quedan lejos de los M4 😢
Creo que te olvidas que la 4070Ti rinde lo mismo que la 3090 xd
El tema es que toda la comparación de la 5070 con la 4090 fue con toda la IA arriba de la 5070 contra el rendimiento bruto de la 4090, si hubiera sido con la IA al palo de esta última ni ahí se iguala ni ahí
En la gama baja y media, no me parece que valga la pena la nueva generación. Por algo restringen el DLSS4 a las rtx 5000
El dlls4 no está restringuido a las 5000. Las 4000 tambien lo tendran, y las 3000 y 2000. Lo único exclusivo de las 5000 es mult generación
2:04, ey yo tengo miopía, pero es verdad xd
Esperando que Ofrece la RX 9070!!!
yo creo que en la prox apuesto por AMD. tengo una rtx 4070 y estoy bastante conforme, pero Nvidia nos va a llevaer a la rebelion de las maquinas (? jaja
Ojo con lo del dlss que pusiste el ejemplo más horrible que es el metro Exodus con el DLSS 2.0 y ya vamos por el 4.0 que ya con el 3.0 se ve infinitamente mejor que el 2.0 incluso hay casos que se ve mejor que nativo. No es 100% así ya que hay algunos juegos donde se nota un poco lo borroso pero nunca tanto como el ejemplo que pusiste.
La rtx 5070 la veo mas... si quisiera pasar de mi rtx 3070ti ..si alguien ya tiene serie 4000mil ni lo vale...
pense que era un video de fondo y era la novia de fran jugando JKSADJKASDJKASDaDS
Yo solo hago upgrade si no puedo jugar los juegos que me gustan
yo viendo esto desde mi 2060 de 12gb 🤌🤌🤌
Bueno manito yo tengo un monitor Optix G27C la tengo con una 3080 10gb y coming soong una 5080 con dios mediantes el DLSS jamas lo tocare todo en ultra con saco de fps y la grafica de chill to fria con potencia de sobra para cierta cagadas mal optimizadas 😎👌 ahora la gente que espero que la RTX 5070 rindiera la como la RTX 4090 esperaba un salto de rendimiento como fue la GTX 1070 que se comia sin problema a la GTX 980Ti.
tranformer usa muchisima ram... esta claro que esta nueva generacion la unica que vale la pena es la 5090
no estoy de acuerdo dejar el razterizado y tantos fps por ia tengo 4090 y esta generacion no la voy a comprar
Compras IA y no la usas?, compra la basura de AMD mejor
No tiene ningun caso, a menos que te sobre el dinero y lo recojas con pala
Son una chota a mí parecer, espero bajen de precio las más viejas jajaja
mientras las sigan comprando cada dos añitos no van a exprimir y sacar una disque tegnologia nueva , quien me acegura que ese dlss4 no puede estar en la serie 4000 , mejor nos vendian las tegnologia, por que ellos mejor no nos venden una tegnologia por varios años y dejar de estar haciendo graficas cada dos años y hay gente que acaban de comprar o tienen 3 o 4 meses que compraron la serie 4000 😂, para mi dos años es poco , ni las consolas se atreven hacer eso 😂 que valen mucho menos.
A saber cuando llegaran y CUANTO saldra en argensimia 😢
El Chino ya viene quemandose hace años con las mentiras y las cagadas xD ojala lo de amd rinda como dicen en potencia y precio, porque lo unico que tiene el chino es el multi frame generation