Claro ejemplo que Nate puede hacer que cualquier tema explicado de la forma correcta se vuelva más que interesante, por cierto en algunos móviles el HDR se ve horribe todo apagado y amarillento
Depende de las pantallas que no son tan buenas ya que no son igual las pantallas de los teléfonos que la de los televisores, pero en mi Google pixel 6 pro va muy bien
Tengo un rog phone 5 y si se ven amarillentos en videos de intagram/facebook y youtube pero cuando tienes el contenido correcto los colores son los correctos, en mi caso con una pelicula en 4k HDR (un ripeo de bluray) todo se ve correctamente y no se ve amarillento
Para los jueguitos el hdr siempre me jodió la experiencia, te hace cualquier cagada en la pantalla, siempre lo desactivo xq me pareció inútil, nunca supe bien su utilidad, solo veía q no se podía jugar bien con eso activado.
Gracias! Yo lo probé y siento que todos los colores se reemplazaron por un gris medio raro y una iluminación muy cuestionable. Ahora sé que no estoy loco.
Aparte del gradiente, otros dos aspectos importantes del contenido HDR son la gama de colores (compatibles con Rec2020 o Rec2100 más específicamente para HDR), y el pico de brillo, éste último el apartado más importante, quizá.
Me encantan las nuevas TV y tengo 4k HDR..ect. Pero ninguna me ha dado un contraste y unos negros como las TV de tubo o los plasmas para mí la mejor tecnología cara de producir hasta ciertos tamaños pero que calidad de imagen
En mi opinión la mayor diferencia visible al usar HDR es la cantidad de luz que puede tener un pixel, es muy notorio por ejemplo al ver una lámpara en una escena oscura. En los colores no noto mucho la diferencia al usar HDR con 8 o 10 bits
Mi monitor se ve horrible cuando activo HDR10, la imagen coge un tono sepia y los negro se ven grises por lo que prefiero desactivarlo. Aunque no active HDR los 10 bits de mi panel IPS se nota mucho respecto a otros paneles IPS que tengo con 8 bits, se nota a simple vista.
Depende del monitor sobre todo si es barato las marcas añaden HDR venderlo más caro, como bien dices, solo esta para que lo actives y que lo veas peor. En mi caso tengo un Alienware 3423DWF con HDR activado + 10 bits y se ve espectacular.
HDR en monitores de gama baja o tv de gama baja no es solo más que marketing, hace que incluso se vean peores, es lo que dices, las marcas los ponen solo por marketing para cobrar más, de hecho en HDR en pantallas el estándar es HDR 10 y como dice nate se basa en 10 bits, y este va de la mano del software como con el hardware para poder apreciar el HDR como tiene que ser y ver el contenido real tal cual como fue concebido el estándar internacional de la uhd aliance, dice que para ver en mínimas condiciones bien el HDR como corresponde se requiere de un panel nativo a 10 bits, mínimo 60 Hz, un contraste superior a los 5000:1 o contraste infinito en lo posible es decir negros absolutos, y mínimo 500 Nits de brillo no en pico sino a panel al 100% así que ya se imaginan las únicas que cumplen con dichas características en tv o monitores con ese tipo paneles son tv de 43 a 55 pulgadas que valen mínimo 800 dólares, o monitores que mínimo valen los 700 dólares y eso que hablando de lo que cumplen los requisitos minimos, en un panel de 8 bits o 6 nativos no cumple con los colores, brillos, contraste que tienen los metadatos que tiene los archivos grabados en hdr, ya que eso paneles apenas llegan a los 16 millones de colores y no al las 33 veces mas colores que puede reproducir uno de 10 bits 1000 millones, y normalmente los monitores estándar todos son de 8 bits
Las empresas se dieron cuenta que necesitaban otra excusa de marketing para venderte el mismo televisor al siguiente año. Menos mal que estas tecnologías si tienen impacto real en la calidad final de la imagen.
Pero la comparativa es entre TV digitales antiguos con TV digitales modernos, por que los TV análogos (que pones en tu video) tienen una profundidad de color muy similar a los TV modernos, en especial el estándar Trinitron y su calidad de color en la grabación es analógica con celuloides, y los celuloides precisamente tienen un rango dinamico mayor que el HDR (y es posible forzarlo aún más) el problema con ellos se da cuando digitalizaban para TV modernos a 8 bits y se perdía el color, típica película análoga distribuida en DVD o incluso antes con el DVD. Pero si pudieron ir a un cine a cinta de celuloide o vieron una película transmitida por una cámara análoga, las películas se ven espectaculares.
Eso es cierto y lo veo cuando uno en años anteriores veía los partidos del mundial de la FIFA espectacular su imagen y eran tvs antiguos ahora una pesadilla hd, fhd 4k, y en algunos casos excesivo brillo ahora
El ojo humano no es capaz de distinguir tantos colores. Con 8 bits por color, es más que suficiente, y si no lo creéis, haced una prueba: Un simple degradado de cualquier color a negro y comprobaréis que no soys capaces de distinguir el paso de los tonos. El problema lo tenemos con la compresión aplicada a ciertas películas, que es tan alta que no hay suficiente infoemación para representar esos degradados sin que se noten. Esto ocurre sobre todo en las escenas oscuras.
Cada vez que evoluciona una tecnología de visionado siempre alguien dice que el ojo humano no es capaz de apreciarlo. Y luego resulta que todo cada vez se ve mejor, osea que si que el ojo lo apreciará........ Los que peinamos canas recordamos como algún iluminado decía que el HDMI era una tontería porque el video compuesto ya llevaba suficiente información para "el ojo humano".
mentira, toma un tono de color zulado oscuro en 8bits y observa las bandas de degradados q se forman, es muy molesto solo se puede reducir algo usando dithering
También decían lo mismo con el 1080, y cuando salió el 4k, es cuando dijeron que con 1080P es suficiente porque el ojo humano... Y resulta que mi nueva oled 4k HDR 10 se ve jodidamente mejor que la anterior. Curioso el "límite humano" del ojo @@NVidiero
@@NVidiero(ah sí, también con los 120Hz, que decían que con 60 vas bien, pero parece que... Con 120, lo ves mejor, al final...parece que ese límite no lo hemos encontrando, por ahora)
@@adriumbra627 si supieras la distancia a la que no se diferencia de 1080p… una de 65” la tendrías que ver a menos de 2 metros, lo que marca la diferencia es el HDR y brillo que hace que lo percibas mejor, prueba algo 1080p con HDR y te digo que no notarás la diferencia
Específicamente, el HDR es capaz de superar lo que pasaba desapercibido incluso en la fotografía. Por ejemplo si estamos a media luz en una habitación y tomamos una fotografía por la ventana hacia el exterior en un día a pleno sol, obtendremos una imagen saturada hacia el exterior y demasiado oscura en el interior. Si regulamos los parámetros de la cámara, o obtendremos una imagen visible en el exterior y negra en el interior o viceversa, osea demasiado blanca hacia el exterior y visible lo que está en el interior. El HDR, más allá de la cantidad de bits, también ajusta automáticamente los parámetros de diafragma y tiempo de exposición en distintos lugares de la imagen para lograr que se vea la mayor parte de esta, logrado a través de procesamientos de cálculos de rango dinámico.
Deberian decir tambien en otros detalles. Para empezar, ningun dvd ni siquiera bluray tiene las peliculas en 10 bits, pues no podrian sostenerlas. Recien las tv4k pueden aceptarlas que son actuales (no las antiguas). Por ultimo, si tienes un video en 8 bits y luego pretendes convertirla en 10 bits, es una tonteria del tamaño de un estadio, pues simplemente no sirve. Y deberian meterlo bien grabado en las cabezas de esos encoders que intentan estupidamente llenarlos creyendo que son 'mejores' por cambiar del 8bits al 10bits. Basicamente, todos esos videos en paginas del tipo torrent o de fansubbers, estan llenas de ellos.
@@aaronsj9492 me equivoqué al escribir, es HDR10+, que es el equivalente a dolby vision con metadatos dinámicos, el HDR10 es fijo para todo el contenido
si juegas por pc en windows el HDR esta mal implementado, se ha mejorado con el tiempo pero a veces windows te configura un hdr que no es nativo y por eso se ve peor
Que humilde Nacho Gentil
Es el maximo
Se nota que es gentil
Claro ejemplo que Nate puede hacer que cualquier tema explicado de la forma correcta se vuelva más que interesante, por cierto en algunos móviles el HDR se ve horribe todo apagado y amarillento
Depende de las pantallas que no son tan buenas ya que no son igual las pantallas de los teléfonos que la de los televisores, pero en mi Google pixel 6 pro va muy bien
@@FERNAN8447 lo se, en mi Samsung s22 ultra se ven bien en contraste a mi Xiaomi 12 pro en el cual el HDR de UA-cam se ve todo amarillento
Siempre dependerá de la calidad del panel y obviamente de la calidad del contenido.
Me pasa lo mismo en algunos juegos como el RDR2 en PS4 se ve más apagado y amarillento con el HDR activado.
Tengo un rog phone 5 y si se ven amarillentos en videos de intagram/facebook y youtube pero cuando tienes el contenido correcto los colores son los correctos, en mi caso con una pelicula en 4k HDR (un ripeo de bluray) todo se ve correctamente y no se ve amarillento
Nate: mil millones de colores.
Yo: solo me sé unos poquitos 😢
Este tipo nunca debe recibir Hate
El HDR secuestró a mi abuela
XD
😂😂😂
Que explicación mas perfecta
Para los jueguitos el hdr siempre me jodió la experiencia, te hace cualquier cagada en la pantalla, siempre lo desactivo xq me pareció inútil, nunca supe bien su utilidad, solo veía q no se podía jugar bien con eso activado.
Gracias! Yo lo probé y siento que todos los colores se reemplazaron por un gris medio raro y una iluminación muy cuestionable. Ahora sé que no estoy loco.
es la mejor explicación que vi en mi vida
Es un crack en lo que hace y lo explica muy bien 👍👍👍
Aparte del gradiente, otros dos aspectos importantes del contenido HDR son la gama de colores (compatibles con Rec2020 o Rec2100 más específicamente para HDR), y el pico de brillo, éste último el apartado más importante, quizá.
Explicas todo muy bien de forma sencilla, muchas gracias. Saludos desde Ecuador
Buena explicacion, gracias
Gracias por aclarar eso del HDR era algo complicado de comprender para mí
Me encantan las nuevas TV y tengo 4k HDR..ect. Pero ninguna me ha dado un contraste y unos negros como las TV de tubo o los plasmas para mí la mejor tecnología cara de producir hasta ciertos tamaños pero que calidad de imagen
Y que pasa con dolby vision seria bueno que hagas un video saludos
Es hdr pero licenciado por dolby
Saludos Nate en gentil
En mi opinión la mayor diferencia visible al usar HDR es la cantidad de luz que puede tener un pixel, es muy notorio por ejemplo al ver una lámpara en una escena oscura.
En los colores no noto mucho la diferencia al usar HDR con 8 o 10 bits
Buenísima explicación.
mi tarro tiene 12 bit de colores eso es bueno?😮
Mi monitor se ve horrible cuando activo HDR10, la imagen coge un tono sepia y los negro se ven grises por lo que prefiero desactivarlo. Aunque no active HDR los 10 bits de mi panel IPS se nota mucho respecto a otros paneles IPS que tengo con 8 bits, se nota a simple vista.
Amigo me pasa lo mismo, igual cuando transmito, encontraste alguna solucion?
Depende del monitor sobre todo si es barato las marcas añaden HDR venderlo más caro, como bien dices, solo esta para que lo actives y que lo veas peor. En mi caso tengo un Alienware 3423DWF con HDR activado + 10 bits y se ve espectacular.
HDR en monitores de gama baja o tv de gama baja no es solo más que marketing, hace que incluso se vean peores, es lo que dices, las marcas los ponen solo por marketing para cobrar más, de hecho en HDR en pantallas el estándar es HDR 10 y como dice nate se basa en 10 bits, y este va de la mano del software como con el hardware para poder apreciar el HDR como tiene que ser y ver el contenido real tal cual como fue concebido el estándar internacional de la uhd aliance, dice que para ver en mínimas condiciones bien el HDR como corresponde se requiere de un panel nativo a 10 bits, mínimo 60 Hz, un contraste superior a los 5000:1 o contraste infinito en lo posible es decir negros absolutos, y mínimo 500 Nits de brillo no en pico sino a panel al 100% así que ya se imaginan las únicas que cumplen con dichas características en tv o monitores con ese tipo paneles son tv de 43 a 55 pulgadas que valen mínimo 800 dólares, o monitores que mínimo valen los 700 dólares y eso que hablando de lo que cumplen los requisitos minimos, en un panel de 8 bits o 6 nativos no cumple con los colores, brillos, contraste que tienen los metadatos que tiene los archivos grabados en hdr, ya que eso paneles apenas llegan a los 16 millones de colores y no al las 33 veces mas colores que puede reproducir uno de 10 bits 1000 millones, y normalmente los monitores estándar todos son de 8 bits
Te amo Nate❤
Fue un vídeo corto que se pasó como uno típico de casi una hora 🤣
Busco una tele para comprar, que me recomiendas
Y yo viendo este vídeo de la forma un poco antigua 😎
Las empresas se dieron cuenta que necesitaban otra excusa de marketing para venderte el mismo televisor al siguiente año. Menos mal que estas tecnologías si tienen impacto real en la calidad final de la imagen.
Lo de calibrarlo para los juegos sigue siendo un dolor de cabeza.
Bastaba con dejar en 16 × 3 bits , 48 bits en rgb, y aprovechar de igualar la conversión al CMYK
El monitor Perfecto, una delicia u cuando juegas algo sin hdr se nota 😢
Pero la comparativa es entre TV digitales antiguos con TV digitales modernos, por que los TV análogos (que pones en tu video) tienen una profundidad de color muy similar a los TV modernos, en especial el estándar Trinitron y su calidad de color en la grabación es analógica con celuloides, y los celuloides precisamente tienen un rango dinamico mayor que el HDR (y es posible forzarlo aún más) el problema con ellos se da cuando digitalizaban para TV modernos a 8 bits y se perdía el color, típica película análoga distribuida en DVD o incluso antes con el DVD. Pero si pudieron ir a un cine a cinta de celuloide o vieron una película transmitida por una cámara análoga, las películas se ven espectaculares.
Eso es cierto y lo veo cuando uno en años anteriores veía los partidos del mundial de la FIFA espectacular su imagen y eran tvs antiguos ahora una pesadilla hd, fhd 4k, y en algunos casos excesivo brillo ahora
Cual pagina Española me recomiendan visitar para comprar componentes o una pc ? Gracias
Y yo aqui con daltonismo 😢
Por que cuando activo el hdr sube el brillo del monitor?
Que interesante, no me había preocupado del HDR. Eso si, si comienza en 0 entonces llega hasta 1023 y no hasta 1024
El ojo humano no es capaz de distinguir tantos colores. Con 8 bits por color, es más que suficiente, y si no lo creéis, haced una prueba:
Un simple degradado de cualquier color a negro y comprobaréis que no soys capaces de distinguir el paso de los tonos.
El problema lo tenemos con la compresión aplicada a ciertas películas, que es tan alta que no hay suficiente infoemación para representar esos degradados sin que se noten. Esto ocurre sobre todo en las escenas oscuras.
Cada vez que evoluciona una tecnología de visionado siempre alguien dice que el ojo humano no es capaz de apreciarlo. Y luego resulta que todo cada vez se ve mejor, osea que si que el ojo lo apreciará........ Los que peinamos canas recordamos como algún iluminado decía que el HDMI era una tontería porque el video compuesto ya llevaba suficiente información para "el ojo humano".
mentira, toma un tono de color zulado oscuro en 8bits y observa las bandas de degradados q se forman, es muy molesto solo se puede reducir algo usando dithering
También decían lo mismo con el 1080, y cuando salió el 4k, es cuando dijeron que con 1080P es suficiente porque el ojo humano...
Y resulta que mi nueva oled 4k HDR 10 se ve jodidamente mejor que la anterior. Curioso el "límite humano" del ojo @@NVidiero
@@NVidiero(ah sí, también con los 120Hz, que decían que con 60 vas bien, pero parece que... Con 120, lo ves mejor, al final...parece que ese límite no lo hemos encontrando, por ahora)
@@adriumbra627 si supieras la distancia a la que no se diferencia de 1080p… una de 65” la tendrías que ver a menos de 2 metros, lo que marca la diferencia es el HDR y brillo que hace que lo percibas mejor, prueba algo 1080p con HDR y te digo que no notarás la diferencia
la calidad de la imagen de nate gentile es impresionante, esas cámaras black magic son realmente black magic 🪄😅
Específicamente, el HDR es capaz de superar lo que pasaba desapercibido incluso en la fotografía. Por ejemplo si estamos a media luz en una habitación y tomamos una fotografía por la ventana hacia el exterior en un día a pleno sol, obtendremos una imagen saturada hacia el exterior y demasiado oscura en el interior. Si regulamos los parámetros de la cámara, o obtendremos una imagen visible en el exterior y negra en el interior o viceversa, osea demasiado blanca hacia el exterior y visible lo que está en el interior.
El HDR, más allá de la cantidad de bits, también ajusta automáticamente los parámetros de diafragma y tiempo de exposición en distintos lugares de la imagen para lograr que se vea la mayor parte de esta, logrado a través de procesamientos de cálculos de rango dinámico.
El hdr en foto es diferente al hdr en vídeo, funcionan de manera muy diferente
No entendí pero gracias por la valiosa info ❤😊
En el consumo de energía también se siente y padece
👏🏽☕️👌🏽
Ayúdanos a calibrar bien el HDR10 yo lo tengo desactivado porque no se calibrarlo
Interesante, yo me lo compraría
entonces, activar el hdr para gaming solo mejoraría la experiencia y es imposible que de algún tipo de latencia?
Guapo
Es como comparar una pantalla lcd con una Amoled
Cómo resumir un vídeo de una hora a un minuto:
Y los códigos RGB?
Al lado tuyo parece que el wolf hubiese estudiado en Harvard
Y aun así, hay que hacer corrección de color en 12 bits 😢
Saludos desde tus pagos
Deberian decir tambien en otros detalles. Para empezar, ningun dvd ni siquiera bluray tiene las peliculas en 10 bits, pues no podrian sostenerlas. Recien las tv4k pueden aceptarlas que son actuales (no las antiguas).
Por ultimo, si tienes un video en 8 bits y luego pretendes convertirla en 10 bits, es una tonteria del tamaño de un estadio, pues simplemente no sirve. Y deberian meterlo bien grabado en las cabezas de esos encoders que intentan estupidamente llenarlos creyendo que son 'mejores' por cambiar del 8bits al 10bits.
Basicamente, todos esos videos en paginas del tipo torrent o de fansubbers, estan llenas de ellos.
Mi rey, aquí compran Iphones, si quieres hacerles usar el sentido común te deseo suerte
Yo viendo que el ser humano solo puede ver 10 millones de colores : ._____.
El problema es en juegos la calibración
Yo me lo compraría
Pero se pierde mucho el efecto de las películas, quizá sirva para deportes, pero en películas se ve pesimo
Yo me la compraria
Yo me lo comprariaaaaaaaaaa
Yo viendo éste video a 360p
Las tv Hisense no mensionan que tiene hdr pero si traen ja
Yo me lo compraria
Al activar el HDR en el monitor gaming se crea input lag o alguna pérdida de FPS?
Ninguna en lo absoluto, ese esfuerzon del alto rango dinámico lo hace el hardware del propio monitor, como el freesync.
@@HarryJeck Ahh ok graciass
Y como aplico eso en css?
Solo algunas personas ven 100 millones de colores, tetracromatas
Pero luego el ojo humano no puede ver 10millones de colores mucho menos 16millones
No se si se verá así en vivo, pero en video se ve horrible, es como ver borroso 😂 en hd pero con neblina
Sony es un pancho 😎
Y se ve muy oscuro. Detesto el HDR
Yo pensaba que era fps
No entendí un carajo pero que grande es!
El HDR mato el 3D 😭😭😭😭😭😭😭
Y que
Se murió antes que el hdr existiera
Así es, murió muchos antes. Tengo un TV de esos y el contenido 3d era muy escaso.
El 3d nació muerto.
@@NVidiero yo ni lo noté cuando fui al cine el 3d
Osea que, lo que entendí es que el HDR seria los 10 bits???
Sip, cada canal de color tendra 2^10 y no 2^8 como antes, se equivoco en que sera de 0 a 1023 colores solamente Nate
Nose que eso pero mi monitor barato anda como sale de cine
Sabes, yo me lo compraría 🤣
Ni en broma te ahí caso
Lo inventó Ralph Wigum
Que es mejor RGB a 8bits o YCbCr 4:22 a 10 bits?
RGB tiene toda la informacion de color, 422 es la mitad de la información de color
Al hdr el sony le hizo bodybag 3 -0
Algo que nadie usa. XD
Prefiero sin hdr, se ve oscuro ,
Alto Rango Dinámico. De nada.
En CSS siguen iendo de 0 a 255 😅
Sería entonces de 0 a 1023?
Si
Osea que los daltonicos no les hace efecto
10 bits?
Y sus lentes?
Nate hazme un hijo que se llame Roberto 😢
Y luego salio el oled
Sí, por ejemplo la samsung oled con hdr+ que es una locura
Un sniper
Es de cero a 1023
Y los monitores siguen con HDR normal en vez de hdr10+ o dolby vision…
Mi alienware 3423DWF tiene HDR10. Hay más monitores con HDR10, te lo garantizo
@@aaronsj9492 me equivoqué al escribir, es HDR10+, que es el equivalente a dolby vision con metadatos dinámicos, el HDR10 es fijo para todo el contenido
Nate gentile
Y el HDR 400 q es ?
Y no habló del hdr
Perdón pero, HDR prácticamente no cambia nada da igual ponerlo o no
Tengo un monitor con HDR y juro que lo noto peor cuando lo activo en los juegos 😂
Pd. Es un monitor Asus Tuf 1440p 144Hz
si juegas por pc en windows el HDR esta mal implementado, se ha mejorado con el tiempo pero a veces windows te configura un hdr que no es nativo y por eso se ve peor
No eran tan buenos : procede a mostrar una bestia con 0ms de input lag y tasa de refresco infinita
A mi no me gusta el efecto y menos en iphone es una luminosidad muy artificial
Mas color mas problemas
Para que luego el windows te haga el HDR bien raruno
Jajaja si, el HDR de windows 10 me pone los colores del monitor opaco
Asi 😒🤔😂
Tienes un fallo Nate, con 10 bits, representas 1024 valores, pero van del 0 al 1023, no del 0 al 1024.
Tambien consume mas recursos de gpu... un madvr (software para sacar hdr10 a las tales. una gtx1070 ya va apurada para 4k hdr a 60hz en PELICULAS!
@@uchi23apq no es nativo en el codec y toca a los cores procesarlo
Y éste fisgón que