Claro ejemplo que Nate puede hacer que cualquier tema explicado de la forma correcta se vuelva más que interesante, por cierto en algunos móviles el HDR se ve horribe todo apagado y amarillento
Depende de las pantallas que no son tan buenas ya que no son igual las pantallas de los teléfonos que la de los televisores, pero en mi Google pixel 6 pro va muy bien
Tengo un rog phone 5 y si se ven amarillentos en videos de intagram/facebook y youtube pero cuando tienes el contenido correcto los colores son los correctos, en mi caso con una pelicula en 4k HDR (un ripeo de bluray) todo se ve correctamente y no se ve amarillento
Para los jueguitos el hdr siempre me jodió la experiencia, te hace cualquier cagada en la pantalla, siempre lo desactivo xq me pareció inútil, nunca supe bien su utilidad, solo veía q no se podía jugar bien con eso activado.
Gracias! Yo lo probé y siento que todos los colores se reemplazaron por un gris medio raro y una iluminación muy cuestionable. Ahora sé que no estoy loco.
Aparte del gradiente, otros dos aspectos importantes del contenido HDR son la gama de colores (compatibles con Rec2020 o Rec2100 más específicamente para HDR), y el pico de brillo, éste último el apartado más importante, quizá.
Me encantan las nuevas TV y tengo 4k HDR..ect. Pero ninguna me ha dado un contraste y unos negros como las TV de tubo o los plasmas para mí la mejor tecnología cara de producir hasta ciertos tamaños pero que calidad de imagen
Mi monitor se ve horrible cuando activo HDR10, la imagen coge un tono sepia y los negro se ven grises por lo que prefiero desactivarlo. Aunque no active HDR los 10 bits de mi panel IPS se nota mucho respecto a otros paneles IPS que tengo con 8 bits, se nota a simple vista.
Depende del monitor sobre todo si es barato las marcas añaden HDR venderlo más caro, como bien dices, solo esta para que lo actives y que lo veas peor. En mi caso tengo un Alienware 3423DWF con HDR activado + 10 bits y se ve espectacular.
HDR en monitores de gama baja o tv de gama baja no es solo más que marketing, hace que incluso se vean peores, es lo que dices, las marcas los ponen solo por marketing para cobrar más, de hecho en HDR en pantallas el estándar es HDR 10 y como dice nate se basa en 10 bits, y este va de la mano del software como con el hardware para poder apreciar el HDR como tiene que ser y ver el contenido real tal cual como fue concebido el estándar internacional de la uhd aliance, dice que para ver en mínimas condiciones bien el HDR como corresponde se requiere de un panel nativo a 10 bits, mínimo 60 Hz, un contraste superior a los 5000:1 o contraste infinito en lo posible es decir negros absolutos, y mínimo 500 Nits de brillo no en pico sino a panel al 100% así que ya se imaginan las únicas que cumplen con dichas características en tv o monitores con ese tipo paneles son tv de 43 a 55 pulgadas que valen mínimo 800 dólares, o monitores que mínimo valen los 700 dólares y eso que hablando de lo que cumplen los requisitos minimos, en un panel de 8 bits o 6 nativos no cumple con los colores, brillos, contraste que tienen los metadatos que tiene los archivos grabados en hdr, ya que eso paneles apenas llegan a los 16 millones de colores y no al las 33 veces mas colores que puede reproducir uno de 10 bits 1000 millones, y normalmente los monitores estándar todos son de 8 bits
En mi opinión la mayor diferencia visible al usar HDR es la cantidad de luz que puede tener un pixel, es muy notorio por ejemplo al ver una lámpara en una escena oscura. En los colores no noto mucho la diferencia al usar HDR con 8 o 10 bits
Pero la comparativa es entre TV digitales antiguos con TV digitales modernos, por que los TV análogos (que pones en tu video) tienen una profundidad de color muy similar a los TV modernos, en especial el estándar Trinitron y su calidad de color en la grabación es analógica con celuloides, y los celuloides precisamente tienen un rango dinamico mayor que el HDR (y es posible forzarlo aún más) el problema con ellos se da cuando digitalizaban para TV modernos a 8 bits y se perdía el color, típica película análoga distribuida en DVD o incluso antes con el DVD. Pero si pudieron ir a un cine a cinta de celuloide o vieron una película transmitida por una cámara análoga, las películas se ven espectaculares.
Eso es cierto y lo veo cuando uno en años anteriores veía los partidos del mundial de la FIFA espectacular su imagen y eran tvs antiguos ahora una pesadilla hd, fhd 4k, y en algunos casos excesivo brillo ahora
Las empresas se dieron cuenta que necesitaban otra excusa de marketing para venderte el mismo televisor al siguiente año. Menos mal que estas tecnologías si tienen impacto real en la calidad final de la imagen.
El ojo humano no es capaz de distinguir tantos colores. Con 8 bits por color, es más que suficiente, y si no lo creéis, haced una prueba: Un simple degradado de cualquier color a negro y comprobaréis que no soys capaces de distinguir el paso de los tonos. El problema lo tenemos con la compresión aplicada a ciertas películas, que es tan alta que no hay suficiente infoemación para representar esos degradados sin que se noten. Esto ocurre sobre todo en las escenas oscuras.
Cada vez que evoluciona una tecnología de visionado siempre alguien dice que el ojo humano no es capaz de apreciarlo. Y luego resulta que todo cada vez se ve mejor, osea que si que el ojo lo apreciará........ Los que peinamos canas recordamos como algún iluminado decía que el HDMI era una tontería porque el video compuesto ya llevaba suficiente información para "el ojo humano".
mentira, toma un tono de color zulado oscuro en 8bits y observa las bandas de degradados q se forman, es muy molesto solo se puede reducir algo usando dithering
También decían lo mismo con el 1080, y cuando salió el 4k, es cuando dijeron que con 1080P es suficiente porque el ojo humano... Y resulta que mi nueva oled 4k HDR 10 se ve jodidamente mejor que la anterior. Curioso el "límite humano" del ojo @@NVidiero
@@NVidiero(ah sí, también con los 120Hz, que decían que con 60 vas bien, pero parece que... Con 120, lo ves mejor, al final...parece que ese límite no lo hemos encontrando, por ahora)
@@adriumbra627 si supieras la distancia a la que no se diferencia de 1080p… una de 65” la tendrías que ver a menos de 2 metros, lo que marca la diferencia es el HDR y brillo que hace que lo percibas mejor, prueba algo 1080p con HDR y te digo que no notarás la diferencia
Específicamente, el HDR es capaz de superar lo que pasaba desapercibido incluso en la fotografía. Por ejemplo si estamos a media luz en una habitación y tomamos una fotografía por la ventana hacia el exterior en un día a pleno sol, obtendremos una imagen saturada hacia el exterior y demasiado oscura en el interior. Si regulamos los parámetros de la cámara, o obtendremos una imagen visible en el exterior y negra en el interior o viceversa, osea demasiado blanca hacia el exterior y visible lo que está en el interior. El HDR, más allá de la cantidad de bits, también ajusta automáticamente los parámetros de diafragma y tiempo de exposición en distintos lugares de la imagen para lograr que se vea la mayor parte de esta, logrado a través de procesamientos de cálculos de rango dinámico.
Deberian decir tambien en otros detalles. Para empezar, ningun dvd ni siquiera bluray tiene las peliculas en 10 bits, pues no podrian sostenerlas. Recien las tv4k pueden aceptarlas que son actuales (no las antiguas). Por ultimo, si tienes un video en 8 bits y luego pretendes convertirla en 10 bits, es una tonteria del tamaño de un estadio, pues simplemente no sirve. Y deberian meterlo bien grabado en las cabezas de esos encoders que intentan estupidamente llenarlos creyendo que son 'mejores' por cambiar del 8bits al 10bits. Basicamente, todos esos videos en paginas del tipo torrent o de fansubbers, estan llenas de ellos.
si juegas por pc en windows el HDR esta mal implementado, se ha mejorado con el tiempo pero a veces windows te configura un hdr que no es nativo y por eso se ve peor
Que humilde Nacho Gentil
Es el maximo
Se nota que es gentil
Claro ejemplo que Nate puede hacer que cualquier tema explicado de la forma correcta se vuelva más que interesante, por cierto en algunos móviles el HDR se ve horribe todo apagado y amarillento
Depende de las pantallas que no son tan buenas ya que no son igual las pantallas de los teléfonos que la de los televisores, pero en mi Google pixel 6 pro va muy bien
@@FERNAN8447 lo se, en mi Samsung s22 ultra se ven bien en contraste a mi Xiaomi 12 pro en el cual el HDR de UA-cam se ve todo amarillento
Siempre dependerá de la calidad del panel y obviamente de la calidad del contenido.
Me pasa lo mismo en algunos juegos como el RDR2 en PS4 se ve más apagado y amarillento con el HDR activado.
Tengo un rog phone 5 y si se ven amarillentos en videos de intagram/facebook y youtube pero cuando tienes el contenido correcto los colores son los correctos, en mi caso con una pelicula en 4k HDR (un ripeo de bluray) todo se ve correctamente y no se ve amarillento
Nate: mil millones de colores.
Yo: solo me sé unos poquitos 😢
Este tipo nunca debe recibir Hate
El HDR secuestró a mi abuela
XD
😂😂😂
Que explicación mas perfecta
Para los jueguitos el hdr siempre me jodió la experiencia, te hace cualquier cagada en la pantalla, siempre lo desactivo xq me pareció inútil, nunca supe bien su utilidad, solo veía q no se podía jugar bien con eso activado.
Gracias! Yo lo probé y siento que todos los colores se reemplazaron por un gris medio raro y una iluminación muy cuestionable. Ahora sé que no estoy loco.
Tienes que calibrararlo antes de usarlo si no se ve horrible.
Es un crack en lo que hace y lo explica muy bien 👍👍👍
es la mejor explicación que vi en mi vida
Explicas todo muy bien de forma sencilla, muchas gracias. Saludos desde Ecuador
Sería excelente que suba un video en HDR , hay canales de UA-cam que lo están haciendo
Y que pasa con dolby vision seria bueno que hagas un video saludos
Es hdr pero licenciado por dolby
Saludos Nate en gentil
👏🏽☕️👌🏽
Aparte del gradiente, otros dos aspectos importantes del contenido HDR son la gama de colores (compatibles con Rec2020 o Rec2100 más específicamente para HDR), y el pico de brillo, éste último el apartado más importante, quizá.
Buena explicacion, gracias
Me encantan las nuevas TV y tengo 4k HDR..ect. Pero ninguna me ha dado un contraste y unos negros como las TV de tubo o los plasmas para mí la mejor tecnología cara de producir hasta ciertos tamaños pero que calidad de imagen
Gracias por aclarar eso del HDR era algo complicado de comprender para mí
Buenísima explicación.
Te amo Nate❤
mi tarro tiene 12 bit de colores eso es bueno?😮
Mi monitor se ve horrible cuando activo HDR10, la imagen coge un tono sepia y los negro se ven grises por lo que prefiero desactivarlo. Aunque no active HDR los 10 bits de mi panel IPS se nota mucho respecto a otros paneles IPS que tengo con 8 bits, se nota a simple vista.
Amigo me pasa lo mismo, igual cuando transmito, encontraste alguna solucion?
Depende del monitor sobre todo si es barato las marcas añaden HDR venderlo más caro, como bien dices, solo esta para que lo actives y que lo veas peor. En mi caso tengo un Alienware 3423DWF con HDR activado + 10 bits y se ve espectacular.
HDR en monitores de gama baja o tv de gama baja no es solo más que marketing, hace que incluso se vean peores, es lo que dices, las marcas los ponen solo por marketing para cobrar más, de hecho en HDR en pantallas el estándar es HDR 10 y como dice nate se basa en 10 bits, y este va de la mano del software como con el hardware para poder apreciar el HDR como tiene que ser y ver el contenido real tal cual como fue concebido el estándar internacional de la uhd aliance, dice que para ver en mínimas condiciones bien el HDR como corresponde se requiere de un panel nativo a 10 bits, mínimo 60 Hz, un contraste superior a los 5000:1 o contraste infinito en lo posible es decir negros absolutos, y mínimo 500 Nits de brillo no en pico sino a panel al 100% así que ya se imaginan las únicas que cumplen con dichas características en tv o monitores con ese tipo paneles son tv de 43 a 55 pulgadas que valen mínimo 800 dólares, o monitores que mínimo valen los 700 dólares y eso que hablando de lo que cumplen los requisitos minimos, en un panel de 8 bits o 6 nativos no cumple con los colores, brillos, contraste que tienen los metadatos que tiene los archivos grabados en hdr, ya que eso paneles apenas llegan a los 16 millones de colores y no al las 33 veces mas colores que puede reproducir uno de 10 bits 1000 millones, y normalmente los monitores estándar todos son de 8 bits
En mi opinión la mayor diferencia visible al usar HDR es la cantidad de luz que puede tener un pixel, es muy notorio por ejemplo al ver una lámpara en una escena oscura.
En los colores no noto mucho la diferencia al usar HDR con 8 o 10 bits
Por que cuando activo el hdr sube el brillo del monitor?
Guapo
Cual pagina Española me recomiendan visitar para comprar componentes o una pc ? Gracias
Busco una tele para comprar, que me recomiendas
Fue un vídeo corto que se pasó como uno típico de casi una hora 🤣
Pero la comparativa es entre TV digitales antiguos con TV digitales modernos, por que los TV análogos (que pones en tu video) tienen una profundidad de color muy similar a los TV modernos, en especial el estándar Trinitron y su calidad de color en la grabación es analógica con celuloides, y los celuloides precisamente tienen un rango dinamico mayor que el HDR (y es posible forzarlo aún más) el problema con ellos se da cuando digitalizaban para TV modernos a 8 bits y se perdía el color, típica película análoga distribuida en DVD o incluso antes con el DVD. Pero si pudieron ir a un cine a cinta de celuloide o vieron una película transmitida por una cámara análoga, las películas se ven espectaculares.
Eso es cierto y lo veo cuando uno en años anteriores veía los partidos del mundial de la FIFA espectacular su imagen y eran tvs antiguos ahora una pesadilla hd, fhd 4k, y en algunos casos excesivo brillo ahora
Bastaba con dejar en 16 × 3 bits , 48 bits en rgb, y aprovechar de igualar la conversión al CMYK
No entendí pero gracias por la valiosa info ❤😊
Y yo aqui con daltonismo 😢
Las empresas se dieron cuenta que necesitaban otra excusa de marketing para venderte el mismo televisor al siguiente año. Menos mal que estas tecnologías si tienen impacto real en la calidad final de la imagen.
El monitor Perfecto, una delicia u cuando juegas algo sin hdr se nota 😢
Lo de calibrarlo para los juegos sigue siendo un dolor de cabeza.
entonces, activar el hdr para gaming solo mejoraría la experiencia y es imposible que de algún tipo de latencia?
Y yo viendo este vídeo de la forma un poco antigua 😎
El ojo humano no es capaz de distinguir tantos colores. Con 8 bits por color, es más que suficiente, y si no lo creéis, haced una prueba:
Un simple degradado de cualquier color a negro y comprobaréis que no soys capaces de distinguir el paso de los tonos.
El problema lo tenemos con la compresión aplicada a ciertas películas, que es tan alta que no hay suficiente infoemación para representar esos degradados sin que se noten. Esto ocurre sobre todo en las escenas oscuras.
Cada vez que evoluciona una tecnología de visionado siempre alguien dice que el ojo humano no es capaz de apreciarlo. Y luego resulta que todo cada vez se ve mejor, osea que si que el ojo lo apreciará........ Los que peinamos canas recordamos como algún iluminado decía que el HDMI era una tontería porque el video compuesto ya llevaba suficiente información para "el ojo humano".
mentira, toma un tono de color zulado oscuro en 8bits y observa las bandas de degradados q se forman, es muy molesto solo se puede reducir algo usando dithering
También decían lo mismo con el 1080, y cuando salió el 4k, es cuando dijeron que con 1080P es suficiente porque el ojo humano...
Y resulta que mi nueva oled 4k HDR 10 se ve jodidamente mejor que la anterior. Curioso el "límite humano" del ojo @@NVidiero
@@NVidiero(ah sí, también con los 120Hz, que decían que con 60 vas bien, pero parece que... Con 120, lo ves mejor, al final...parece que ese límite no lo hemos encontrando, por ahora)
@@adriumbra627 si supieras la distancia a la que no se diferencia de 1080p… una de 65” la tendrías que ver a menos de 2 metros, lo que marca la diferencia es el HDR y brillo que hace que lo percibas mejor, prueba algo 1080p con HDR y te digo que no notarás la diferencia
Saludos desde tus pagos
Yo me lo compraría
Específicamente, el HDR es capaz de superar lo que pasaba desapercibido incluso en la fotografía. Por ejemplo si estamos a media luz en una habitación y tomamos una fotografía por la ventana hacia el exterior en un día a pleno sol, obtendremos una imagen saturada hacia el exterior y demasiado oscura en el interior. Si regulamos los parámetros de la cámara, o obtendremos una imagen visible en el exterior y negra en el interior o viceversa, osea demasiado blanca hacia el exterior y visible lo que está en el interior.
El HDR, más allá de la cantidad de bits, también ajusta automáticamente los parámetros de diafragma y tiempo de exposición en distintos lugares de la imagen para lograr que se vea la mayor parte de esta, logrado a través de procesamientos de cálculos de rango dinámico.
El hdr en foto es diferente al hdr en vídeo, funcionan de manera muy diferente
Interesante, yo me lo compraría
Que interesante, no me había preocupado del HDR. Eso si, si comienza en 0 entonces llega hasta 1023 y no hasta 1024
Yo me lo comprariaaaaaaaaaa
Yo me lo compraria
Y los códigos RGB?
En el consumo de energía también se siente y padece
Ayúdanos a calibrar bien el HDR10 yo lo tengo desactivado porque no se calibrarlo
Cómo resumir un vídeo de una hora a un minuto:
la calidad de la imagen de nate gentile es impresionante, esas cámaras black magic son realmente black magic 🪄😅
Sony es un pancho 😎
Pero se pierde mucho el efecto de las películas, quizá sirva para deportes, pero en películas se ve pesimo
Al activar el HDR en el monitor gaming se crea input lag o alguna pérdida de FPS?
Ninguna en lo absoluto, ese esfuerzon del alto rango dinámico lo hace el hardware del propio monitor, como el freesync.
@@HarryJeck Ahh ok graciass
Yo viendo éste video a 360p
Deberian decir tambien en otros detalles. Para empezar, ningun dvd ni siquiera bluray tiene las peliculas en 10 bits, pues no podrian sostenerlas. Recien las tv4k pueden aceptarlas que son actuales (no las antiguas).
Por ultimo, si tienes un video en 8 bits y luego pretendes convertirla en 10 bits, es una tonteria del tamaño de un estadio, pues simplemente no sirve. Y deberian meterlo bien grabado en las cabezas de esos encoders que intentan estupidamente llenarlos creyendo que son 'mejores' por cambiar del 8bits al 10bits.
Basicamente, todos esos videos en paginas del tipo torrent o de fansubbers, estan llenas de ellos.
Mi rey, aquí compran Iphones, si quieres hacerles usar el sentido común te deseo suerte
Pero luego el ojo humano no puede ver 10millones de colores mucho menos 16millones
Es como comparar una pantalla lcd con una Amoled
Y aun así, hay que hacer corrección de color en 12 bits 😢
El problema es en juegos la calibración
Yo pensaba que era fps
Y como aplico eso en css?
Yo viendo que el ser humano solo puede ver 10 millones de colores : ._____.
Y se ve muy oscuro. Detesto el HDR
Yo me la compraria
Las tv Hisense no mensionan que tiene hdr pero si traen ja
No se si se verá así en vivo, pero en video se ve horrible, es como ver borroso 😂 en hd pero con neblina
Solo algunas personas ven 100 millones de colores, tetracromatas
Prefiero sin hdr, se ve oscuro ,
Sabes, yo me lo compraría 🤣
Ni en broma te ahí caso
Lo inventó Ralph Wigum
Que es mejor RGB a 8bits o YCbCr 4:22 a 10 bits?
RGB tiene toda la informacion de color, 422 es la mitad de la información de color
Un sniper
Al hdr el sony le hizo bodybag 3 -0
Al lado tuyo parece que el wolf hubiese estudiado en Harvard
Es de cero a 1023
Y sus lentes?
Osea que, lo que entendí es que el HDR seria los 10 bits???
Sip, cada canal de color tendra 2^10 y no 2^8 como antes, se equivoco en que sera de 0 a 1023 colores solamente Nate
El HDR mato el 3D 😭😭😭😭😭😭😭
Y que
Se murió antes que el hdr existiera
Así es, murió muchos antes. Tengo un TV de esos y el contenido 3d era muy escaso.
El 3d nació muerto.
@@NVidiero yo ni lo noté cuando fui al cine el 3d
Osea que los daltonicos no les hace efecto
Alto Rango Dinámico. De nada.
Sería entonces de 0 a 1023?
Si
Algo que nadie usa. XD
Nate hazme un hijo que se llame Roberto 😢
No entendí un carajo pero que grande es!
Nose que eso pero mi monitor barato anda como sale de cine
10 bits?
En CSS siguen iendo de 0 a 255 😅
Perdón pero, HDR prácticamente no cambia nada da igual ponerlo o no
Y no habló del hdr
Y luego salio el oled
Sí, por ejemplo la samsung oled con hdr+ que es una locura
Y el HDR 400 q es ?
Mas color mas problemas
No eran tan buenos : procede a mostrar una bestia con 0ms de input lag y tasa de refresco infinita
Nate gentile
A mi no me gusta el efecto y menos en iphone es una luminosidad muy artificial
Asi 😒🤔😂
Y éste fisgón que
Casi nada tiene hdr xd
Tengo un monitor con HDR y juro que lo noto peor cuando lo activo en los juegos 😂
Pd. Es un monitor Asus Tuf 1440p 144Hz
si juegas por pc en windows el HDR esta mal implementado, se ha mejorado con el tiempo pero a veces windows te configura un hdr que no es nativo y por eso se ve peor
La kk es q nadie lo usa en UA-cam