Lâchez-nous avec les vidéos 10 bits / 12 bits…

12

Certains membres du Forum ont regretté que leur NAS équipé d’un processeur de famille Braswell (N3050/N3150 N3060/N3160) soit limité au décodage des vidéos 4K/UHD encodé en/HEVC 8 bits seulement et non 10 bits. Mais est-ce vraiment si important ? Réponse…

Lâchez-nous avec le 10 bits

Tout est une question de profondeur/restitution des couleurs. Les vidéos 8 bits ne peuvent afficher que 16,77 millions de couleurs… ce qui est déjà pas mal. Mais avec 10 bits, on a le droit à 1,07 milliard de couleurs (sic !). Ah oui ! Le 10 bits apportent un gros plus… mais combien de couleurs mes yeux sont capables de différencier ? Combien de nuances puis-je vraiment voir ?

La science entre en action

Une personne dite « normale » pourrait distinguer jusqu’à 8 millions de couleurs (certains chercheurs parlent même d’un seul petit million). Bon bah voilà… je crois que tout le monde est d’accord. Nous ne percevons même pas moitié des nuance de couleurs fournies avec les vidéos 8 bits. Vous allez me dire qu’on n’est pas tous pareil… et c’est exact, certains des lecteurs Cachem ont des super-pouvoirs. 😉

Certaines personnes seraient dotées d’une vision tétrachromatique. Ces personnes seraient capables de distinguer 100 millions de couleurs. Ce qui est plutôt rare. Selon certains scientifiques : 2 à 3% de la gent féminine (grâce au double chromosome X) et encore moins pour les hommes… De plus, les tests ont été réalisés en laboratoire sur des images fixes (nuanciers) et jamais sur une vidéo/en mouvement. SI les nuances sont importantes et on voit (jeu de mots) que le 8 bits est suffisant, l’oeil est bien plus sensible aux changements d’intensité lumineuse. Si je vous parle de sous-échantillonnages chrominance 4:4:4, 4:2:2 et 4:2:0 ? Pour rappel, les Blu-Ray affichent une chrominance 4:2:0 😉

Les NAS équipés d’un processeur de la famille Apollo Lake sont capables de gérer les vidéos 10 bits et ils arrivent sur le marché… Verrez-vous vraiment la différence sur un MKV téléchargé un film loué ou acheté ?

Enfin et il est important de rappeler que la TV doit être en mesure de gérer l’espace de couleurs Rec.2020 pour profiter de les nouvelles nuances de couleurs.

To infinity, and beyond !

Pour terminer, n’oublions pas que le 12 bits et ses 68,68 milliards de couleurs pointent déjà le bout de son nez. C’est beau le marketing…

Partager.

A propos de l'auteur

Passionné de nouvelles technologies, je suis un touche-à-tout. Mon smartphone ne me quitte (presque) jamais. Je peux vous parler des NAS pendant des heures.

  • DePassage

    Oui on comprend bien mais le problème c’est que si on a une vidéo 10 bits, on ne peut pas la lire…

    • Fx

      J’ai bien plusieurs solutions… mais je ne suis pas sûr que cela te convienne.
      Tout d’abord, il faut faire attention à la source.
      Ensuite, il est possible de faire une conversion 10 bits vers 8 bits.
      Pour finir, avoir un matériel supportant les vidéos 10 bits.

    • grootelulu

      Eh oui le soucis est là, c’est très bien de dire qu’on ne voit pas la différence, on veut pouvoir lire des vidéos 10 bits.
      Est-il vrai que c’est juste une histoire de pilotes qu’Intel ne veut pas fournir ? (achetez nos CPU suivant…)

  • romain

    ce que tu ecrit est interessant , il y a meme polemique avec le son .. ya la theorie et la pratique aussi et on voit bien avec le son que meme si en theorie on devrait pas voir de difference ..ben on en voit ou plus exactement entend :p

    ?

    une remarque avec mon bon sens paysant

    ?

    imaginons que la vrai couleur sur 1 milliard est le numero 10 noir c’est la VRAI couleur parfaite

    ?

    que se passe t’il si on reproduit que 1 miilion ?

    ?

    le plus important aussi est comment est capter la couleur est ce que le 10 noir sera capter par une camera capable de mettre que 1 noir ou 10 vrai noir

    ?

    apres ya la compression et apres on ressort le truc sur un support capable que de 1 noir

    ?

    donc dans le pire des cas un 10 noir deviens un 1 noir qui sera compressé en un 1.X noir et recracher aussi le 1.x noir en en 1.XX

    ?

    au finish si tu rajoute 1 millions de point tu arrive a un sacré bordel et un truc complement faux ..

    donc le vrai problem c’est la fidélité !!!!! et pour etre fidele faut cracher de la nuance …

    ?

    c’est aussi pour ca que lors des master il ya tout un tard de bidouille ..bidouille qui logiquement dervrai disparaitre + le support est fidele

    ?

    enfin je dit ca ..

  • Mathieu

    Pour avoir également étudié le sujet, les avantages du 10 bits sur le 8 bits sont éludés par l’article sous le seul critère de « votre oeil ne verra pas la différence » … sauf qu’il faut voir plus loin :
    – Le 10 bits est important pour pouvoir profiter du HDR pour peu que l’on soit équipé
    – Le 10 bits permet d’avoir des dégradées plus affinés et doux quand une grande zone d’une couleur similaire est affichée à l’écran. Par exemple un ciel en 8 bits parait malgré tout texturé, le dégradé entre le ton bleu le plus sombre affiché et le plus claire est visible. Voici une image d’illustration sur laquelle ce dégradé a été exagéré pour les besoins de l’exemple : https://uploads.disquscdn.com/images/cad00c47809317871bd992e5fd7243e820a52ccea2e6ed3fcba36616145ef78b.jpg
    – De la même manière, cela permet d’avoir des noirs/gris/blancs bien plus propres puisqu’au lieu de 256 nuances différentes de blanc à noir en passant par le gris il y en aura 1024. C’est là aussi important dans les vidéos dans des endroits assez sombres qui actuellement dans des fichiers 8 bits ne sont pas propres, les dégradés sont clairement visibles, bien visible dans la scène d’ouverture de Star Wars Rogue One par exemple avec le noir de l’espace et le gris/blanc des anneaux de la planète et du vaisseau.

    Alors certes, notre oeil ne peut pas percevoir simultanément toutes les couleurs codées sur 10 bits, en revanche sur une grande portion unie d’une vidéo (foncé -> noir de l’espace ou d’une scène de nuit ou le bleu d’un ciel) là ça devient visible car il n’y a pas assez de nuance possible d’une même couleur.

    http://www.safe.fr.cr/Temp/Hifi/8b10b.jpg

    C’est comme ceux qui disent que la 4K ne sert à rien car à 3 mètres d’un TV de 55 pouces l’oeil ne peut physiquement pas voir les si petits pixels du FHD et encore moins de l’UHD … sauf qu’en pratique si la sensation de netteté améliorée et de détails, elle, est bien présente.

  • Damien

    Je partage assez l’avis de FX. Et pourtant je suis plutôt un puriste dans le genre, j’ai toujours pensé que le DVD était une erreur, par exemple. La HD existait déjà quand il a été lancé.

    L’exemple que donne Mathieu était vrai avant l’arrivé du h264, quand on était encore au DivX/Xvid. A une époque où on compressait trop pour que ça tienne sur un disque optique, CD ou DVD. J’ai fait pas mal de test chez moi, il y a quelques années maintenant, avec des lecteurs multimédias et la PS3, Blu Ray et fichiers. Aujourd’hui, on ne constate plus ce genre d’effet d’escalier dans les nuances de couleurs en h264 parce qu’effectivement on atteint les limites de la vision humaine. Si vous en avez, alors ce sont vos fichiers 1080p qui sont trop compressés ou mal fait, que votre TV est mal réglé, etc. Fuyez le 1080p HDlight & co à 4 Go.

    L’intérêt du 10 bits en réalité en plus à chercher dans la capacité de compression du h265/hevc. Son principale avantage sur le H264 depuis le début. Le codec est plus efficace en compressant à 10 bits qu’à 8 parce qu’il a été conçu ainsi pour rester simple.

    Après, il est aussi intéressant d’avoir 10 bits pour les gens qui shoote et monte ensuite les images. Plus de détail, ça donne plus de souplesse pour corriger les éventuels erreurs faites sur le terrain. C’est pareil en photo, mais ça c’est avant que nous visualisions le résultat final sur nos écrans, que ce soit en 8 ou en 10 bits.

    Et n’oubliez pas, si votre TV n’est pas capable d’afficher 10 bits, vous regardez de toute façon en 8.

    • Mathieu

      Juste pour compléter mon poste, quand je prend l’exemple de Rogue One et sa scène d’ouverture où le dégradé est visible, les conditions de visionnages sont en utilisant le Bluray du film et pas un mkv mal compressé sur mon pc relié à un écran 24″ Eizo calibré à la sonde. Il est vrai que sur ma télé Panasonic FHD de 2013 réglée en mode cinéma (et donc pas aussi « juste » que mon écran de PC), ça ne se voit pas, les noirs sont bouchés.
      En tout cas tu m’en apprend une avec le codec HEVC qui est plus efficace dans sa compression sur 10 bits que sur 8 bits, c’est intéressant pour le coup.
      Pour moi à l’heure actuelle ce qui marque la différence c’est surtout le HDR, fini les noirs bouchés quand toute la chaîne est compatible, et pour du HDR, il vaut mieux avoir du 10 bits pour avoir suffisamment de nuances disponibles dans les tons très clairs et très sombres des couleurs.

    • Fx

      Enfin n’oublions pas que la TV doit être en mesure de gérer l’espace de couleurs Rec.2020 pour profiter pleinement de ces nouvelles nuances de couleurs 😉

  • Damien

    Ben… où est passé mon post ???

    • Fx

      Hop ! Disqus l’avait mis en SPAM… je ne sais pas pourquoi :'(

  • Jérôme Wax

    L’analyse est un peu expéditive. Il est réducteur de penser que la différence n’est pas perceptible car tu ne prends pas en compte le spectre. On peut difficilement discerner certaines couleurs mais plus d’autre en fonction de sa position dans le spectre. Rien ne dit que sur certaine partie précise du spectre, la différence n’est pas perceptible. On en revient aux mêmes discussions que Flac vs MP3.

    • Fx

      Pas tout à fait… Je dirai plus qu’on est sur la discussion d’un fichier Flac/Mp3 avec un casque acheté 5€ sur le marché du dimanche.

Lire les articles précédents :
Android – LineageOS 14.1 s’améliore encore…

Vous vous souvenez de CyanogenMod ? En décembre 2016, suite à de nombreux évènement (départ, mauvais partenariats, conflit au sein de...

Fermer