Lâchez-nous avec les vidéos 10 bits / 12 bits…

Certains membres du Forum ont regretté que leur NAS équipé d’un processeur de famille Braswell (N3050/N3150 N3060/N3160) soit limité au décodage des vidéos 4K/UHD encodé en/HEVC 8 bits seulement et non 10 bits. Mais est-ce vraiment si important ? Réponse…

Lâchez-nous avec le 10 bits

Tout est une question de profondeur/restitution des couleurs. Les vidéos 8 bits ne peuvent afficher que 16,77 millions de couleurs… ce qui est déjà pas mal. Mais avec 10 bits, on a le droit à 1,07 milliard de couleurs (sic !). Ah oui ! Le 10 bits apportent un gros plus… mais combien de couleurs mes yeux sont capables de différencier ? Combien de nuances puis-je vraiment voir ?

La science entre en action

Une personne dite « normale » pourrait distinguer jusqu’à 8 millions de couleurs (certains chercheurs parlent même d’un seul petit million). Bon bah voilà… je crois que tout le monde est d’accord. Nous ne percevons même pas moitié des nuance de couleurs fournies avec les vidéos 8 bits. Vous allez me dire qu’on n’est pas tous pareil… et c’est exact, certains des lecteurs Cachem ont des super-pouvoirs. 😉

Certaines personnes seraient dotées d’une vision tétrachromatique. Ces personnes seraient capables de distinguer 100 millions de couleurs. Ce qui est plutôt rare. Selon certains scientifiques : 2 à 3% de la gent féminine (grâce au double chromosome X) et encore moins pour les hommes… De plus, les tests ont été réalisés en laboratoire sur des images fixes (nuanciers) et jamais sur une vidéo/en mouvement. SI les nuances sont importantes et on voit (jeu de mots) que le 8 bits est suffisant, l’oeil est bien plus sensible aux changements d’intensité lumineuse. Si je vous parle de sous-échantillonnages chrominance 4:4:4, 4:2:2 et 4:2:0 ? Pour rappel, les Blu-Ray affichent une chrominance 4:2:0 😉

Les NAS équipés d’un processeur de la famille Apollo Lake sont capables de gérer les vidéos 10 bits et ils arrivent sur le marché… Verrez-vous vraiment la différence sur un MKV téléchargé un film loué ou acheté ?

Enfin et il est important de rappeler que la TV doit être en mesure de gérer l’espace de couleurs Rec.2020 pour profiter de les nouvelles nuances de couleurs.

To infinity, and beyond !

Pour terminer, n’oublions pas que le 12 bits et ses 68,68 milliards de couleurs pointent déjà le bout de son nez. C’est beau le marketing…

  1. Oui on comprend bien mais le problème c’est que si on a une vidéo 10 bits, on ne peut pas la lire…

    1. J’ai bien plusieurs solutions… mais je ne suis pas sûr que cela te convienne.
      Tout d’abord, il faut faire attention à la source.
      Ensuite, il est possible de faire une conversion 10 bits vers 8 bits.
      Pour finir, avoir un matériel supportant les vidéos 10 bits.

    2. Eh oui le soucis est là, c’est très bien de dire qu’on ne voit pas la différence, on veut pouvoir lire des vidéos 10 bits.
      Est-il vrai que c’est juste une histoire de pilotes qu’Intel ne veut pas fournir ? (achetez nos CPU suivant…)

  2. ce que tu ecrit est interessant , il y a meme polemique avec le son .. ya la theorie et la pratique aussi et on voit bien avec le son que meme si en theorie on devrait pas voir de difference ..ben on en voit ou plus exactement entend :p

    ?

    une remarque avec mon bon sens paysant

    ?

    imaginons que la vrai couleur sur 1 milliard est le numero 10 noir c’est la VRAI couleur parfaite

    ?

    que se passe t’il si on reproduit que 1 miilion ?

    ?

    le plus important aussi est comment est capter la couleur est ce que le 10 noir sera capter par une camera capable de mettre que 1 noir ou 10 vrai noir

    ?

    apres ya la compression et apres on ressort le truc sur un support capable que de 1 noir

    ?

    donc dans le pire des cas un 10 noir deviens un 1 noir qui sera compressé en un 1.X noir et recracher aussi le 1.x noir en en 1.XX

    ?

    au finish si tu rajoute 1 millions de point tu arrive a un sacré bordel et un truc complement faux ..

    donc le vrai problem c’est la fidélité !!!!! et pour etre fidele faut cracher de la nuance …

    ?

    c’est aussi pour ca que lors des master il ya tout un tard de bidouille ..bidouille qui logiquement dervrai disparaitre + le support est fidele

    ?

    enfin je dit ca ..

  3. Pour avoir également étudié le sujet, les avantages du 10 bits sur le 8 bits sont éludés par l’article sous le seul critère de « votre oeil ne verra pas la différence » … sauf qu’il faut voir plus loin :
    – Le 10 bits est important pour pouvoir profiter du HDR pour peu que l’on soit équipé
    – Le 10 bits permet d’avoir des dégradées plus affinés et doux quand une grande zone d’une couleur similaire est affichée à l’écran. Par exemple un ciel en 8 bits parait malgré tout texturé, le dégradé entre le ton bleu le plus sombre affiché et le plus claire est visible. Voici une image d’illustration sur laquelle ce dégradé a été exagéré pour les besoins de l’exemple : https://uploads.disquscdn.com/images/cad00c4780931...
    – De la même manière, cela permet d’avoir des noirs/gris/blancs bien plus propres puisqu’au lieu de 256 nuances différentes de blanc à noir en passant par le gris il y en aura 1024. C’est là aussi important dans les vidéos dans des endroits assez sombres qui actuellement dans des fichiers 8 bits ne sont pas propres, les dégradés sont clairement visibles, bien visible dans la scène d’ouverture de Star Wars Rogue One par exemple avec le noir de l’espace et le gris/blanc des anneaux de la planète et du vaisseau.

    Alors certes, notre oeil ne peut pas percevoir simultanément toutes les couleurs codées sur 10 bits, en revanche sur une grande portion unie d’une vidéo (foncé -> noir de l’espace ou d’une scène de nuit ou le bleu d’un ciel) là ça devient visible car il n’y a pas assez de nuance possible d’une même couleur.

    http://www.safe.fr.cr/Temp/Hifi/8b10b.jpg

    C’est comme ceux qui disent que la 4K ne sert à rien car à 3 mètres d’un TV de 55 pouces l’oeil ne peut physiquement pas voir les si petits pixels du FHD et encore moins de l’UHD … sauf qu’en pratique si la sensation de netteté améliorée et de détails, elle, est bien présente.

  4. Je partage assez l’avis de FX. Et pourtant je suis plutôt un puriste dans le genre, j’ai toujours pensé que le DVD était une erreur, par exemple. La HD existait déjà quand il a été lancé.

    L’exemple que donne Mathieu était vrai avant l’arrivé du h264, quand on était encore au DivX/Xvid. A une époque où on compressait trop pour que ça tienne sur un disque optique, CD ou DVD. J’ai fait pas mal de test chez moi, il y a quelques années maintenant, avec des lecteurs multimédias et la PS3, Blu Ray et fichiers. Aujourd’hui, on ne constate plus ce genre d’effet d’escalier dans les nuances de couleurs en h264 parce qu’effectivement on atteint les limites de la vision humaine. Si vous en avez, alors ce sont vos fichiers 1080p qui sont trop compressés ou mal fait, que votre TV est mal réglé, etc. Fuyez le 1080p HDlight & co à 4 Go.

    L’intérêt du 10 bits en réalité en plus à chercher dans la capacité de compression du h265/hevc. Son principale avantage sur le H264 depuis le début. Le codec est plus efficace en compressant à 10 bits qu’à 8 parce qu’il a été conçu ainsi pour rester simple.

    Après, il est aussi intéressant d’avoir 10 bits pour les gens qui shoote et monte ensuite les images. Plus de détail, ça donne plus de souplesse pour corriger les éventuels erreurs faites sur le terrain. C’est pareil en photo, mais ça c’est avant que nous visualisions le résultat final sur nos écrans, que ce soit en 8 ou en 10 bits.

    Et n’oubliez pas, si votre TV n’est pas capable d’afficher 10 bits, vous regardez de toute façon en 8.

    1. Juste pour compléter mon poste, quand je prend l’exemple de Rogue One et sa scène d’ouverture où le dégradé est visible, les conditions de visionnages sont en utilisant le Bluray du film et pas un mkv mal compressé sur mon pc relié à un écran 24″ Eizo calibré à la sonde. Il est vrai que sur ma télé Panasonic FHD de 2013 réglée en mode cinéma (et donc pas aussi « juste » que mon écran de PC), ça ne se voit pas, les noirs sont bouchés.
      En tout cas tu m’en apprend une avec le codec HEVC qui est plus efficace dans sa compression sur 10 bits que sur 8 bits, c’est intéressant pour le coup.
      Pour moi à l’heure actuelle ce qui marque la différence c’est surtout le HDR, fini les noirs bouchés quand toute la chaîne est compatible, et pour du HDR, il vaut mieux avoir du 10 bits pour avoir suffisamment de nuances disponibles dans les tons très clairs et très sombres des couleurs.

    2. Enfin n’oublions pas que la TV doit être en mesure de gérer l’espace de couleurs Rec.2020 pour profiter pleinement de ces nouvelles nuances de couleurs 😉

  5. L’analyse est un peu expéditive. Il est réducteur de penser que la différence n’est pas perceptible car tu ne prends pas en compte le spectre. On peut difficilement discerner certaines couleurs mais plus d’autre en fonction de sa position dans le spectre. Rien ne dit que sur certaine partie précise du spectre, la différence n’est pas perceptible. On en revient aux mêmes discussions que Flac vs MP3.

    1. Pas tout à fait… Je dirai plus qu’on est sur la discussion d’un fichier Flac/Mp3 avec un casque acheté 5€ sur le marché du dimanche.

  6. Yo!
    Un petit pour te faire de ma perplexité vis à vis de ton article.

    Dire que le 10bits ne sert à rien parce que nous ne pouvons distinguer qu’un certain nombre de couleur (que ce soit vrai ou pas), c’est aussi faux que de dire que la 4K (et pour rester dans le sujet « audiovisuel ») ne sert à rien parce que nous ne voyons pas assez bien les détail, ou même parce que nous ne disposons pas d’écran 4K… « Alors je ne te raconte même pas avec le 10K, c’est beau le mark…. »

    Plusieurs choses donc:

    – 1: la science nous dit que même si on ne peut « distinguer » à un instant T qu’un certain nombre de couleur, nos yeux en réalité en « voient » une infinité, toutes celles en fait qui se trouvent entre les infra-rouges et les ultra-violets. D’ailleurs, on ne devrait pas parler de couleurs, mais de longueur d’onde. Et oui, le spectre visible est suffisamment étendu pour que le 10bits ce soit cool!

    – de 2: la « persistance rétinienne » et le nombre de fps ajoutent de plus à la qualité de l’image que tu vas voir! Alors tu me diras: « la différence est minime ». Ce à quoi je m’empresserait de répondre que la plupart de mes clients ne font pas la différence entre une bonne et une mauvaise balance des blanc. En gros donc, et comme pour l’argument précédent: ce n’est pas parce que toi, tu ne fais aucune différence, que ton cerveau n’en fait pas.

    – et de 3: la post-prod…

    Voilà!
    C’était cool en tout cas.

  7. Cet article est aussi faux que lorsqu’on lisait jadis « l’oeil humain n’est pas capable de voir plus de 25 images par seconde »… allez dire ça a quelqu’un qui joue à des jeux en 60 FPS (et même 144 FPS sur les moniteurs 144Hz récents) .. BIEN SUR qu’on voit la différence .. IL SUFFIT de tester soi-même pour s’en rendre compte.. et d’éviter de croire bêtement ce genre d’articles infondés.

    Pour le 8 bits, 10 bits, 12 bits .. OUI, la différence est visible, nette. N’importe qui avec une vue normale s’en rend compte immédiatement. D’ailleurs pour les sceptiques :

    https://mattgadient.com/results-encoding-8-bit-vid...

    on peut voir en LIVE, une image sur l’autre, en passant la souris dessus, la différence, et changer les settings soi-même, par exemple en montant le bitrate à 1600 ou plus ou en changeant pour le RF (rate factor) et en mettant des valeurs identiques avec d’un côté le x265 de base (8 bits) et à droite le 10 bits ou le 12 bits.

    …mais quoi qu’on dise, on continuera de lire ce genre d’ineptie..
    « L’oeil humain n’est pas capable de…. » , « un être humain normal ne peut …. » … bah voyons.

    Vaut mieux croire ses yeux que ce genre d’article je-sais-tout.

    1. D’accord avec vous Johnny. D’autant que lorsqu’on parle de vidéo 8/10/12 bits, on ne parle pas de la profondeur de couleur, mais de la quantification. Une caméra en 12 bits dispose d’un espace de quantification 4 fois plus grand qu’une caméra 10 bits. Cela se traduit par une augmentation significative de la dynamique et une plus grande robustesse du signal. Ce dernier point est très important pour les post-traitements (effets spéciaux, correction colorimétrique et étalonnage).

  8. Plutôt d’accord,j’ai un écran qui monte à 165fps, bon ce que je peux dire, c’est que quand on joue en 30 60 90 130 fps, etc… plus on augmente le débit d’image à la seconde, plus c’est fluide, sa se ressens, c’est plus nette…

    C’est pareil pour 6,8,10 et 12 bit.. c’est pareil pour le 1080p 1440p, etc… tous ce ressens, plus de confort… faut tester soit même…

  9. C’est un vieil article mais je préfère rectifier…
    Le « 10bit » ou « 12bit » etc concerne surtout l’encodeur et en particulier la quantization des blocs.
    En 8bits, à cause de la compression, il y a un effet de seuil appelé « banding » qui provoque visuellement des bandes unies à l’écran qui semblent « flotter ». C’est très gênant.
    En 10bits, le calcul mathématique de la quantization est + précis. Quand on restitue au décodage, il n’y a plus d’effet de seuil et les bandes laissent place à des dégradés + propres.
    Une simple recherche dans google image te donnera un exemple.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.