Le multimédia et la vidéo

Le multimédia et la vidéo

Le multimédia concerne tout ce qui a trait à l’utilisation de plusieurs supports d’informa- tion en même temps. L’application multimédia type rassemble la voix, les données et l’image. D’autres propriétés peuvent se rajouter, comme le multipoint, le coopératif, etc. Nous ne nous intéressons dans ce chapitre qu’aux propriétés du multimédia liées à la communication et non à son traitement dans les équipements terminaux.Dans les réseaux de la génération bande étroite, les différents médias passaient par des réseaux indépendants. Les difficultés de cette technique venaient de la remise simultanée des différents supports et de la trop grande capacité requise pour le transport de certains médias. Si le problème de débit est en partie résolu avec les réseaux large bande et les techniques de compression, restent les problèmes de coopération entre machines termi- nales et de synchronisation des médias, ces derniers passant par le même réseau mais pas par les mêmes logiciels.Il existe des standards UIT-T plus anciens, comme H.100, qui détermine les qualités requises pour le codage de la visiophonie, et H.120, qui recommande la compression pour la faire passer sur un accès primaire. La recommandation H.110 définit les techni- ques de compression des codecs (codeur-décodeur).D’autres groupes de normalisation ont proposé des architectures pour les communica- tions multimédias, comme l’ATM Forum, DAVIC (Digital Audio VIsual Council) ou DVB (Digital Video Broadcasting). Nous donnerons quelques indications sur leurs orien- tations générales.

Codage et compression

Le codage et la compression sont les deux composantes du succès du multimédia et notamment de l’intégration de la vidéo aux autres applications multimédias. Les progrès réalisés en quelques années sont considérables, et des standards stables se sont mis en place. Les applications multimédias posent le problème de trouver le meilleur compromis entre complexité et temps réel. On considère que, pour retrouver exactement la qualité du signal original, la compression doit être limitée à un facteur 3. C’est le cas des images dans des applications où la qualité est primordiale, comme la radio aux rayonsCes compressions, qui déforment très légèrement l’image, exploitent les capacités de récupération de l’œil humain. L’œil est beaucoup plus sensible à la luminance, ou brillance, des images qu’à la chrominance, ou couleur. On trouve cette caractéristique dans le codage de la télévision haute définition, où la résolution de la luminance repose sur une définition de l’image de 720 points sur 480, alors que le signal de chrominance n’exploite qu’une définition de 360 sur 240 points. De plus, par point, la luminance demande davantage de bits de codage que la chrominance.JPEG est le groupe qui s’occupe de la standardisation des images. Après adoption de la norme de base JPEG, ce groupe a continué ses efforts pour aboutir à la norme JPEG2000. JPEG a pour objectif de trouver une bonne solution pour les applications travaillant sur des images. Le marché recherché concerne la transmission d’images sur des réseaux dont la bande passante peut être assez faible, les applications client-serveur de type Web, la photographie numérique, les bibliothèques d’images et de photos, les fac-similés, les reproductions laser, les scanners et les photocopieurs numériques.

Pour la visioconférence, l’UIT-T recommande H.261, parfois appelé p*64, parce que le débit sur le canal demande un multiple de 64 Kbit/s avec pour p une valeur maximale de 30. Pour p = 1, un canal de visioconférence est disponible avec une qualité relativement médiocre. Pour p = 32, la visioconférence donne d’excellents résultats.Dans un premier temps, il a fallu définir le format de l’image acceptable par les différents pays, soit, en Europe, 625 lignes/50 Hertz et, en Amérique du Nord et au Japon, 525 lignes/60 Hertz. Cela a donné naissance au format commun intermédiaire CIF (Common Intermediate Format) et au format de base QCIF (Quarter-CIF), qui est le quart du format de l’image, avec pour résultat un format de 288 lignes à 30 Hz pour un quart d’image.Les techniques suivantes sont utilisées pour la compression : prédiction par une boucle sur l’image précédente reconstituée par le codage, transformation en cosinus discrète, codage entropique des données, multiplexage vidéo des différentes informations et enfin régulation du débit. Nous reviendrons sur ces différentes techniques à la section dévolue à MPEG-2.synchronisation, puis viennent 493 bits pour les données vidéo et enfin 18 bits pour la correction d’erreur. Le code de détection et de correction des erreurs utilisé est le BCH (Bose-Chaudhuri-Hocquenghem). En effet, il est souhaitable de récupérer les erreurs quand la compression est importante, car une erreur introduit des erreurs sur l’image suivante et une perte de qualité d’autant plus importante que la compression est forte. Le train numérique est illustré à la figure 36.2.

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *