C’est France Télévisions qui assure depuis 25 ans la captation et la retransmission des matchs de Roland Garros. De nombreuses autres chaines de télévision étrangères sont aussi présentes sur place. Elles ont leurs propres plateaux pour les interviews mais utilisent les “feeds” produits par France Télévisions. France Télévisions s’appuie sur place sur des infrastructures techniques en propre pour les cars régies mais fait appel à des prestataires divers notamment au niveau de la captation caméras. Ces dernières sont opérées par AMP Visual, le second prestataire français des moyens techniques de captation (studios, caméras, cars régies) après Euro Media France. On les avait notamment vus à l’œuvre lors de la conférence LeWeb. Il faut aussi compter avec ACS France qui gère depuis plusieurs années les caméras sur câble dont nous reparlerons. Il y a une ribambelle d’autres sous-traitants que je n’ai pas forcément bien identifiés.
Il y a deux ans, le point d’orgue de ma visite à Roland Garros portait sur la première expérimentation d’uneapplication HbbTV. J’avais aussi fait le tour des infrastructures TV. Cette fois-ci, j’ai focalisé ma visite sur l’expérimentation de captation live en UHD des matches du Court Philippe Chatrier.
L’expérimentation UHD Live
Il s’agissait visiblement d’une première dans le monde : la captation en direct d’un événement en UHD. L’Ultra HD existe depuis déjà un bon bout de temps. Sa variante pour le cinéma, la 4K, également. De nombreux films sont tournés en 4K. Il y avait aussi eu des captations 4K aux JO de Londres tout comme pour la version TF1 de “The Voice”.
A chaque fois, il s’agissait de captation en différé. Des caméras filmaient l’événement ou l’émission. Le contenu alimentait des disques durs et était ensuite monté avec des logiciels du type de FinalCut (provenant d’Apple et tournant sur Macintosh) voire Adobe Premiere ou Avid. Ces logiciels exportaient un fichier vidéo compressé UHD en MPEG4 ou plus récemment avec le codec HEVC dont le taux de compression est meilleur. Mais rien en direct !
Petite définition pour mémoire : l’Ultra HD est le nom marketing utilisé par les constructeurs de produits d’électronique grand public pour désigner les écrans et caméras qui restituent ou captent de la vidéo qui fait quatre fois la résolution de l’actuel Full HD (1920×1080). Ce qui donne 3840*2160 pixels. La 4K est la dénomination de l’équivalent de l’UHD dans le milieu du cinéma. La 4K est à l’UHD ce que la 2K est au Full HD. Les films actuels sont généralement tournés en 2K selon les spécifications DCI avec une résolution de 2048*1080. La 4K, c’est le double dans les deux directions avec 4096*2160. Les grandes productions hollywoodiennes sont cependant passées à la 4K. Cela a démarré en 2008 avec l’arrivée des caméras RED, puis plus récemment des caméras 4K de Sony comme la F65. Les différences de résolution entre 4K et UHD sont minimes. Par contre, d’autres différences peuvent exister entre le monde du cinéma et celui de la télévision, aussi bien entre 2K et Full HD qu’entre 4K et UHD. Cela va concerner notamment le nombre d’images par secondes mais aussi la qualité de l’image. Le cinéma est plus exigeant pour la qualité et la TV, notamment dans le sport, est plus exigeant côté “frame rate”.
Pour capter une émission en direct en UHD, il faut un workflow qui fonctionne… en direct ! Il faut récupérer les signaux des caméras, les décoder, les injecter dans un mélangeur (table de mixage vidéo), gérer les ralentis – incontournables dans le sport -, ajouter les titres et ensuite diffuser le résultat. A chaque étape, il faut du matériel spécifique capable de gérer la résolution et les débits associés à l’UHD.
L’expérience de Roland Garros concernait un seul court, le plus grand : Philippe Chatrier. Et elle était menée du mardi au dimanche de la seconde semaine. Cela concernait donc les quarts de finale jusqu’aux finales dames et hommes.
Pour décrire l’expérience de Roland Garros, nous allons suivre pas à pas le chemin qui part des caméras et arrive sur une TV UHD.
Les caméras Canon et ForALe Court Philippe Chatrier est équipé d’une quinzaine de caméras classiques Full HD pour la retransmission standard des matchs des deux semaines de Roland Garros. Pour l’expérimentation UHD, trois caméras avaient été ajoutées : deux Canon C500PL (20K€ pièce) et une ForA FT-ONE. La première Canon était installée au coin du Court pour capter l’un des joueurs et une seconde était dans les cabines en hauteur pour capter une vue panoramique du court (ci-dessous). La ForA était sur le côté en face de l’arbitre, pour capter le second joueur et faire des ralentis.
La Canon C500 fait partie des nouvelles caméras vidéo Canon utilisant de grands capteurs Super35 mm CMOS (la moitié d’un capteur 24×36 d’un réflex full frame et un peu plus qu’un capteur APS-C des réflex d’entrée/milieu de gamme Canon) sorties en 2011 et 2012. Cette gamme comprend la C100 qui est un modèle FullHD d’entrée de gamme, la C300 qui fonctionne aussi en 2K et enfin, la C500 qui apporte le support de l’UHD et de la 4K. Nue, c’est une caméra assez compacte. Mais elle est évidemment complétée de tout un attirail en production : l’objectif, ici un Canon 30-300 en monture PL (la C500 “pas PL” supporte des objectifs EF des réflex Canon), les commandes motorisées de l’objectif (pour ouverture, diaphragme et focale), les entrées/sorties et un moniteur de contrôle (au mieux, Full HD) sans compter l’intercom audio pour que le cadreur puisse échanger avec la régie.
La caméra de ralenti ForA FT-ONE fonctionne jusqu’à 900 images par secondes. Elle était utilisée à 500 images/secondes pour cette expérimentation à Roland Garros. Elle était couplée à un zoom Canon Digisuper 95. Ce zoom x95 était aussi déployé en décembre dernier dans la conférence à LeWeb. La FT-ONE intègre un capteur FT1-CMOS Super35mm de même taille que ceux des Canon C500. Il est doté d’un “global shutter“ qui balaye l’image d’un coup et évite les effets de distorsion d’image que l’on obtient avec la méthode du rolling shutter où l’image est analysée ligne par ligne (courants avec les réflex). La caméra peut enregistrer jusqu’à 10 secondes en 900 fps en RAM et vider sa mémoire sur carte SSD.
Ces deux types de caméras sont faites pour de la TV. Elles génèrent un signal vidéo qui est échantillonné sur 10 bits (Canon C500) ou 12 bits (ForA FT-ONE) pour chaque couleur primaire. Dans les caméras faites pour le cinéma telles que la Sony F65, le signal peut être échantillonné à 16 bits. Ce qui multiplie par 16 le nombre de couleurs différentes pouvant être captées et d’autant la quantité de données à traiter. Un luxe que l’on ne pourra pas se payer avant longtemps pour des retransmissions en direct !
Notons au passage un point qui n’a aucun rapport avec la captation UHD : dans les deux fosses de part et d’autre du court, un opérateur utilise un micro avec une parabole pour capter le bruit de la balle et aussi les cris des joueurs. Le suivi est réalisé manuellement, ce qui doit être assez fatigant à la longue. On peut imaginer que cette tâche sera un jour automatisée avec un radar ou autre système de captation. Mais le marché pour un tel système ne doit pas être bien énorme ce qui explique la persistance d’un système manuel. Deux caméras FullHD sont sinon dans l’une des fosses. Des photographes sont aussi postés dans les fosses, en plus de ceux qui sont de part et d’autre du filet.
La fibre optique pour relier les caméras à la régie
L’usage de fibres optiques existait déjà dans les retransmissions Full HD. Dans les caméras Full HD broadcast, un câble coaxial transmet la vidéo Full HD en RAW (format vidéo brut de sortie de capteur, non compressé) à un débit de 1,5 Gbits/s. Pour la UHD, deux ou quatre sorties coaxiales des caméras sont utilisées simultanément. Elles sont au standard 3G-SDI et la caméra fonctionne dans un mode qui s’appelle QFHD ou “Quad Full HD”. Et 3G indique un débit de 3 Gbits/s ! Le débit est double de l’habituel 1,5 Gbit/s du Full HD car le frame rate utilisé était de 50 images par secondes alors que le Full HD est généralement en 25 fps (frames/seconds). Ces quatre sorties coax sont injectées à proximité de la caméra dans un switch qui convertit le signal en fibre optique. Quatre fibres par caméras parcourent environ 200 mètres jusqu’à la régie où se trouve un système inverse qui prend la fibre en entrée et sort quatre 3G-SDI en coaxial ou ne sert que de passerelle pour transmettre le signal sur d’autres fibres optiques.
La Canon C500 a deux sorties 3G-SDI et la ForA, quatre. Comment la Canon fait-elle ? Cela doit provenir de leur format RAW qui est légèrement compressé par rapport au RAW de la ForA.
Comme il y a trois caméras UHD, qui font donc un total de (2×2 + 4)*3Gbits/s = 24 Gbits/s qui aboutissent dans la régie. C’est à peu près l’équivalent de la capacité de deux DSLAM d’opérateur ADSL qui alimentent un total de 2000 foyers en haut débit !
Les régies habituelles à Roland Garros sont dans des cars régies de la zone TV, qui comprend des dizaines de mètres de bureaux en Algeco sur trois niveaux. Il y a jusqu’à sept cars régie de France Télévisions la première semaine pour la retransmission des premiers matches. Le nombre de régies diminue ensuite la seconde semaine à deux.
Pour le test de l’UHD, une régie avait été installée dans une petite salle du RG Lab, ce hall en sous-sol près du Court Chatrier où était aussi situé le stand de France Télévisions ouvert au public.
Les caméras sont commandées à distance, ce qui est une pratique courante. Le cadreur ne fait que cadrer ! Il ne gère même pas la mise au point. En UHD, il vaut mieux d’ailleurs le faire avec de bons moniteurs.
La régie était ainsi équipée de trois pupitres de contrôle de caméras avec des moniteurs 2K. Les pupitres des Canon étaient des EVS LSM et celui de la ForA provenait de ForA. Il faut autant d’opérateurs que de caméras. C’est d’ailleurs aussi le cas dans les studios de TV où les caméras sont entièrement robotisées et contrôlées à distance, cadrage compris.
Je vous passe le détail sur le câblage de commande des caméras qui ne passe pas par les fibres optiques transportant le signal vidéo.
La gestion des ralentis avec un EVS XT-3
Le signal qui provenait de la caméra de ralentis ForA était ingéré par un gros serveur EVS XT-3 4K. Il enregistre la vidéo envoyée par la ForA en mode ralenti après sa bufferisation en local. L’opérateur peut ensuite naviguer dans la vidéo en ralenti pour sélectionner les bouts à diffuser à l’antenne. Le tout repose sur une architecture à disques durs en RAID5. Petit détail : chaque serveur a un prix catalogue de près de 200K€ TTC !
A la visualisation, le ralenti avait l’air d’être de moins bonne qualité que le direct. Je n’ai pas pu voir d’où cela venait. L’image semblait moins nette. Cela peut venir de la caméra FT-ONE comme du zoom Canon utilisé ou de n’importe quel autre composant du workflow.
A noter que le mixage audio était de son côté traditionnel avec une table de mixage audio séparée reprenant les sources son utilisées pour la captation FullHD.
Le moniteur de contrôle 4K de Sony.
C’était un écran LCD Sony PVM X300 de format pouces. Il y en avait un seul au-dessus du mélangeur. Les autres moniteurs étaient des 2K classiques. A noter que comme il s’agissait d’écrans de résolution 4K, il y avait une petite bande noire non utilisée de part et d’autre de l’image du fait qu’il s’agissait d’une image UHD légèrement moins large que celle d’une 4K.
Un autre serveur EVS XT3 était utilisé pour le stockage de la vidéo en RAW.
La diffusion sur la TV 4K du stand de France Télévision
Le stand de France Télévisions au RG Lab démontrait la présentation en direct des matches du Cour Philippe Chatrier sur une TV UHD connectée en quad-HDMI avec la régie. Le débit total nécessaire était de 30 mbits/s. Je n’ai pas pu noter comment la vidéo avait été compressée.
Il y avait sur le stand de France Télévisions deux TV 4K : une grande LG de 84 pouces qui ne servait qu’à présenter des vidéos de démonstration, d’excellente qualité avec un débit de 30 mbits/s, alimenté par un PC en HDMI 1.4A et avec les 25 images par secondes permises par le HDMI. Et un moniteur Mitsubishi de format moindre, visiblement 55 ou 65 pouces qui diffusait le direct à 50 images par secondes. Son rendu des couleurs était moyen et il devait être remplacé par une TV Toshiba.
Vous vous demandez peut-être si tout cela en vaut la peine ? Est-ce que cette expérience démontrait bien l’intérêt de la 4K ? Le moniteur Mitsubishi utilisé ne valorisait pas assez les images UHD générées. Il était même presque trop petit. Cela rappelle qu’une image 4K/UHD ne peut s’apprécier que sur de très grands formats d’écrans ou avec des écrans capables de générer de bons rapports de contraste.
Par contre, le frame rate de 5P fps avait un avantage : on pouvait bien voir la balle, ce qui est plus difficile à 25 fps. Est-ce que le 50 fps est suffisant pour le tennis ? Pas évident. Du 120fps ne serait pas de trop. Mais bon, on ne vas pas tirer encore tout le workflow dans ses limites pour une petite balle jaune qui vole bien vite ! Jusqu’à 200 km/h tout de même ! Un ballon de football peut atteindre cette vitesse, mais comme il est plus grand, il est plus facile à suivre !
Source : le blog d’olivier Ezratty
La diffusion Ultra HD 4K avec Rohde et Schwarz.
La Télévision Ultra Haute Définition (UHDTV) prend de plus en plus d’importance dans l’industrie de la diffusion (broadcast). Avec les prochains grands événements sportifs comme la Coupe du Monde de la FIFA 2014 et les Jeux Olympiques XXXI à Rio de Janeiro au Brésil, la technologie UHDTV a bénéficié d’une impulsion majeure de la part des diffuseurs et fabricants d’équipements de test et mesure (T&M) ainsi que de l’industrie de l’électronique grand public (TV et set-top box).
L’augmentation de la résolution (spatiale) de l’image pour 4K (3840×2160) et 8K (7680×4320) comparée à la TVHD actuelle (1920×1080) ainsi que la nécessité de fournir pour ces services des taux de trame plus élevés (50/60 fps à 100/120 fps) représentent un défi majeur lorsqu’il s’agit d’acheminer jusqu’aux foyers un contenu UHDTV via le réseau de transmission terrestre, et ce, en raison du débit de données beaucoup plus élevé.
La DVB-T2 a été favorisée par de nombreux pays à travers le monde car elle a apporté les preuves d’un meilleur rendement spectral pour la diffusion terrestre. MPEG-4 semble cependant être le goulot d’étranglement pour la UHDTV car un débit de données plus élevé est nécessaire pour fournir de tels services. Par conséquent, HEVC devient obligatoire pour l’acheminement de la UHDTV via DVB-T2.
Le document ci-dessous donne un aperçu d’une solution de bout en bout complète pour l’acheminement de la UHDTV DVB-T2 en cinq étapes, basée sur un scénario réaliste. Chaque étape du traitement du signal UHDTV tout au long de la chaîne de transmission est ici décrite en détail. L’étape 1 commence par la phase d’acquisition dans l’environnement de postproduction. L’étape 2 décrit le codage HEVC temps réel du signal UHDTV et le multiplexage en un flux T2-MI. L’étape 3 décrit la transmission RF du signal UHDTV dans des conditions SFN en utilisant DVB-T2 et l’étape 4 décrit la réception du signal UHDTV et la démodulation RF. Enfin, le décodage HEVC et l’affichage sur un écran TV 4K (au foyer) sont décrits à l’étape 5. La figure 1 représente la chaîne de diffusion à partir de la génération du signal (acquisition) jusqu’à la reproduction sur un téléviseur UHD dans les cinq étapes mentionnées ci-dessus.
Ingest et playout 4K (environnement postproduction)
Le contenu UHDTV est le plus souvent généré par l’utilisation de caméras 4K. Le contenu UHDTV est stocké en interne dans la mémoire de la caméra ou, en cas de diffusion en direct, transmis en temps réel à un système Ingest via des câbles 4 x 3G-SDI. Le tableau 1 décrit les différents débits de données requis pour les divers formats d’échantillonnage de couleur et le nombre de bits par échantillon (profondeur binaire), basés sur une résolution UHDTV de 3840×2160 avec 60 trames par seconde (fps).
Une caméra 4K typique moderne peut, soit produire un contenu vidéo brut 4K à 50 fps ou 60 fps avec une profondeur de 10 ou 12 bits avec 4:2:2, soit enregistrer en interne le contenu 4K dans un format haute résolution compressé (XAVC, AVC Ultra, ProRes etc.) sur des cartes mémoire. Dans le premier cas, le défi consiste à acquérir le contenu 4K en combinant les signaux 4x 3G-SDI entrants dans un fichier 4K (stiching). Dans le second cas, les données peuvent être acquises par copie de fichier dans la mémoire du système de traitement qui doit être compatible avec les différents formats de fichier de caméra 4K. Dans les deux cas, il est nécessaire de réduire l’échantillonnage de couleur à 4:2:0 et la profondeur à 8 ou 10 bits pour que le signal UHDTV 4K soit conforme aux exigences de diffusion UHD-1 [UIT-R BT.2020].
Non seulement R&S Clipster répond parfaitement à ces exigences mais il gère également toutes les résolutions SD jusqu’à 8K et peut convertir les fichiers des différents formats (XAVC, ProRes etc) avec tous les échantillonnages de couleur (RVB, YUV) et de profondeur binaire (fig. 2).
R&SClipster synchronise automatiquement les signaux entrants et compile un fichier 4K (stiching) avant le traitement (fig. 3). Cette méthodologie est importante pour éliminer les artefacts apparaissant souvent à proximité des bordures des quatre quadrants des signaux entrants. À partir de cette étape, le signal est dans un format basé fichiers et peut alors être traité (encodage avec HEVC, JPEG2000) ou transféré dans un centre de diffusion ou de stockage principal (fig. 4).
Encodage HEVC temps réel et multiplexage
L’étape 2 décrit un scénario de diffusion réaliste où le contenu UHDTV 4K doit être traité en temps réel. Nous prendrons donc ici l’exemple d’une diffusion en direct d’un événement sportif nécessitant une haute résolution (UHDTV) et une cadence de trame élevée (de 50 fps ou 60fps).
Le défi s’avère ici complexe compte tenu que le diffuseur doit :
• Synchroniser les signaux 4 x 3G-SDI dans une image 4K unique (stitching).
• Encoder le signal 4K en temps réel en utilisant HEVC.
• Générer le multiplex UHDTV et charger les informations PSI/SI.
• Générer les horodateurs du signal GPS dans les paquets T2-MI (synchronisation SFN).
• Acheminer le flux de transport MPEG-2 (T2-MI) via IP ou ASI vers le réseau d’émetteurs.
Pour relever ce défi, Rohde & Schwarz propose le R&S AVHE100, un système modulaire qui fournit la totalité de la fonctionnalité d’une tête de réseau dans un espace extrêmement réduit. Le R&SAVHE100 utilise des composants informatiques à la pointe de la technologie, lesquels offrent l’extrême puissance de calcul nécessaire pour l’encodage HEVC et le traitement du signal. Les flux de signal à l’intérieur de la tête de réseau basés entièrement IP offrent ainsi la haute flexibilité nécessaire pour répondre à un large éventail de besoins des clients.
Les signaux 3G-SDI entrants sont initialement synchronisés dans le R&SAVHE100 (multiplexage) pour former une seule image 4K. Ceci est réalisé par les signaux entrants qui sont verrouillés (genlocked) en fréquence et en phase (avec un offset de 512 pixels maximum). Les encodeurs HEVC traitent ensuite l’ensemble des données 4K et génèrent le flux transport MPEG-2 ou MPEG-DASH conformément aux normes DVB. Le signal de sortie de la tête de réseau peut être réalisé via ASI ou IP et peut donc être utilisé à des fins unicast ou multicast et acheminé via satellite, réseaux terrestre, câble ou IP (fig. 5).
Remarque : le développement initial de l’encodage HEVC en temps réel nécessite plusieurs serveurs (quatre), en raison de la puissance de traitement élevée requise pour des résolutions (UHD) et cadence de trame plus élevées ; une simplification est cependant attendue dans les années à venir. Alternativement, un encodeur intégré dans un rack unique capable d’atteindre 30% à 40% d’efficacité d’encodage par rapport à H.264 peut être utilisé.
Acheminement UHDTV via le réseau SFN DVB-T2
La norme DVB-T2 a apporté la preuve d’une plus grande capacité de débit de données pour la diffusion de la télévision numérique terrestre. Ici, nous supposons un réseau DVB-T2 SFN réaliste basé sur une installation expérimentale dans la région métropolitaine de Séoul (Corée du Sud) ; les limitations suivantes ont été prises en considération dès le début :
• La bande passante RF DVB-T2 est fixée à 6 MHz.
• En raison du profil géostatique de la région métropolitaine de Séoul, un assez grand intervalle de garde doit être pris en compte pour la planification SFN, ce qui réduit la capacité de débit de données DVB-T2. Le choix de l’intervalle de garde de 1/16 est basé sur des réseaux DVB-T2 SFN de référence actuellement en fonctionnement en Afrique du Sud, Allemagne et Russie, ainsi que sur la spécification Nordig pour les réseaux DVB-T2 SFN dans les pays scandinaves [Nordig link] – tout en ciblant principalement la réception via des antennes râteaux.
• Les premières expériences avec le codage HEVC temps réel ont montré qu’un débit d’au moins 25 Mb/s est nécessaire pour obtenir des résultats satisfaisants (basé sur 3840×2160 avec 4:2:0 et 8 bits 60 fps).
• L’acheminement UHDTV 4K doit cibler à la fois la réception extérieure (toit) et intérieure.
Basées sur ces limitations, certaines configurations DVB-T2 possibles sont présentées :
• Le Mode 1 (256QAM) est la configuration DVB-T2 pour la réception via une antenne râteau sur le toit car il permet d’obtenir des débits de données les plus élevés possibles (26,6 Mb/s) avec une bonne protection contre le bruit.
• Le Mode 2 offre une protection contre le bruit légèrement améliorée par rapport au Mode 1 avec une légère réduction du débit des données.
• Les Modes 3 et 4 sont conçus pour une réception à l’intérieur, le Mode 4 ayant un intervalle de garde plus grand. Bien que ces modes présentent une meilleure immunité au bruit, leur débit de données se trouve limité, ce qui rend l’acheminement de la UHDTV à des cadences de trames élevées très difficile (possibles avec 3840×2160 à 30 fps).
Toutefois, cette approche SFN a été validée par des essais en grandeur réelle sur le terrain dans la région de Séoul sur la base de la topologie de l’émetteur et de la puissance d’émission RF pour le DVB-T2.
La tête de réseau R&SAVHE100 achemine le flux de transport MPEG-2 vers tous les émetteurs situés dans le PNS. Ces émetteurs prennent en charge les entrées ASI et IP. Les horodatages de synchronisation sont inclus dans le flux T2-MI et le réseau d’émetteurs est synchronisé en utilisant la signalisation GPS 1PPS pour la référence de temps et le signal 10 MHz pour la référence de fréquence (fig. 6).
Coté émission, Rohde & Schwarz propose la génération d’émetteurs Tx9 : le R&STHU9 / R&STHV9 répondant à des exigences de forte puissance à refroidissement par liquide et le R&STMU9 / R&STMV9 pour des moyennes puissances et des applications à refroidissement par air.
La génération Tx9 offre le plus haut rendement de puissance du marché (jusqu’à 38% en mode Doherty, système de refroidissement compris). Quelques-unes des différentes catégories de puissance d’émission RF sont décrites dans le tableau 3 ci-contre.
Démodulation RF et décodage HEVC
La dernière partie de la transmission UHDTV intervient sur le site du client. Typiquement, le signal RF DVB T2 est capté par une antenne Yagi installée sur le toit et acheminé vers le téléviseur UHD via un câble 75 Ω. Le démodulateur RF et le décodeur HEVC sont implémentés, soit dans le téléviseur, soit dans un boîtier décodeur (set-top-box). Cependant, dans un environnement expérimental où les opérateurs de réseau souhaitent effectuer une analyse approfondie de la RF et de la bande de base du signal DVB-T2 acheminant le contenu UHDTV, Rohde & Schwarz propose l’analyseur TV R&S ETL. Celui-ci reçoit le signal RF DVB-T2 contenant le service UHDTV et le démodule jusqu’au niveau de la bande de base. Sous la forme d’un flux de transport MPEG-2, le signal démodulé est ensuite introduit dans le GMITBMM-810 par l’intermédiaire de l’interface ASI. Le GMITBMM-810 est une solution basée sur un serveur pour la surveillance et la visualisation des services de diffusion vidéo et audio.
Il est capable de décoder le service UHD HEVC et d’acheminer le signal via les connexions Display Port ou HDMI vers un écran de télévision ou un projecteur 4K (fig. 7). Cette unité prend en charge le décodage simultané d’un maximum de quatre flux HEVC en résolution 4K.
Conclusion
Avec les prochains grands événements sportifs et l’augmentation constante de la dimension des écrans TV, la diffusion des contenus UHD 4K devient une réalité.
L’accroissement de la résolution à la fois spatiale et temporelle confronte les diffuseurs à de nouveaux défis étant donné qu’une utilisation et un traitement de débits de données beaucoup plus élevés sont alors nécessaires.
L’acheminement du contenu UHDTV devient encore plus difficile lorsque ces données doivent être transformées puis transmises sur des réseaux terrestres en raison des limites de capacité du canal.
Dans ce livret blanc, une solution UHD 4K de bout en bout utilisant des produits de Rohde & Schwarz a été démontrée à partir de la capture du contenu 4K jusqu’à son acheminement vers les foyers par l’intermédiaire d’un réseau SFN DVB-T2. Cet ouvrage est basé sur un cas de scénarios de test réel reflétant les exigences techniques des diffuseurs coréens les plus importants.