C’est France Télé­vi­sions qui assure depuis 25 ans la cap­ta­tion et la retrans­mis­sion des matchs de Roland Gar­ros. De nom­breuses autres chaines de télé­vi­sion étran­gères sont aussi pré­sentes sur place. Elles ont leurs propres pla­teaux pour les inter­views mais uti­lisent les “feeds” pro­duits par France Télé­vi­sions. France Télé­vi­sions s’appuie sur place sur des infra­struc­tures tech­niques en propre pour les cars régies mais fait appel à des pres­ta­taires divers notam­ment au niveau de la cap­ta­tion camé­ras. Ces der­nières sont opé­rées par AMP Visual, le second pres­ta­taire fran­çais des moyens tech­niques de cap­ta­tion (stu­dios, camé­ras, cars régies) après Euro Media France. On les avait notam­ment vus à l’œuvre lors de la confé­rence LeWeb. Il faut aussi comp­ter avec ACS France qui gère depuis plu­sieurs années les camé­ras sur câble dont nous repar­le­rons. Il y a une ribam­belle d’autres sous-traitants que je n’ai pas for­cé­ment bien identifiés.

Canon C500 sur Court Chatrier (8)

Il y a deux ans, le point d’orgue de ma visite à Roland Gar­ros por­tait sur la pre­mière expé­ri­men­ta­tion d’uneappli­ca­tion HbbTV. J’avais aussi fait le tour des infra­struc­tures TV. Cette fois-ci, j’ai foca­lisé ma visite sur l’expérimentation de cap­ta­tion live en UHD des matches du Court Phi­lippe Chatrier.

L’expérimentation UHD Live

Il s’agissait visi­ble­ment d’une pre­mière dans le monde : la cap­ta­tion en direct d’un événe­ment en UHD. L’Ultra HD existe depuis déjà un bon bout de temps. Sa variante pour le cinéma, la 4K, égale­ment. De nom­breux films sont tour­nés en 4K. Il y avait aussi eu des cap­ta­tions 4K aux JO de Londres tout comme pour la ver­sion TF1 de “The Voice”.
A chaque fois, il s’agissait de cap­ta­tion en dif­féré. Des camé­ras fil­maient l’événement ou l’émission. Le contenu ali­men­tait des disques durs et était ensuite monté avec des logi­ciels du type de Final­Cut (pro­ve­nant d’Apple et tour­nant sur Macin­tosh) voire Adobe Pre­miere ou Avid. Ces logi­ciels expor­taient un fichier vidéo com­pressé UHD en MPEG4 ou plus récem­ment avec le codec HEVC dont le taux de com­pres­sion est meilleur. Mais rien en direct !
Petite défi­ni­tion pour mémoire : l’Ultra HD est le nom mar­ke­ting uti­lisé par les construc­teurs de pro­duits d’électronique grand public pour dési­gner les écrans et camé­ras qui res­ti­tuent ou captent de la vidéo qui fait quatre fois la réso­lu­tion de l’actuel Full HD (1920×1080). Ce qui donne 3840*2160 pixels. La 4K est la déno­mi­na­tion de l’équivalent de l’UHD dans le milieu du cinéma. La 4K est à l’UHD ce que la 2K est au Full HD. Les films actuels sont géné­ra­le­ment tour­nés en 2K selon les spé­ci­fi­ca­tions DCI avec une réso­lu­tion de 2048*1080. La 4K, c’est le double dans les deux direc­tions avec 4096*2160. Les grandes pro­duc­tions hol­ly­woo­diennes sont cepen­dant pas­sées à la 4K. Cela a démarré en 2008 avec l’arrivée des camé­ras RED, puis plus récem­ment des camé­ras 4K de Sony comme la F65. Les dif­fé­rences de réso­lu­tion entre 4K et UHD sont minimes. Par contre, d’autres dif­fé­rences peuvent exis­ter entre le monde du cinéma et celui de la télé­vi­sion, aussi bien entre 2K et Full HD qu’entre 4K et UHD. Cela va concer­ner notam­ment le nombre d’images par secondes mais aussi la qua­lité de l’image. Le cinéma est plus exi­geant pour la qua­lité et la TV, notam­ment dans le sport, est plus exi­geant côté “frame rate”.

Pour cap­ter une émis­sion en direct en UHD, il faut un work­flow qui fonc­tionne… en direct ! Il faut récu­pé­rer les signaux des camé­ras, les déco­der, les injec­ter dans un mélan­geur (table de mixage vidéo), gérer les ralen­tis – incon­tour­nables dans le sport -, ajou­ter les titres et ensuite dif­fu­ser le résul­tat. A chaque étape, il faut du maté­riel spé­ci­fique capable de gérer la réso­lu­tion et les débits asso­ciés à l’UHD.
L’expérience de Roland Gar­ros concer­nait un seul court, le plus grand : Phi­lippe Cha­trier. Et elle était menée du mardi au dimanche de la seconde semaine. Cela concer­nait donc les quarts de finale jusqu’aux finales dames et hommes.
Pour décrire l’expérience de Roland Gar­ros, nous allons suivre pas à pas le che­min qui part des camé­ras et arrive sur une TV UHD.


Les camé­ras Canon et ForA
Le Court Phi­lippe Cha­trier est équipé d’une quin­zaine de camé­ras clas­siques Full HD pour la retrans­mis­sion stan­dard des matchs des deux semaines de Roland Gar­ros. Pour l’expérimentation UHD, trois camé­ras avaient été ajou­tées : deux Canon C500PL (20K€ pièce) et une ForA FT-ONE. La pre­mière Canon était ins­tal­lée au coin du Court pour cap­ter l’un des joueurs et une seconde était dans les cabines en hau­teur pour cap­ter une vue pano­ra­mique du court (ci-dessous). La ForA était sur le côté en face de l’arbitre, pour cap­ter le second joueur et faire des ralentis.

La Canon C500 fait par­tie des nou­velles camé­ras vidéo Canon uti­li­sant de grands cap­teurs Super35 mm CMOS (la moi­tié d’un cap­teur 24×36 d’un réflex full frame et un peu plus qu’un cap­teur APS-C des réflex d’entrée/milieu de gamme Canon) sor­ties en 2011 et 2012. Cette gamme com­prend la C100 qui est un modèle FullHD d’entrée de gamme, la C300 qui fonc­tionne aussi en 2K et enfin, la C500 qui apporte le sup­port de l’UHD et de la 4K. Nue, c’est une caméra assez com­pacte. Mais elle est évidem­ment com­plé­tée de tout un atti­rail en pro­duc­tion : l’objectif, ici un Canon 30-300 en mon­ture PL (la C500 “pas PL” sup­porte des objec­tifs EF des réflex Canon), les com­mandes moto­ri­sées de l’objectif (pour ouver­ture, dia­phragme et focale), les entrées/sorties et un moni­teur de contrôle (au mieux, Full HD) sans comp­ter l’intercom audio pour que le cadreur puisse échan­ger avec la régie.

La caméra de ralenti ForA FT-ONE fonc­tionne jusqu’à 900 images par secondes. Elle était uti­li­sée à 500 images/secondes pour cette expé­ri­men­ta­tion à Roland Gar­ros. Elle était cou­plée à un zoom Canon Digi­su­per 95. Ce zoom x95 était aussi déployé en décembre der­nier dans la confé­rence à LeWeb. La FT-ONE intègre un cap­teur FT1-CMOS Super35mm de même taille que ceux des Canon C500. Il est doté d’un “glo­bal shut­ter“ qui balaye l’image d’un coup et évite les effets de dis­tor­sion d’image que l’on obtient avec la méthode du rol­ling shut­ter où l’image est ana­ly­sée ligne par ligne (cou­rants avec les réflex). La caméra peut enre­gis­trer jusqu’à 10 secondes en 900 fps en RAM et vider sa mémoire sur carte SSD.

Ces deux types de camé­ras sont faites pour de la TV. Elles génèrent un signal vidéo qui est échan­tillonné sur 10 bits (Canon C500) ou 12 bits (ForA FT-ONE) pour chaque cou­leur pri­maire. Dans les camé­ras faites pour le cinéma telles que la Sony F65, le signal peut être échan­tillonné à 16 bits. Ce qui mul­ti­plie par 16 le nombre de cou­leurs dif­fé­rentes pou­vant être cap­tées et d’autant la quan­tité de don­nées à trai­ter. Un luxe que l’on ne pourra pas se payer avant long­temps pour des retrans­mis­sions en direct !

Notons au pas­sage un point qui n’a aucun rap­port avec la cap­ta­tion UHD : dans les deux fosses de part et d’autre du court, un opé­ra­teur uti­lise un micro avec une para­bole pour cap­ter le bruit de la balle et aussi les cris des joueurs. Le suivi est réa­lisé manuel­le­ment, ce qui doit être assez fati­gant à la longue. On peut ima­gi­ner que cette tâche sera un jour auto­ma­ti­sée avec un radar ou autre sys­tème de cap­ta­tion. Mais le mar­ché pour un tel sys­tème ne doit pas être bien énorme ce qui explique la per­sis­tance d’un sys­tème manuel. Deux camé­ras FullHD sont sinon dans l’une des fosses. Des pho­to­graphes sont aussi pos­tés dans les fosses, en plus de ceux qui sont de part et d’autre du filet.


La fibre optique pour relier les camé­ras à la régie

L’usage de fibres optiques exis­tait déjà dans les retrans­mis­sions Full HD. Dans les camé­ras Full HD broad­cast, un câble coaxial trans­met la vidéo Full HD en RAW (for­mat vidéo brut de sor­tie de cap­teur, non com­pressé) à un débit de 1,5 Gbits/s. Pour la UHD, deux ou quatre sor­ties coaxiales des camé­ras sont uti­li­sées simul­ta­né­ment. Elles sont au stan­dard 3G-SDI et la caméra fonc­tionne dans un mode qui s’appelle QFHD ou “Quad Full HD”. Et 3G indique un débit de 3 Gbits/s ! Le débit est double de l’habituel 1,5 Gbit/s du Full HD car le frame rate uti­lisé était de 50 images par secondes alors que le Full HD est géné­ra­le­ment en 25 fps (frames/seconds). Ces quatre sor­ties coax sont injec­tées à proxi­mité de la caméra dans un switch qui conver­tit le signal en fibre optique. Quatre fibres par camé­ras par­courent envi­ron 200 mètres jusqu’à la régie où se trouve un sys­tème inverse qui prend la fibre en entrée et sort quatre 3G-SDI en coaxial ou ne sert que de pas­se­relle pour trans­mettre le signal sur d’autres fibres optiques.

La Canon C500 a deux sor­ties 3G-SDI et la ForA, quatre. Com­ment la Canon fait-elle ? Cela doit pro­ve­nir de leur for­mat RAW qui est légè­re­ment com­pressé par rap­port au RAW de la ForA.

Comme il y a trois camé­ras UHD, qui font donc un total de (2×2 + 4)*3Gbits/s = 24 Gbits/s qui abou­tissent dans la régie. C’est à peu près l’équivalent de la capa­cité de deux DSLAM d’opérateur ADSL qui ali­mentent un total de 2000 foyers en haut débit !


La régie UHD

Les régies habi­tuelles à Roland Gar­ros sont dans des cars régies de la zone TV, qui com­prend des dizaines de mètres de bureaux en Algeco sur trois niveaux. Il y a jusqu’à sept cars régie de France Télé­vi­sions la pre­mière semaine pour la retrans­mis­sion des pre­miers matches. Le nombre de régies dimi­nue ensuite la seconde semaine à deux.

Pour le test de l’UHD, une régie avait été ins­tal­lée dans une petite salle du RG Lab, ce hall en sous-sol près du Court Cha­trier où était aussi situé le stand de France Télé­vi­sions ouvert au public.


La com­mande des camé­ras

Les camé­ras sont com­man­dées à dis­tance, ce qui est une pra­tique cou­rante. Le cadreur ne fait que cadrer ! Il ne gère même pas la mise au point. En UHD, il vaut mieux d’ailleurs le faire avec de bons moniteurs.

La régie était ainsi équi­pée de trois pupitres de contrôle de camé­ras avec des moni­teurs 2K. Les pupitres des Canon étaient des EVS LSM et celui de la ForA pro­ve­nait de ForA. Il faut autant d’opérateurs que de camé­ras. C’est d’ailleurs aussi le cas dans les stu­dios de TV où les camé­ras sont entiè­re­ment robo­ti­sées et contrô­lées à dis­tance, cadrage compris.

Je vous passe le détail sur le câblage de com­mande des camé­ras qui ne passe pas par les fibres optiques trans­por­tant le signal vidéo.

La débaye­ri­sa­tionLe signal qui sort des switches Rie­del est donc com­posé de 4 foix 3GBits/s de vidéo brute de cap­teur. Il faut la “débaye­ri­ser” ou le “déma­tri­cer”, c’est-à-dire, la trans­for­mer en vidéo avec chaque pixel codé en RGB. Alors qu’à la source, on a les valeurs de lumi­no­sité cap­tée par les pho­to­sites de chaque cou­leur pri­maire qui sont rangé les uns à côté des autres. Il y a huit mil­lions de pho­to­sites dans les Canon C500 et les ForA FT-ONE. Cette débaye­ri­sa­tion était réa­li­sée avec deux boi­tiers rouges du japo­nais Astro, des HB7513, dont un est visible ci-dessous. Il y en avait un pour cha­cune des Canon C500. Ils récu­pèrent direc­te­ment le signal des quatre fibres optiques qui pro­viennent des camé­ras. La débaye­ri­sa­tion de la FT-ONE était visi­ble­ment réa­li­sée au niveau de la caméra.


La ges­tion des ralen­tis avec un EVS XT-3

Le signal qui pro­ve­nait de la caméra de ralen­tis ForA était ingéré par un gros ser­veur EVS XT-3 4K. Il enre­gistre la vidéo envoyée par la ForA en mode ralenti après sa buf­fe­ri­sa­tion en local. L’opérateur peut ensuite navi­guer dans la vidéo en ralenti pour sélec­tion­ner les bouts à dif­fu­ser à l’antenne. Le tout repose sur une archi­tec­ture à disques durs en RAID5. Petit détail : chaque ser­veur a un prix cata­logue de près de 200K€ TTC !
A la visua­li­sa­tion, le ralenti avait l’air d’être de moins bonne qua­lité que le direct. Je n’ai pas pu voir d’où cela venait. L’image sem­blait moins nette. Cela peut venir de la caméra FT-ONE comme du zoom Canon uti­lisé ou de n’importe quel autre com­po­sant du workflow.

Le mixage vidéo avec un mélan­geur Snell Kahuna 360Ce mélan­geur existe depuis quelques temps mais Snell a annoncé au der­nier NAB d’avril 2013 que le 360 pou­vait être mis à niveau pour sup­por­ter la 4K. Ce sup­port sera en pro­duc­tion pour l’IBC 2013 en sep­tembre pro­hain à Amster­dam. La ver­sion uti­li­sée ici était donc une sorte de beta. Ce mélan­geur inté­grait dif­fé­rentes sources : celles issues des trois camé­ras 4K, l’habillage antenne en FullHD ups­calé en 4K ainsi que les images des cable­cams égale­ment ups­ca­lées à par­tir de Full HD.

A noter que le mixage audio était de son côté tra­di­tion­nel avec une table de mixage audio sépa­rée repre­nant les sources son uti­li­sées pour la cap­ta­tion FullHD.


Le moni­teur de contrôle 4K de Sony.

C’était un écran LCD Sony PVM X300 de for­mat pouces. Il y en avait un seul au-dessus du mélan­geur. Les autres moni­teurs étaient des 2K clas­siques. A noter que comme il s’agissait d’écrans de réso­lu­tion 4K, il y avait une petite bande noire non uti­li­sée de part et d’autre de l’image du fait qu’il s’agissait d’une image UHD légè­re­ment moins large que celle d’une 4K.

L’enregistrement sur magné­to­scope numé­rique SonyCet enre­gis­treur SR-R1000 stocke la vidéo du live sur des cartes mémoires. Il uti­lise le for­mat vidéo SRMASTER qui date de 2011 et qui a été conçu pour les camé­ras CineAlta F65 4K. C’est un dérivé du MPEG4. C‘est un for­mat ouvert uti­li­sable par d’autres indus­triels que Sony pour les dif­fé­rentes com­po­santes du work­flow vidéo. Le sto­ckage s’effectue sur des blocs de disques durs amo­vibles de 4 To et un sto­ckage interne de 8 To. A noter son prix cata­logue de $49K et les cartes mémoire de 1 To qui sont à $6K et garan­tissent une vitesse de sto­ckage de 2,5 Gbits/s.

Un autre ser­veur EVS XT3 était uti­lisé pour le sto­ckage de la vidéo en RAW.


La dif­fu­sion sur la TV 4K du stand de France Télévision

Le stand de France Télé­vi­sions au RG Lab démon­trait la pré­sen­ta­tion en direct des matches du Cour Phi­lippe Cha­trier sur une TV UHD connec­tée en quad-HDMI avec la régie. Le débit total néces­saire était de 30 mbits/s. Je n’ai pas pu noter com­ment la vidéo avait été compressée.
Il y avait sur le stand de France Télé­vi­sions deux TV 4K : une grande LG de 84 pouces qui ne ser­vait qu’à pré­sen­ter des vidéos de démons­tra­tion, d’excellente qua­lité avec un débit de 30 mbits/s, ali­menté par un PC en HDMI 1.4A et avec les 25 images par secondes per­mises par le HDMI. Et un moni­teur Mit­su­bi­shi de for­mat moindre, visi­ble­ment 55 ou 65 pouces qui dif­fu­sait le direct à 50 images par secondes. Son rendu des cou­leurs était moyen et il devait être rem­placé par une TV Toshiba.

Vous vous deman­dez peut-être si tout cela en vaut la peine ? Est-ce que cette expé­rience démon­trait bien l’intérêt de la 4K ? Le moni­teur Mit­su­bi­shi uti­lisé ne valo­ri­sait pas assez les images UHD géné­rées. Il était même presque trop petit. Cela rap­pelle qu’une image 4K/UHD ne peut s’apprécier que sur de très grands for­mats d’écrans ou avec des écrans capables de géné­rer de bons rap­ports de contraste.

Par contre, le frame rate de 5P fps avait un avan­tage : on pou­vait bien voir la balle, ce qui est plus dif­fi­cile à 25 fps. Est-ce que le 50 fps est suf­fi­sant pour le ten­nis ? Pas évident. Du 120fps ne serait pas de trop. Mais bon, on ne vas pas tirer encore tout le work­flow dans ses limites pour une petite balle jaune qui vole bien vite ! Jusqu’à 200 km/h tout de même ! Un bal­lon de foot­ball peut atteindre cette vitesse, mais comme il est plus grand, il est plus facile à suivre !

Le pilote de dif­fu­sion par satelliteCette dif­fu­sion par satel­lite avait lieu en dif­féré avec des bandes de démons­tra­tion de 5 minutes pré­pa­rées après chaque match. En fait, rien n’avait été spé­cia­le­ment orga­nisé sur d’autres sites pour la récep­tion du signal. Per­sonne ne peut pour l’instant le faire dans le grand public. La vidéo était com­pres­sée avec un codec HEVC d’origine ATEME.

Source : le blog d’olivier Ezratty

 

La diffusion Ultra HD 4K avec Rohde et Schwarz.

La Télévision Ultra Haute Définition (UHDTV) prend de plus en plus d’importance dans l’industrie de la diffusion (broadcast). Avec les prochains grands événements sportifs comme la Coupe du Monde de la FIFA 2014 et les Jeux Olympiques XXXI à Rio de Janeiro au Brésil, la technologie UHDTV a bénéficié d’une impulsion majeure de la part des diffuseurs et fabricants d’équipements de test et mesure (T&M) ainsi que de l’industrie de l’électronique grand public (TV et set-top box).
L’augmentation de la résolution (spatiale) de l’image pour 4K (3840×2160) et 8K (7680×4320) comparée à la TVHD actuelle (1920×1080) ainsi que la nécessité de fournir pour ces services des taux de trame plus élevés (50/60 fps à 100/120 fps) représentent un défi majeur lorsqu’il s’agit d’acheminer jusqu’aux foyers un contenu UHDTV via le réseau de transmission terrestre, et ce, en raison du débit de données beaucoup plus élevé.
La DVB-T2 a été favorisée par de nombreux pays à travers le monde car elle a apporté les preuves d’un meilleur rendement spectral pour la diffusion terrestre. MPEG-4 semble cependant être le goulot d’étranglement pour la UHDTV car un débit de données plus élevé est nécessaire pour fournir de tels services. Par conséquent, HEVC devient obligatoire pour l’acheminement de la UHDTV via DVB-T2.
Le document ci-dessous donne un aperçu d’une solution de bout en bout complète pour l’acheminement de la UHDTV DVB-T2 en cinq étapes, basée sur un scénario réaliste. Chaque étape du traitement du signal UHDTV tout au long de la chaîne de transmission est ici décrite en détail. L’étape 1 commence par la phase d’acquisition dans l’environnement de postproduction. L’étape 2 décrit le codage HEVC temps réel du signal UHDTV et le multiplexage en un flux T2-MI. L’étape 3 décrit la transmission RF du signal UHDTV dans des conditions SFN en utilisant DVB-T2 et l’étape 4 décrit la réception du signal UHDTV et la démodulation RF. Enfin, le décodage HEVC et l’affichage sur un écran TV 4K (au foyer) sont décrits à l’étape 5. La figure 1 représente la chaîne de diffusion à partir de la génération du signal (acquisition) jusqu’à la reproduction sur un téléviseur UHD dans les cinq étapes mentionnées ci-dessus.

Ingest et playout 4K (environnement postproduction)

Le contenu UHDTV est le plus souvent généré par l’utilisation de caméras 4K. Le contenu UHDTV est stocké en interne dans la mémoire de la caméra ou, en cas de diffusion en direct, transmis en temps réel à un système Ingest via des câbles 4 x 3G-SDI. Le tableau 1 décrit les différents débits de données requis pour les divers formats d’échantillonnage de couleur et le nombre de bits par échantillon (profondeur binaire), basés sur une résolution UHDTV de 3840×2160 avec 60 trames par seconde (fps).
Une caméra 4K typique moderne peut, soit produire un contenu vidéo brut 4K à 50 fps ou 60 fps avec une profondeur de 10 ou 12 bits avec 4:2:2, soit enregistrer en interne le contenu 4K dans un format haute résolution compressé (XAVC, AVC Ultra, ProRes etc.) sur des cartes mémoire. Dans le premier cas, le défi consiste à acquérir le contenu 4K en combinant les signaux 4x 3G-SDI entrants dans un fichier 4K (stiching). Dans le second cas, les données peuvent être acquises par copie de fichier dans la mémoire du système de traitement qui doit être compatible avec les différents formats de fichier de caméra 4K. Dans les deux cas, il est nécessaire de réduire l’échantillonnage de couleur à 4:2:0 et la profondeur à 8 ou 10 bits pour que le signal UHDTV 4K soit conforme aux exigences de diffusion UHD-1 [UIT-R BT.2020].
Non seulement R&S Clipster répond parfaitement à ces exigences mais il gère également toutes les résolutions SD jusqu’à 8K et peut convertir les fichiers des différents formats (XAVC, ProRes etc) avec tous les échantillonnages de couleur (RVB, YUV) et de profondeur binaire (fig. 2).
R&SClipster synchronise automatiquement les signaux entrants et compile un fichier 4K (stiching) avant le traitement (fig. 3). Cette méthodologie est importante pour éliminer les artefacts apparaissant souvent à proximité des bordures des quatre quadrants des signaux entrants. À partir de cette étape, le signal est dans un format basé fichiers et peut alors être traité (encodage avec HEVC, JPEG2000) ou transféré dans un centre de diffusion ou de stockage principal (fig. 4).

Encodage HEVC temps réel et multiplexage

L’étape 2 décrit un scénario de diffusion réaliste où le contenu UHDTV 4K doit être traité en temps réel. Nous prendrons donc ici l’exemple d’une diffusion en direct d’un événement sportif nécessitant une haute résolution (UHDTV) et une cadence de trame élevée (de 50 fps ou 60fps).

Le défi s’avère ici complexe compte tenu que le diffuseur doit :

• Synchroniser les signaux 4 x 3G-SDI dans une image 4K unique (stitching).
• Encoder le signal 4K en temps réel en utilisant HEVC.
• Générer le multiplex UHDTV et charger les informations PSI/SI.
• Générer les horodateurs du signal GPS dans les paquets T2-MI (synchronisation SFN).
• Acheminer le flux de transport MPEG-2 (T2-MI) via IP ou ASI vers le réseau d’émetteurs.

Pour relever ce défi, Rohde & Schwarz propose le R&S AVHE100, un système modulaire qui fournit la totalité de la fonctionnalité d’une tête de réseau dans un espace extrêmement réduit. Le R&SAVHE100 utilise des composants informatiques à la pointe de la technologie, lesquels offrent l’extrême puissance de calcul nécessaire pour l’encodage HEVC et le traitement du signal. Les flux de signal à l’intérieur de la tête de réseau basés entièrement IP offrent ainsi la haute flexibilité nécessaire pour répondre à un large éventail de besoins des clients.
Les signaux 3G-SDI entrants sont initialement synchronisés dans le R&SAVHE100 (multiplexage) pour former une seule image 4K. Ceci est réalisé par les signaux entrants qui sont verrouillés (genlocked) en fréquence et en phase (avec un offset de 512 pixels maximum). Les encodeurs HEVC traitent ensuite l’ensemble des données 4K et génèrent le flux transport MPEG-2 ou MPEG-DASH conformément aux normes DVB. Le signal de sortie de la tête de réseau peut être réalisé via ASI ou IP et peut donc être utilisé à des fins unicast ou multicast et acheminé via satellite, réseaux terrestre, câble ou IP (fig. 5).
Remarque : le développement initial de l’encodage HEVC en temps réel nécessite plusieurs serveurs (quatre), en raison de la puissance de traitement élevée requise pour des résolutions (UHD) et cadence de trame plus élevées ; une simplification est cependant attendue dans les années à venir. Alternativement, un encodeur intégré dans un rack unique capable d’atteindre 30% à 40% d’efficacité d’encodage par rapport à H.264 peut être utilisé.

Acheminement UHDTV via le réseau SFN DVB-T2

La norme DVB-T2 a apporté la preuve d’une plus grande capacité de débit de données pour la diffusion de la télévision numérique terrestre. Ici, nous supposons un réseau DVB-T2 SFN réaliste basé sur une installation expérimentale dans la région métropolitaine de Séoul (Corée du Sud) ; les limitations suivantes ont été prises en considération dès le début :
• La bande passante RF DVB-T2 est fixée à 6 MHz.
• En raison du profil géostatique de la région métropolitaine de Séoul, un assez grand intervalle de garde doit être pris en compte pour la planification SFN, ce qui réduit la capacité de débit de données DVB-T2. Le choix de l’intervalle de garde de 1/16 est basé sur des réseaux DVB-T2 SFN de référence actuellement en fonctionnement en Afrique du Sud, Allemagne et Russie, ainsi que sur la spécification Nordig pour les réseaux DVB-T2 SFN dans les pays scandinaves [Nordig link] – tout en ciblant principalement la réception via des antennes râteaux.
• Les premières expériences avec le codage HEVC temps réel ont montré qu’un débit d’au moins 25 Mb/s est nécessaire pour obtenir des résultats satisfaisants (basé sur 3840×2160 avec 4:2:0 et 8 bits 60 fps).
• L’acheminement UHDTV 4K doit cibler à la fois la réception extérieure (toit) et intérieure.

Basées sur ces limitations, certaines configurations DVB-T2 possibles sont présentées :

• Le Mode 1 (256QAM) est la configuration DVB-T2 pour la réception via une antenne râteau sur le toit car il permet d’obtenir des débits de données les plus élevés possibles (26,6 Mb/s) avec une bonne protection contre le bruit.
• Le Mode 2 offre une protection contre le bruit légèrement améliorée par rapport au Mode 1 avec une légère réduction du débit des données.
• Les Modes 3 et 4 sont conçus pour une réception à l’intérieur, le Mode 4 ayant un intervalle de garde plus grand. Bien que ces modes présentent une meilleure immunité au bruit, leur débit de données se trouve limité, ce qui rend l’acheminement de la UHDTV à des cadences de trames élevées très difficile (possibles avec 3840×2160 à 30 fps).

Toutefois, cette approche SFN a été validée par des essais en grandeur réelle sur le terrain dans la région de Séoul sur la base de la topologie de l’émetteur et de la puissance d’émission RF pour le DVB-T2.
La tête de réseau R&SAVHE100 achemine le flux de transport MPEG-2 vers tous les émetteurs situés dans le PNS. Ces émetteurs prennent en charge les entrées ASI et IP. Les horodatages de synchronisation sont inclus dans le flux T2-MI et le réseau d’émetteurs est synchronisé en utilisant la signalisation GPS 1PPS pour la référence de temps et le signal 10 MHz pour la référence de fréquence (fig. 6).
Coté émission, Rohde & Schwarz propose la génération d’émetteurs Tx9 : le R&STHU9 / R&STHV9 répondant à des exigences de forte puissance à refroidissement par liquide et le R&STMU9 / R&STMV9 pour des moyennes puissances et des applications à refroidissement par air.
La génération Tx9 offre le plus haut rendement de puissance du marché (jusqu’à 38% en mode Doherty, système de refroidissement compris). Quelques-unes des différentes catégories de puissance d’émission RF sont décrites dans le tableau 3 ci-contre.

Démodulation RF et décodage HEVC

La dernière partie de la transmission UHDTV intervient sur le site du client. Typiquement, le signal RF DVB T2 est capté par une antenne Yagi installée sur le toit et acheminé vers le téléviseur UHD via un câble 75 Ω. Le démodulateur RF et le décodeur HEVC sont implémentés, soit dans le téléviseur, soit dans un boîtier décodeur (set-top-box). Cependant, dans un environnement expérimental où les opérateurs de réseau souhaitent effectuer une analyse approfondie de la RF et de la bande de base du signal DVB-T2 acheminant le contenu UHDTV, Rohde & Schwarz propose l’analyseur TV R&S ETL. Celui-ci reçoit le signal RF DVB-T2 contenant le service UHDTV et le démodule jusqu’au niveau de la bande de base. Sous la forme d’un flux de transport MPEG-2, le signal démodulé est ensuite introduit dans le GMITBMM-810 par l’intermédiaire de l’interface ASI. Le GMITBMM-810 est une solution basée sur un serveur pour la surveillance et la visualisation des services de diffusion vidéo et audio.
Il est capable de décoder le service UHD HEVC et d’acheminer le signal via les connexions Display Port ou HDMI vers un écran de télévision ou un projecteur 4K (fig. 7). Cette unité prend en charge le décodage simultané d’un maximum de quatre flux HEVC en résolution 4K.

Conclusion

Avec les prochains grands événements sportifs et l’augmentation constante de la dimension des écrans TV, la diffusion des contenus UHD 4K devient une réalité.
L’accroissement de la résolution à la fois spatiale et temporelle confronte les diffuseurs à de nouveaux défis étant donné qu’une utilisation et un traitement de débits de données beaucoup plus élevés sont alors nécessaires.
L’acheminement du contenu UHDTV devient encore plus difficile lorsque ces données doivent être transformées puis transmises sur des réseaux terrestres en raison des limites de capacité du canal.
Dans ce livret blanc, une solution UHD 4K de bout en bout utilisant des produits de Rohde & Schwarz a été démontrée à partir de la capture du contenu 4K jusqu’à son acheminement vers les foyers par l’intermédiaire d’un réseau SFN DVB-T2. Cet ouvrage est basé sur un cas de scénarios de test réel reflétant les exigences techniques des diffuseurs coréens les plus importants.

Web Design MymensinghPremium WordPress ThemesWeb Development

test news

13 septembre 201613 septembre 2016
Testimonials

TG: TESTIMONIAL WIDGET

Share the testimonials & reviews that others are talking about, beautifully with this widget. This will help in adding more value to your site.