Plongez dans l’univers innovant des tests HDR subjectifs et découvrez comment assurer des évaluations révolutionnaires. L’abstract et l’introduction vous offrent un aperçu captivant de cette démarche essentielle pour appréhender la qualité visuelle de manière inédite.
Abstract et Introduction
Les tests HDR subjectifs révolutionnaires sont essentiels pour garantir la qualité des contenus diffusés sur les écrans haute-définition. Avec la montée en puissance des affichages à large gamme dynamique (HDR) et des contenus associés, il est primordial de s’assurer que les vidéos diffusées respectent les normes de qualité requises. Cependant, évaluer la conformité de l’ensemble du processus de lecture HDR peut s’avérer complexe.
Les protocoles de test de conformité pour les environnements de visionnage subjectif des vidéos HDR sont en cours de développement par différents organismes, notamment le Video Quality Experts Group (VQEG), l’Union Internationale des Télécommunications (UIT) et l’Union Européenne de Radiodiffusion (EBU), pour les applications télévisuelles et de diffusion [3]–[6]. Malgré les efforts déployés par des chercheurs précédents pour adapter ces techniques aux études subjectives HDR [7]–[10], certaines questions restent en suspens.
Particulièrement, la configuration et la validation technique du processus de lecture ne sont pas toujours clairement exposées dans la littérature. Par conséquent, il manque actuellement un cadre d’évaluation de la qualité HDR qui puisse être facilement utilisé pour se conformer à ces normes.
Dans cet article, nous présentons un workflow de testing pour l’évaluation de la qualité HDR (Section III), comprenant trois éléments essentiels : a) la documentation du processus de lecture, b) les conversions de fichiers intermédiaires HDR, et c) l’environnement de test. Ces recommandations visent à garantir des tests HDR subjectifs révolutionnaires et à assurer une qualité optimale des contenus diffusés sur les écrans haute-définition.
Ce travail a été financé par la subvention DTIF EI n° DT-2019-0068 et par le centre de recherche ADAPT SFI.