000765565 001__ 765565 000765565 005__ 20231017144231.0 000765565 0247_ $$2HBZ$$aHT020166910 000765565 0247_ $$2Laufende Nummer$$a38497 000765565 0247_ $$2datacite_doi$$a10.18154/RWTH-2019-07494 000765565 037__ $$aRWTH-2019-07494 000765565 041__ $$aEnglish 000765565 082__ $$a621.3 000765565 1001_ $$0P:(DE-588)1193257700$$aThakur, Uday Singh$$b0$$urwth 000765565 245__ $$aPerceptual video coding using steerable pyramids$$cvorgelegt von M.Sc. Uday Singh Thakur$$honline 000765565 260__ $$aAachen$$c2018 000765565 260__ $$c2019 000765565 300__ $$a1 Online-Ressource (xiv, 98 Seiten) : Illustrationen, Diagramme 000765565 3367_ $$02$$2EndNote$$aThesis 000765565 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd 000765565 3367_ $$2BibTeX$$aPHDTHESIS 000765565 3367_ $$2DRIVER$$adoctoralThesis 000765565 3367_ $$2DataCite$$aOutput Types/Dissertation 000765565 3367_ $$2ORCID$$aDISSERTATION 000765565 502__ $$aDissertation, Rheinisch-Westfälische Technische Hochschule Aachen, 2018$$bDissertation$$cRheinisch-Westfälische Technische Hochschule Aachen$$d2018$$gFak06$$o2018-09-04 000765565 500__ $$aVeröffentlicht auf dem Publikationsserver der RWTH Aachen University 2019 000765565 5203_ $$aIm Rahmen dieser Arbeit konzentrieren wir uns hauptsächlich auf die Entwicklung von Codierungswerkzeugen für statische und dynamische Texturen. Sowohl statische als auch dynamische Texturen stellen eine Herausforderung für Videocodecs der aktuellen Generation dar. Statische Texturen zeichnen sich durch hohe räumliche Variationen aus, die zufällig über den strukturierten Regionen eines Bildes verteilt sind. Bei niedrigen Bitraten zeigen solche Inhalte oft hohe Block- und Unschärfeartefakte im Vergleich zu nicht texturierten Inhalten. Als mögliche Lösung dieses Problem wird vorgeschlagen, auf der Decoderseite die Textursynthese auf Basis der Steerable-Pyramid-Decomposition zur Erzeugung künstlicher Texturen mit codierten Parametern einzusetzen. Die Ergebnisse dieser Arbeit belegen, dass bei niedrigen Bitraten eine wesentlich bessere Bildqualität im Vergleich zu HEVC erreichbar ist. Dynamische Texturen lassen sich durch komplexe Bewegungsmuster charakterisieren, z.B. Wellen, sich im Wind bewegende Blätter usw. Aufgrund der hohen Bewegungsdynamik in solchen Inhalten findet die Bewegungskompensation oft keinen guten Prädiktor, so dass B-Bilder teuer zu codieren sind. Bei niedrigen Bitraten werden in den B-Bildern häufig starke Block- und Unschärfeartefakte beobachtet. In unserer Lösung für die Codierung dynamischer Texturen zielen wir auf die Bilder ab, die am anfälligsten für diese Artefakte sind (z.B. Bilder, die in einem hierarchischen Codierverfahren zuletzt codiert werden) und codieren diese Bilder mit reduzierter Auflösung. Auf der Decoderseite werden diese Bilder mit Hochfrequenzsynthese unter Verwendung von Informationen aus benachbarten Bildern in voller Auflösung hochgetastet. Die Ergebnisse liefern einen konkreten Beweis dafür, dass unser Modell das Referenzverfahren JEM bei gleicher Bitrate übertrifft, da auch die Wahrnehmungsqualität beim Betrachten dynamischer Texturen in den meisten Fällen besser ist.$$lger 000765565 520__ $$aIn the context of this thesis we are mainly focused on developing coding tools for static and dynamic textures. Both static and dynamic textures are challenging to code for the current generation video codecs. Former is characterized with high amount of spatial variations which are randomly distributed over the textured region. At low bitrates such a content often shows relatively higher blocking and blurring artefacts as compared to a non-textured content. As a proposed solution to this problem, texture synthesis based on steerable pyramids is used at the decoder side for generating artificial textures using coded parameters. The results provided in this thesis prove that a much better visual quality is achievable at low bitrates when compared to the HEVC. Dynamic textures are characterized with complex motion patterns e.g. water waves, leaves swirling in the wind etc. Due to highly dynamic nature of the motion in such a content, motion compensation often fails to find a good predictor and as a result B-pictures are expensive to code. Under low bit-rate conditions, heavy blocking and blurring artefacts are often observed in the B-pictures. In our proposed solution for the dynamic textures we target those pictures that are most susceptible to these artefacts (i.e. pictures corresponding to two highest temporalids) and code these pictures in a reduced resolution format. At the decoder side these pictures are up-sampled with high-frequency synthesis using information from the neighboring full resolution pictures. The results provide a concrete evidence that our model outperforms JEM at the same rate as our overall perceptual quality is better in majority cases when viewing dynamic textures.$$leng 000765565 588__ $$aDataset connected to Lobid/HBZ 000765565 591__ $$aGermany 000765565 653_7 $$aHEVC 000765565 653_7 $$aperceptual coding 000765565 653_7 $$asteerable pyramids 000765565 7001_ $$0P:(DE-82)IDM03926$$aOhm, Jens-Rainer$$b1$$eThesis advisor$$urwth 000765565 7001_ $$aBull, David$$b2$$eThesis advisor 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.pdf$$yOpenAccess 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565_source.zip$$yRestricted 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.gif?subformat=icon$$xicon$$yOpenAccess 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-1440$$xicon-1440$$yOpenAccess 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-180$$xicon-180$$yOpenAccess 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-640$$xicon-640$$yOpenAccess 000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-700$$xicon-700$$yOpenAccess 000765565 909CO $$ooai:publications.rwth-aachen.de:765565$$pdnbdelivery$$pdriver$$pVDB$$popen_access$$popenaire 000765565 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess 000765565 9141_ $$y2018 000765565 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-588)1193257700$$aRWTH Aachen$$b0$$kRWTH 000765565 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM03926$$aRWTH Aachen$$b1$$kRWTH 000765565 9201_ $$0I:(DE-82)613210_20140620$$k613210$$lLehrstuhl und Institut für Nachrichtentechnik$$x0 000765565 961__ $$c2019-09-17T11:17:51.214199$$x2019-08-15T17:43:13.898472$$z2019-09-17T11:17:51.214199 000765565 9801_ $$aFullTexts 000765565 980__ $$aI:(DE-82)613210_20140620 000765565 980__ $$aUNRESTRICTED 000765565 980__ $$aVDB 000765565 980__ $$aphd