h1

h2

h3

h4

h5
h6
000765565 001__ 765565
000765565 005__ 20231017144231.0
000765565 0247_ $$2HBZ$$aHT020166910
000765565 0247_ $$2Laufende Nummer$$a38497
000765565 0247_ $$2datacite_doi$$a10.18154/RWTH-2019-07494
000765565 037__ $$aRWTH-2019-07494
000765565 041__ $$aEnglish
000765565 082__ $$a621.3
000765565 1001_ $$0P:(DE-588)1193257700$$aThakur, Uday Singh$$b0$$urwth
000765565 245__ $$aPerceptual video coding using steerable pyramids$$cvorgelegt von M.Sc. Uday Singh Thakur$$honline
000765565 260__ $$aAachen$$c2018
000765565 260__ $$c2019
000765565 300__ $$a1 Online-Ressource (xiv, 98 Seiten) : Illustrationen, Diagramme
000765565 3367_ $$02$$2EndNote$$aThesis
000765565 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd
000765565 3367_ $$2BibTeX$$aPHDTHESIS
000765565 3367_ $$2DRIVER$$adoctoralThesis
000765565 3367_ $$2DataCite$$aOutput Types/Dissertation
000765565 3367_ $$2ORCID$$aDISSERTATION
000765565 502__ $$aDissertation, Rheinisch-Westfälische Technische Hochschule Aachen, 2018$$bDissertation$$cRheinisch-Westfälische Technische Hochschule Aachen$$d2018$$gFak06$$o2018-09-04
000765565 500__ $$aVeröffentlicht auf dem Publikationsserver der RWTH Aachen University 2019
000765565 5203_ $$aIm Rahmen dieser Arbeit konzentrieren wir uns hauptsächlich auf die Entwicklung von Codierungswerkzeugen für statische und dynamische Texturen. Sowohl statische als auch dynamische Texturen stellen eine Herausforderung für Videocodecs der aktuellen Generation dar. Statische Texturen zeichnen sich durch hohe räumliche Variationen aus, die zufällig über den strukturierten Regionen eines Bildes verteilt sind. Bei niedrigen Bitraten zeigen solche Inhalte oft hohe Block- und Unschärfeartefakte im Vergleich zu nicht texturierten Inhalten. Als mögliche Lösung dieses Problem wird vorgeschlagen, auf der Decoderseite die Textursynthese auf Basis der Steerable-Pyramid-Decomposition zur Erzeugung künstlicher Texturen mit codierten Parametern einzusetzen. Die Ergebnisse dieser Arbeit belegen, dass bei niedrigen Bitraten eine wesentlich bessere Bildqualität im Vergleich zu HEVC erreichbar ist. Dynamische Texturen lassen sich durch komplexe Bewegungsmuster charakterisieren, z.B. Wellen, sich im Wind bewegende Blätter usw. Aufgrund der hohen Bewegungsdynamik in solchen Inhalten findet die Bewegungskompensation oft keinen guten Prädiktor, so dass B-Bilder teuer zu codieren sind. Bei niedrigen Bitraten werden in den B-Bildern häufig starke Block- und Unschärfeartefakte beobachtet. In unserer Lösung für die Codierung dynamischer Texturen zielen wir auf die Bilder ab, die am anfälligsten für diese Artefakte sind (z.B. Bilder, die in einem hierarchischen Codierverfahren zuletzt codiert werden) und codieren diese Bilder mit reduzierter Auflösung. Auf der Decoderseite werden diese Bilder mit Hochfrequenzsynthese unter Verwendung von Informationen aus benachbarten Bildern in voller Auflösung hochgetastet. Die Ergebnisse liefern einen konkreten Beweis dafür, dass unser Modell das Referenzverfahren JEM bei gleicher Bitrate übertrifft, da auch die Wahrnehmungsqualität beim Betrachten dynamischer Texturen in den meisten Fällen besser ist.$$lger
000765565 520__ $$aIn the context of this thesis we are mainly focused on developing coding tools for static and dynamic textures. Both static and dynamic textures are challenging to code for the current generation video codecs. Former is characterized with high amount of spatial variations which are randomly distributed over the textured region. At low bitrates such a content often shows relatively higher blocking and blurring artefacts as compared to a non-textured content. As a proposed solution to this problem, texture synthesis based on steerable pyramids is used at the decoder side for generating artificial textures using coded parameters. The results provided in this thesis prove that a much better visual quality is achievable at low bitrates when compared to the HEVC. Dynamic textures are characterized with complex motion patterns e.g. water waves, leaves swirling in the wind etc. Due to highly dynamic nature of the motion in such a content, motion compensation often fails to find a good predictor and as a result B-pictures are expensive to code. Under low bit-rate conditions, heavy blocking and blurring artefacts are often observed in the B-pictures. In our proposed solution for the dynamic textures we target those pictures that are most susceptible to these artefacts (i.e. pictures corresponding to two highest temporalids) and code these pictures in a reduced resolution format. At the decoder side these pictures are up-sampled with high-frequency synthesis using information from the neighboring full resolution pictures. The results provide a concrete evidence that our model outperforms JEM at the same rate as our overall perceptual quality is better in majority cases when viewing dynamic textures.$$leng
000765565 588__ $$aDataset connected to Lobid/HBZ
000765565 591__ $$aGermany
000765565 653_7 $$aHEVC
000765565 653_7 $$aperceptual coding
000765565 653_7 $$asteerable pyramids
000765565 7001_ $$0P:(DE-82)IDM03926$$aOhm, Jens-Rainer$$b1$$eThesis advisor$$urwth
000765565 7001_ $$aBull, David$$b2$$eThesis advisor
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.pdf$$yOpenAccess
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565_source.zip$$yRestricted
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.gif?subformat=icon$$xicon$$yOpenAccess
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-1440$$xicon-1440$$yOpenAccess
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-180$$xicon-180$$yOpenAccess
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-640$$xicon-640$$yOpenAccess
000765565 8564_ $$uhttps://publications.rwth-aachen.de/record/765565/files/765565.jpg?subformat=icon-700$$xicon-700$$yOpenAccess
000765565 909CO $$ooai:publications.rwth-aachen.de:765565$$pdnbdelivery$$pdriver$$pVDB$$popen_access$$popenaire
000765565 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess
000765565 9141_ $$y2018
000765565 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-588)1193257700$$aRWTH Aachen$$b0$$kRWTH
000765565 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM03926$$aRWTH Aachen$$b1$$kRWTH
000765565 9201_ $$0I:(DE-82)613210_20140620$$k613210$$lLehrstuhl und Institut für Nachrichtentechnik$$x0
000765565 961__ $$c2019-09-17T11:17:51.214199$$x2019-08-15T17:43:13.898472$$z2019-09-17T11:17:51.214199
000765565 9801_ $$aFullTexts
000765565 980__ $$aI:(DE-82)613210_20140620
000765565 980__ $$aUNRESTRICTED
000765565 980__ $$aVDB
000765565 980__ $$aphd