Kompresja Statycznego Obrazu 138

Total Page:16

File Type:pdf, Size:1020Kb

Kompresja Statycznego Obrazu 138 Damian Karwowski Zrozumieć Kompresję Obrazu Podstawy Technik Kodowania Stratnego oraz Bezstratnego Obrazów Wydanie Pierwsze, wersja 1.2 Poznań 2019r. ISBN 978-83-953420-0-4 9 788395 342004 © Damian Karwowski – „Zrozumieć Kompresję Obrazu” © Copyright by DAMIAN KARWOWSKI. All rights reserved. Książka jest chroniona prawem autorskim i prawami pokrewnymi. Egzemplarz książki został zdeponowany w Kancelarii Notarialnej. Książka jest dostępna pod adresem: www.zrozumieckompresje.pl ISBN 978-83-953420-0-4 Projekt okładki książki oraz strona internetowa zostały wykonane przez Marka Piskulskiego. Serdecznie dziękuję za profesjonalną pracę Obraz „Miś Panda”, który jest częścią okładki, namalowała na płótnie Natalka Karwowska. Natalko, dziękuję Ci za Twój wysiłek Autor książki dołożył ogromnych starań, żeby zamieszczone w niej informacje były prawdziwe i rzetelnie przedstawione. Korzystając z książki Czytelnik robi to jednak wyłącznie na własną odpowiedzialność. Tym samym autor nie odpowiada za jakiekolwiek szkody, będące następstwem wykorzystania zawartej w książce wiedzy. Autor książki Dr inż. Damian Karwowski. Absolwent Politechniki Poznańskiej. Uzyskał tytuł zawodowy magistra inżyniera oraz stopień doktora nauk technicznych na Politechnice Poznańskiej, odpowiednio w latach 2003 i 2008. Obecnie pracownik naukowo-dydaktyczny na wyżej wymienionej uczelni. Od roku 2003 zawodowo zajmuje się kompresją obrazu. Autor ponad 50 publikacji naukowych o tematyce kompresji i przetwarzania obrazów. Brał udział w licznych projektach naukowych dotyczących wydajnej reprezentacji multimedialnych danych. Dodatkowo członek wielu zespołów badawczych, które w tematyce kompresji obrazu i dźwięku realizowały prace badawczo-wdrożeniowe dla przemysłu. Jego zainteresowania obejmują kompresję danych, techniki kodowania entropijnego danych oraz realizację kodeków obrazu i dźwięku na procesorach x86 oraz DSP. 4 | S t r o n a © Damian Karwowski – „Zrozumieć Kompresję Obrazu” Spis treści Spis treści 5 “Słowo” wstępu 11 Rozdział 1 15 Obraz i jego reprezentacja przestrzenna 15 1.1. Wprowadzenie 15 1.2. Próbkowanie obrazu – podstawy podstaw 17 1.3. Kwantyzacja obrazu 20 1.3.1. Kwantyzacja danych – podstawowe informacje 20 1.3.2. Kwantowanie próbek obrazu monochromatycznego 22 1.4. Reprezentacje cyfrowego obrazu kolorowego 24 1.4.1. Krótkie wprowadzenie 24 1.4.2. Obraz kolorowy w przestrzeni RGB 25 1.4.3. Obraz kolorowy w przestrzeni RGB – ograniczenia reprezentacji barw 27 1.4.4. Przestrzeń RGB – odmiany i zastosowanie 29 1.4.5. Obraz kolorowy w przestrzeni YCBCR 31 1.4.6. Kompresja kolorowego obrazu – dlaczego właśnie w przestrzeni YCBCR? 33 1.4.7. Przestrzeń YCBCR i schematy próbkowania chrominancji 33 1.4.8. Schematy próbkowania chrominancji – jaki jest sens przyjętych oznaczeń liczbowych? 36 1.4.9. Powrót z reprezentacji YCBCR do przestrzeni RGB 37 1.5. Obraz ruchomy, czyli cyfrowa sekwencja wizyjna 37 1.6. Podsumowanie 39 Rozdział 2 41 Częstotliwościowa reprezentacja obrazu 41 2.1. Wprowadzenie 41 2.2. Obraz i jego reprezentacja częstotliwościowa – podstawy 42 2.2.1. Zmiany treści w kierunku poziomym, czyli „częstotliwość przestrzenna pozioma” 43 2.2.2. Zmiany treści w kierunku pionowym, czyli „częstotliwość przestrzenna pionowa” 45 2.2.3. Bardziej rzeczywisty przypadek, czyli zmiany w obu kierunkach naraz 46 2.3. Częstotliwościowa „zawartość” (reprezentacja) obrazu naturalnego 47 2.3.1. Obraz i jego widmo amplitudowe 47 2.3.2. Widmo fazowe obrazu 50 2.4. Reprezentacja „częstotliwościowa” obrazu w ujęciu matematycznym 51 2.5. Dyskretne przekształcenie Fouriera – dalszy komentarz 54 2.6. Praktyczne użycie dyskretnego przekształcenia Fouriera – istotny problem 56 2.7. Eliminacja problemu „skokowej” zmiany wartości sygnału na granicach cykli 57 2.8. DFT „nowego sygnału okresowego” – czyli w efekcie dyskretne przekształcenie kosinusowe (DCT) 59 2.8.1. DCT sygnału jednowymiarowego, czyli 1D-DCT 59 2.8.1.1. Wyprowadzenie matematyczne 59 2.8.1.2. „Wygląd” kosinusoid przekształcenia 1D-DCT 63 2.8.1.3. Ilustracja związku DCT z DFT 65 2.8.2. DCT sygnału dwuwymiarowego, czyli 2D-DCT 65 5 | S t r o n a © Damian Karwowski – „Zrozumieć Kompresję Obrazu” 2.8.3. Dalsza interpretacja oraz znaczenie 2D-DCT w praktyce kompresji obrazów 67 2.8.3.1. „Wygląd” kosinusoid przekształcenia 2D-DCT 67 2.8.3.2. Interpretacja rezultatu 2D-DCT raz jeszcze 68 2.8.3.3. Na czym polega „siła” 2D-DCT? 70 2.8.4. Inny sposób matematycznego opisu przekształcenia DCT 72 2.8.5. Dlaczego nie przekształcenie sinusowe zamiast kosinusowego? 75 2.8.6. Sposób użycia 2D-DCT w koderach obrazu 79 2.9. Inne stosowane przekształcenie – transformacja Walsha-Hadamarda 82 2.10. Przekształcenie „najlepsze z najlepszych”, czyli transformacja Karhunena-Loévego 84 2.11. Reprezentacja obrazu w dziedzinie częstotliwości – dlaczego warto? 85 2.12. Podsumowanie 89 Rozdział 3 91 Kodowanie entropijne 91 3.1. Wprowadzenie 91 3.2. Kodowanie o zmiennej długości słowa – VLC 93 3.2.1. Kodowanie Huffmana 93 3.2.1.1. Kodowanie Huffmana – szczegóły algorytmu podstawowego 93 3.2.1.2. Efektywność podstawowej wersji kodowania Huffmana 95 3.2.2. Blokowe kodowanie Huffmana 95 3.2.3. Efektywność przedstawionych technik kodowania Huffmana w praktyce kompresji danych multimedialnych – krótki komentarz 96 3.2.4. Dynamiczne kodowanie Huffmana 97 3.2.4.1. Opis ogólny 97 3.2.4.2. Opis szczegółowy – drzewo kodów Huffmana 98 3.2.4.3. Opis szczegółowy – uaktualnienie drzewa kodów Huffmana 98 3.2.5. „Uniwersalne” kodowanie o zmiennej długości słowa kodowego 104 3.2.5.1. Kodowanie unarne 105 3.2.5.2. Kodowanie Golomba 106 3.2.5.3. Kodowanie Rice’a (Golomba-Rice’a) 112 3.2.5.4. Kodowanie Exp-Golomba k-tego rzędu 112 3.3. Kodowanie arytmetyczne 116 3.3.1. Wprowadzenie 116 3.3.2. Kodowanie arytmetyczne – algorytm podstawowy 117 3.3.3. Kodowanie arytmetyczne – algorytm podstawowy w ujęciu matematycznym 118 3.3.4. Dekodowanie arytmetyczne danych – krótka dyskusja 120 3.3.5. Efektywność techniki kodowania arytmetycznego 120 3.3.6. Algorytm podstawowy kodowania arytmetycznego – dwa istotne problemy 121 3.3.7. „Prawie” praktyczna realizacja kodowania arytmetycznego 122 3.3.8. Problem przekroczenia precyzji rejestrów w kodeku 124 3.3.9. „Całkowitoliczbowa” realizacja kodowania arytmetycznego – końcowy algorytm 126 3.3.10. „Całkowitoliczbowa” realizacja dekodowania arytmetycznego 126 3.3.11. Algorytm kodowania arytmetycznego w zapisie dwójkowym 128 3.3.12. Szybkie realizacje kodowania arytmetycznego 128 3.3.13. Modelowanie statystyczne danych w kodowaniu arytmetycznym – krótka dygresja 129 3.4. Efektywność kompresji oraz złożoność współczesnych technik kodowania entropijnego 131 3.4.1. Efektywność kompresji algorytmów CABAC i UVLC 131 6 | S t r o n a © Damian Karwowski – „Zrozumieć Kompresję Obrazu” 3.4.2. Złożoność obliczeniowa technik CABAC i UVLC 133 3.5. Podsumowanie 134 Rozdział 4 135 Wybrane techniki kompresji obrazu 135 4.1. Wprowadzenie 135 Część I – Kompresja statycznego obrazu 138 4.2. Obraz kolorowy w przestrzeni YCBCR – czyli wstęp do kompresji 138 4.3. Statystyczna nadmiarowość próbek obrazu – prosty sposób jej redukcji 140 4.4. Przewidywanie danych obrazu jako sposób na poprawę wyników kompresji 142 4.5. Przewidywanie wartości próbek obrazu – jak to się robi w praktyce? 145 4.6. Nadmiarowość przestrzenna w obrazie – inny sposób jej redukcji 152 4.7. Jeszcze lepsze rozwiązanie, czyli łączne użycie metody przewidywania wartości próbek z opisem wyniku funkcjami kosinusoidalnymi 154 4.8. Usunięcie części informacji o obrazie jako sposób na istotne zwiększenie stopnia kompresji danych 157 4.9. Kompresja obrazu w dziedzinie częstotliwości – furtka do wydajnej realizacji idei kodowania stratnego 159 4.10. Praktyczna realizacja techniki kodowania transformatowego 163 4.10.1. Kodowanie transformatowe w bardzo prostym wydaniu 163 4.10.1.1. Podział obrazu na małe fragmenty (bloki) 164 4.10.1.2. Reprezentacja treści bloków w dziedzinie częstotliwości 165 4.10.1.3. Kwantyzacja składowych kosinusoidalnych 167 4.10.1.4. Szeregowanie skwantowanych kosinusów 171 4.10.1.5. Kodowanie skwantowanych amplitud kosinusów 172 4.10.1.6. Kodowanie entropijne danych 174 4.10.1.7. Wydajność prostych metod kompresji transformatowej 174 4.10.1.7.1. Efektywność kompresji 174 4.10.1.7.2. Złożoność obliczeniowa 178 4.10.2. Kodowanie transformatowe w wydaniu zaawansowanym 179 4.10.2.1. Przewidywanie treści obrazu 181 4.10.2.2. Kodowanie transformatowe błędu przewidywania treści bloków 186 4.10.2.3. Kodowanie skwantowanych próbek widma 187 4.10.2.4. Filtracja obrazu poprawiająca jakość 188 4.10.2.4.1. Efekt blokowy i sposób jego redukcji 189 4.10.2.4.2. Efekt dzwonienia i sposób jego redukcji 193 4.10.2.5. Wydajność zaawansowanych technik kompresji transformatowej 195 4.10.2.5.1. Efektywność kompresji 195 4.10.2.5.2. Złożoność obliczeniowa 199 Część II – Kompresja ruchomego obrazu 200 4.11. Kodowanie ruchomego obrazu – najprostsze podejście 200 4.12. Nadmiarowość czasowa sekwencji – cenna wskazówka dla jeszcze wydajniejszej kompresji 200 4.13. Jak wydajnie przewidywać obrazy sceny, która zmienia się w czasie? 202 4.14. Estymacja ruchu w ujęciu matematycznym 204 4.15. Jaka jest skuteczność międzyobrazowej, jednokierunkowej predykcji treści? 204 4.16. Międzyobrazowa predykcja treści – przewidywanie nie tylko z przeszłości, ale i przyszłości 207 4.17. Predykcja międzyobrazowa jedno- i dwukierunkowa. Która jest lepsza? 209 7 | S t r o n a © Damian Karwowski – „Zrozumieć Kompresję Obrazu” 4.18. Sposób na dodatkowe zwiększenie dokładności metody – estymacja ruchu z ułamkową dokładnością
Recommended publications
  • PDF/A for Scanned Documents
    Webinar www.pdfa.org PDF/A for Scanned Documents Paper Becomes Digital Mark McKinney, LuraTech, Inc., President Armin Ortmann, LuraTech, CTO Mark McKinney President, LuraTech, Inc. © 2009 PDF/A Competence Center, www.pdfa.org Existing Solutions for Scanned Documents www.pdfa.org Black & White: TIFF G4 Color: Mostly JPEG, but sometimes PNG, BMP and other raster graphics formats Often special version formats like “JPEG in TIFF” Disadvantages: Several formats already for scanned documents Even more formats for born digital documents Loss of information, e.g. with TIFF G4 Bad image quality and huge file size, e.g. with JPEG No standardized metadata spread over all formats Not full text searchable (OCR) inside of files Black/White: Color: - TIFF FAX G4 - TIFF - TIFF LZW Mark McKinney - JPEG President, LuraTech, Inc. - PDF 2 Existing Solutions for Scanned Documents www.pdfa.org Bad image quality vs. file size TIFF/BMP JPEG TIFF G4 23.8 MB 180 kB 60 kB Mark McKinney President, LuraTech, Inc. 3 Alternative Solution: PDF www.pdfa.org PDF is already widely used to: Unify file formats Image à PDF “Office” Documents à PDF Other sources à PDF Create full-text searchable files Apply modern compression technology (e.g. the JPEG2000 file formats family) Harmonize metadata Conclusion: PDF avoids the disadvantages of the legacy formats “So if you are already using PDF as archival Mark McKinney format, why not use PDF/A with its many President, LuraTech, Inc. advantages?” 4 PDF/A www.pdfa.org What is PDF/A? • ISO 19005-1, Document Management • Electronic document file format for long-term preservation Goals of PDF/A: • Maintain static visual representation of documents • Consistent handing of Metadata • Option to maintain structure and semantic meaning of content • Transparency to guarantee access • Limit the number of restrictions Mark McKinney President, LuraTech, Inc.
    [Show full text]
  • Versatile Video Coding – the Next-Generation Video Standard of the Joint Video Experts Team
    31.07.2018 Versatile Video Coding – The Next-Generation Video Standard of the Joint Video Experts Team Mile High Video Workshop, Denver July 31, 2018 Gary J. Sullivan, JVET co-chair Acknowledgement: Presentation prepared with Jens-Rainer Ohm and Mathias Wien, Institute of Communication Engineering, RWTH Aachen University 1. Introduction Versatile Video Coding – The Next-Generation Video Standard of the Joint Video Experts Team 1 31.07.2018 Video coding standardization organisations • ISO/IEC MPEG = “Moving Picture Experts Group” (ISO/IEC JTC 1/SC 29/WG 11 = International Standardization Organization and International Electrotechnical Commission, Joint Technical Committee 1, Subcommittee 29, Working Group 11) • ITU-T VCEG = “Video Coding Experts Group” (ITU-T SG16/Q6 = International Telecommunications Union – Telecommunications Standardization Sector (ITU-T, a United Nations Organization, formerly CCITT), Study Group 16, Working Party 3, Question 6) • JVT = “Joint Video Team” collaborative team of MPEG & VCEG, responsible for developing AVC (discontinued in 2009) • JCT-VC = “Joint Collaborative Team on Video Coding” team of MPEG & VCEG , responsible for developing HEVC (established January 2010) • JVET = “Joint Video Experts Team” responsible for developing VVC (established Oct. 2015) – previously called “Joint Video Exploration Team” 3 Versatile Video Coding – The Next-Generation Video Standard of the Joint Video Experts Team Gary Sullivan | Jens-Rainer Ohm | Mathias Wien | July 31, 2018 History of international video coding standardization
    [Show full text]
  • Overview of Technologies for Immersive Visual Experiences: Capture, Processing, Compression, Standardization and Display
    Overview of technologies for immersive visual experiences: capture, processing, compression, standardization and display Marek Domański Poznań University of Technology Chair of Multimedia Telecommunications and Microelectronics Poznań, Poland 1 Immersive visual experiences • Arbitrary direction of viewing System : 3DoF • Arbitrary location of viewer - virtual navigation - free-viewpoint television • Both System : 6DoF Virtual viewer 2 Immersive video content Computer-generated Natural content Multiple camera around a scene also depth cameras, light-field cameras Camera(s) located in a center of a scene 360-degree cameras Mixed e.g.: wearable cameras 3 Video capture Common technical problems • Synchronization of cameras Camera hardware needs to enable synchronization Shutter release error < Exposition interval • Frame rate High frame rate needed – Head Mounted Devices 4 Common task for immersive video capture: Calibration Camera parameter estimation: • Intrinsic – the parameters of individual cameras – remain unchanged by camera motion • Extrinsic – related to camera locations in real word – do change by camera motion (even slight !) Out of scope of standardization • Improved methods developed 5 Depth estimation • By video analysis – from at least 2 video sequences – Computationally heavy – Huge progress recently • By depth cameras – diverse products – Infrared illuminate of the scene – Limited resolution mostly Out of scope of standardization 6 MPEG Test video sequences • Large collection of video sequences with depth information
    [Show full text]
  • Versatile Video Coding (VVC)
    Versatile Video Coding (VVC) on the final stretch Benjamin Bross Fraunhofer Heinrich Hertz Institute, Berlin ITU Workshop on “The future of media” © Geneva, Switzerland, 8 October 2019 Versatile Video Coding (VVC) Joint ITU-T (VCEG) and ISO/IEC (MPEG) project Coding Efficiency Versatility 50% over H.265/HEVC Screen content HD / UHD / 8K resolutions Adaptive resolution change 10bit / HDR Independent sub-pictures 2 VVC – Coding Efficiency History of Video Coding Standards H.261 JPEG H.265 / H.264 / H.262 / (1991) (1990) PSNR MPEG-HEVC MPEG-4 AVC MPEG-2 (dB) (2013) (2003) (1995) 40 38 Bit-rate Reduction: 50% 35 36 34 32 30 28 0 100 200 300 bit rate (kbit/s) 3 VVC – Coding Efficiency History of Video Coding Standards H.261 JPEG H.265 / H.264 / H.262 / (1991) (1990) PSNR MPEG-HEVC MPEG-4 AVC MPEG-2 (dB) (2013) (2003) (1995) 40 38 36 Do we need more efficient video coding? 34 32 30 28 0 100 200 300 bit rate (kbit/s) 4 VVC – Coding Efficiency Jevons Paradox "The efficiency with which a resource is used tends to increase (rather than decrease) the rate of consumption of that resource." 5 VVC – Coding Efficiency Target for the final VVC standard H.262 / H.261 JPEG H.??? / H.265 / H.264 / MPEG-2 (1991) (1990) PSNR MPEG-VVC MPEG-HEVC MPEG-4 AVC (dB) (2013) (2003) (1995) 40 38 36 35 Bit-rate Reduction Target: 50% 34 32 30 28 0 100 200 300 bit rate (kbit/s) 6 VVC – Timeline 2015 Oct. – Exploration Phase • Joint Video Exploration Team (JVET) of ITU-T VCEG and ISO/IEC MPEG established October ‘15 in Geneva • Joint Video Exploration Model (JEM) as software playground to explore new coding tools • 34% bitrate savings for JEM relative to HEVC provided evidence to start a new joint standardization activity with a… 2017 Oct.
    [Show full text]
  • Chapter 9 Image Compression Standards
    Fundamentals of Multimedia, Chapter 9 Chapter 9 Image Compression Standards 9.1 The JPEG Standard 9.2 The JPEG2000 Standard 9.3 The JPEG-LS Standard 9.4 Bi-level Image Compression Standards 9.5 Further Exploration 1 Li & Drew c Prentice Hall 2003 ! Fundamentals of Multimedia, Chapter 9 9.1 The JPEG Standard JPEG is an image compression standard that was developed • by the “Joint Photographic Experts Group”. JPEG was for- mally accepted as an international standard in 1992. JPEG is a lossy image compression method. It employs a • transform coding method using the DCT (Discrete Cosine Transform). An image is a function of i and j (or conventionally x and y) • in the spatial domain. The 2D DCT is used as one step in JPEG in order to yield a frequency response which is a function F (u, v) in the spatial frequency domain, indexed by two integers u and v. 2 Li & Drew c Prentice Hall 2003 ! Fundamentals of Multimedia, Chapter 9 Observations for JPEG Image Compression The effectiveness of the DCT transform coding method in • JPEG relies on 3 major observations: Observation 1: Useful image contents change relatively slowly across the image, i.e., it is unusual for intensity values to vary widely several times in a small area, for example, within an 8 8 × image block. much of the information in an image is repeated, hence “spa- • tial redundancy”. 3 Li & Drew c Prentice Hall 2003 ! Fundamentals of Multimedia, Chapter 9 Observations for JPEG Image Compression (cont’d) Observation 2: Psychophysical experiments suggest that hu- mans are much less likely to notice the loss of very high spatial frequency components than the loss of lower frequency compo- nents.
    [Show full text]
  • Electronics Engineering
    INTERNATIONAL JOURNAL OF ELECTRONICS ENGINEERING ISSN : 0973-7383 Volume 11 • Number 1 • 2019 Study of Different Image File formats for Raster images Prof. S. S. Thakare1, Prof. Dr. S. N. Kale2 1Assistant professor, GCOEA, Amravati, India, [email protected] 2Assistant professor, SGBAU,Amaravti,India, [email protected] Abstract: In the current digital world, the usage of images are very high. The development of multimedia and digital imaging requires very large disk space for storage and very long bandwidth of network for transmission. As these two are relatively expensive, Image compression is required to represent a digital image yielding compact representation of image without affecting its essential information with reducing transmission time. This paper attempts compression in some of the image representation formats and the experimental results for some image file format are also shown. Keywords: ImageFileFormats, JPEG, PNG, TIFF, BITMAP, GIF,CompressionTechniques,Compressed image processing. 1. INTRODUCTION Digital images generally occupy a large amount of storage space and therefore take longer time to transmit and download (Sayood 2012;Salomonetal 2010;Miano 1999). To reduce this time image compression is necessary. Image compression is a technique used to identify internal data redundancy and then develop a compact representation that takes up less storage space than the original image size and the reverse process is called decompression (Javed 2016; Kia 1997). There are two types of image compression (Gonzalez and Woods 2009). 1. Lossy image compression 2. Lossless image compression In case of lossy compression techniques, it removes some part of data, so it is used when a perfect consistency with the original data is not necessary after decompression.
    [Show full text]
  • JPEG and JPEG 2000
    JPEG and JPEG 2000 Past, present, and future Richard Clark Elysium Ltd, Crowborough, UK [email protected] Planned presentation Brief introduction JPEG – 25 years of standards… Shortfalls and issues Why JPEG 2000? JPEG 2000 – imaging architecture JPEG 2000 – what it is (should be!) Current activities New and continuing work… +44 1892 667411 - [email protected] Introductions Richard Clark – Working in technical standardisation since early 70’s – Fax, email, character coding (8859-1 is basis of HTML), image coding, multimedia – Elysium, set up in ’91 as SME innovator on the Web – Currently looks after JPEG web site, historical archive, some PR, some standards as editor (extensions to JPEG, JPEG-LS, MIME type RFC and software reference for JPEG 2000), HD Photo in JPEG, and the UK MPEG and JPEG committees – Plus some work that is actually funded……. +44 1892 667411 - [email protected] Elysium in Europe ACTS project – SPEAR – advanced JPEG tools ESPRIT project – Eurostill – consensus building on JPEG 2000 IST – Migrator 2000 – tool migration and feature exploitation of JPEG 2000 – 2KAN – JPEG 2000 advanced networking Plus some other involvement through CEN in cultural heritage and medical imaging, Interreg and others +44 1892 667411 - [email protected] 25 years of standards JPEG – Joint Photographic Experts Group, joint venture between ISO and CCITT (now ITU-T) Evolved from photo-videotex, character coding First meeting March 83 – JPEG proper started in July 86. 42nd meeting in Lausanne, next week… Attendance through national
    [Show full text]
  • Download Recent and Forthcoming Books from This Series
    River Publishers Book Catalogue Series in Signal, Image and Speech Processing River Publishers Series in Signal, Image and Speech Processing Digital Video Coding for Next Generation Multimedia H.264, HEVC, VVC, EVC Video Compression Authors: Shreyanka Subbarayappa, Ramaiah University of Applied Sciences, India K. R. Rao, University of Texas at Arlington, Texas, U.S.A Humberto Ochoa Domínguez, Universidad Autónoma de Ciudad Juárez, México ISBN: 9788770224215 e-ISBN: 9788770224208 Available From: January 2022 Price: € 98.50 Description: Innovations in communication systems and technology are growing tremendously. In multimedia communication systems, technology has transformed from analog television to digital television in the video domain. Mobile phones are known as smart phones as they are used, not only to make voice calls, but also used to send emails, video calls, transfer data, GPS, taking pictures and so on. Due to the widespread user applications, compression of data becomes important to save system resources. Video occupies 75% of data transfer traffic and is expected to cover 80% by the end of 2021. Video is also continuously increasing in file size from standard definition (SD) to ultra-high definition (UHD - 4K, 8K and 12K) video. More data or size in video requires higher transmission bandwidth or more disk space to store which can be slow and expensive. This drives the improvements in compression and hence the demand for a new codec. Several algorithms are used to achieve compression of Image or Video files, these algorithms working together are classified in terms of codecs and we use different codecs for different applications. Advances in video compression technology reduce the utilization of system resources, like processing time, memory use, network bandwidth and battery life.
    [Show full text]
  • Analysis and Comparison of Compression Algorithm for Light Field Mask
    International Journal of Applied Engineering Research ISSN 0973-4562 Volume 12, Number 12 (2017) pp. 3553-3556 © Research India Publications. http://www.ripublication.com Analysis and Comparison of Compression Algorithm for Light Field Mask Hyunji Cho1 and Hoon Yoo2* 1Department of Computer Science, SangMyung University, Korea. 2Associate Professor, Department of Media Software SangMyung University, Korea. *Corresponding author Abstract This paper describes comparison and analysis of state-of-the- art lossless image compression algorithms for light field mask data that are very useful in transmitting and refocusing the light field images. Recently, light field cameras have received wide attention in that they provide 3D information. Also, there has been a wide interest in studying the light field data compression due to a huge light field data. However, most of existing light field compression methods ignore the mask information which is one of important features of light field images. In this paper, we reports compression algorithms and further use this to achieve binary image compression by realizing analysis and comparison of the standard compression methods such as JBIG, JBIG 2 and PNG algorithm. The results seem to confirm that the PNG method for text data compression provides better results than the state-of-the-art methods of JBIG and JBIG2 for binary image compression. Keywords: Lossless compression, Image compression, Light Figure. 2. Basic architecture from raw images to RGB and filed compression, Plenoptic coding mask images INTRODUCTION The LF camera provides a raw image captured from photosensor with microlens, as depicted in Fig. 1. The raw Light field (LF) cameras, also referred to as plenoptic cameras, data consists of 10 bits per pixel precision in little-endian differ from regular cameras by providing 3D information of format.
    [Show full text]
  • PDF Image JBIG2 Compression and Decompression with JBIG2 Encoding and Decoding SDK Library | 1
    PDF image JBIG2 compression and decompression with JBIG2 encoding and decoding SDK library | 1 JBIG2 is an image compression standard for bi-level images developed by the Joint bi-level Image Expert Group. It is suitable for lossless compression and lossy compression. According to the group’s press release, in its lossless mode, JBIG2 usually generates files that are one- third to one-fifth the size of the fax group 4 and twice the size of JBIG, which was previously released by the group. The double-layer compression standard. JBIG2 was released as an international standard ITU in 2000. JBIG2 compression JBIG2 is an international standard for bi-level image compression. By segmenting the image into overlapping and/or non-overlapping areas of text, halftones and general content, compression techniques optimized for each content type are used: *Text area: The text area is composed of characters that are well suited for symbol-based encoding methods. Usually, each symbol will correspond to a character bitmap, and a sub-image represents a character or text. For each uppercase and lowercase character used on the front face, there is usually only one character bitmap (or sub-image) in the symbol dictionary. For example, the dictionary will have an “a” bitmap, an “A” bitmap, a “b” bitmap, and so on. VeryUtils.com PDF image JBIG2 compression and decompression with JBIG2 encoding and decoding SDK library | 1 PDF image JBIG2 compression and decompression with JBIG2 encoding and decoding SDK library | 2 *Halftone area: Halftone areas are similar to text areas because they consist of patterns arranged in a regular grid.
    [Show full text]
  • Lossless Image Compression
    Lossless Image Compression C.M. Liu Perceptual Signal Processing Lab College of Computer Science National Chiao-Tung University http://www.csie.nctu.edu.tw/~cmliu/Courses/Compression/ Office: EC538 (03)5731877 [email protected] Lossless JPEG (1992) 2 ITU Recommendation T.81 (09/92) Compression based on 8 predictive modes ( “selection values): 0 P(x) = x (no prediction) 1 P(x) = W 2 P(x) = N 3 P(x) = NW NW N 4 P(x) = W + N - NW 5 P(x) = W + ⎣(N-NW)/2⎦ W x 6 P(x) = N + ⎣(W-NW)/2⎦ 7 P(x) = ⎣(W + N)/2⎦ Sequence is then entropy-coded (Huffman/AC) Lossless JPEG (2) 3 Value 0 used for differential coding only in hierarchical mode Values 1, 2, 3 One-dimensional predictors Values 4, 5, 6, 7 Two-dimensional Value 1 (W) Used in the first line of samples At the beginning of each restart Selected predictor used for the other lines Value 2 (N) Used at the start of each line, except first P-1 Default predictor value: 2 At the start of first line Beginning of each restart Lossless JPEG Performance 4 JPEG prediction mode comparisons JPEG vs. GIF vs. PNG Context-Adaptive Lossless Image Compression [Wu 95/96] 5 Two modes: gray-scale & bi-level We are skipping the lossy scheme for now Basic ideas find the best context from the info available to encoder/decoder estimate the presence/lack of horizontal/vertical features CALIC: Initial Prediction 6 if dh−dv > 80 // sharp horizontal edge X* = N else if dv−dh > 80 // sharp vertical edge X* = W else { // assume smoothness first X* = (N+W)/2 +(NE−NW)/4 if dh−dv > 32 // horizontal edge X* = (X*+N)/2
    [Show full text]
  • Contribuições À Codificação Eficiente De Imagem E Vídeo Utilizando Recorrência De Padrões Multiescala
    CONTRIBUIÇÕES À CODIFICAÇÃO EFICIENTE DE IMAGEM E VÍDEO UTILIZANDO RECORRÊNCIA DE PADRÕES MULTIESCALA Nelson Carreira Francisco Tese de Doutorado apresentada ao Programa de Pós-graduação em Engenharia Elétrica, COPPE, da Universidade Federal do Rio de Janeiro, como parte dos requisitos necessários à obtenção do título de Doutor em Engenharia Elétrica. Orientadores: Eduardo Antônio Barros da Silva Nuno Miguel Morais Rodrigues Rio de Janeiro Novembro de 2012 CONTRIBUIÇÕES À CODIFICAÇÃO EFICIENTE DE IMAGEM E VÍDEO UTILIZANDO RECORRÊNCIA DE PADRÕES MULTIESCALA Nelson Carreira Francisco TESE SUBMETIDA AO CORPO DOCENTE DO INSTITUTO ALBERTO LUIZ COIMBRA DE PÓS-GRADUAÇÃO E PESQUISA DE ENGENHARIA (COPPE) DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE DOUTOR EM CIÊNCIAS EM ENGENHARIA ELÉTRICA. Examinada por: Prof. Eduardo Antônio Barros da Silva, Ph.D. Prof. Nuno Miguel Morais Rodrigues, Ph.D Prof. Sérgio Lima Netto, Ph.D. Prof. José Gabriel Rodriguez Carneiro Gomes, Ph.D. Prof. Ricardo Lopes de Queiroz, Ph.D Prof. Carla Liberal Pagliari, Ph.D RIO DE JANEIRO, RJ – BRASIL NOVEMBRO DE 2012 Francisco, Nelson Carreira Contribuições à Codificação Eficiente de Imagem e Vídeo Utilizando Recorrência de Padrões Multiescala/Nelson Carreira Francisco. – Rio de Janeiro: UFRJ/COPPE, 2012. XXII, 270 p.: il.; 29, 7cm. Orientadores: Eduardo Antônio Barros da Silva Nuno Miguel Morais Rodrigues Tese (doutorado) – UFRJ/COPPE/Programa de Engenharia Elétrica, 2012. Referências Bibliográficas: p. 257 – 270. 1. Casamento de Padrões Multiescalas. 2. Compressão de imagens estáticas. 3. Compressão de Documentos Compostos. 4. Compressão de Vídeo. 5. Filtragem de Redução de Efeito de Bloco. I. da Silva, Eduardo Antônio Barros et al.
    [Show full text]