<<

T.C. SELÇUK ÜNĠVERSĠTESĠ FEN BĠLĠMLERĠ ENSTĠTÜSÜ

SIKIġTIRILMIġ RASTER GÖRÜNTÜLERĠN FOTOGRAMETRĠK OTOMASYONDA KALĠTE VE DOĞRULUK ÜZERĠNDEKĠ ETKĠLERĠNĠN ARAġTIRILMASI

Ekrem UÇAR

DOKTORA TEZĠ

Harita Mühendisliği Anabilim Dalı

Nisan-2011 KONYA Her Hakkı Saklıdır

TEZ BĠLDĠRĠMĠ

Bu tezdeki bütün bilgilerin etik davranış ve akademik kurallar çerçevesinde elde edildiğini ve tez yazım kurallarına uygun olarak hazırlanan bu çalışmada bana ait olmayan her türlü ifade ve bilginin kaynağına eksiksiz atıf yapıldığını bildiririm.

DECLARATION PAGE

I hereby declare that all information in this document has been obtained and presented in accordance with academic rules and ethical conduct. I also declare that, as required by these rules and conduct, I have fully cited and referenced all material and results that are not original to this work.

İmza

Ekrem UÇAR

Tarih:

ÖZET

DOKTORA TEZĠ

SIKIġTIRILMIġ RASTER GÖRÜNTÜLERĠN FOTOGRAMETRĠK OTOMASYONDA KALĠTE VE DOĞRULUK ÜZERĠNDEKĠ ETKĠLERĠNĠN ARAġTIRILMASI

Ekrem UÇAR

Selçuk Üniversitesi Fen Bilimleri Enstitüsü Harita Mühendisliği Anabilim Dalı

DanıĢman: Prof.Dr. Ferruh YILDIZ

2011, 101 Sayfa

Jüri Prof.Dr. Ferruh YILDIZ Prof.Dr. F.Gönül TOZ Doç.Dr. Hakan KARABÖRK Doç.Dr. Murat YAKAR Y.Doç.Dr. Engin KOCAMAN

Sıkıştırılmış veriler veri depolama ve iletimi aşamasında sıklıkla kullanılmaktadır. Fazla sayıda görüntü kullanımını gerektiren fotogrametrik çalışmalarda kullanılan sıkıştırılmış görüntülerin, çalışmada elde edilcek doğruluğu ve görüntü kalitesini ne şekilde etkilediğinin belirlenmesi önem arzetmektedir. Bu çalışmada sayısal hava kamerası ile 1:20.000 ve 1:65.000 ölçekli, analog hava kamerası ile 1:26.000 ölçeğinde elde edimiş hava fotoğraflarının kullanılması ile fotogrametrik blok oluşturulmuştur. Mevcut görüntüler, JPEG2000 ve MrSID görüntü formatlarına 10:1, 20:1, 40:1 ve 80:1 sıkıştırma oranları kullanılarak sıkıştırılmıştır. Her blok için orijinal ve sıkıştırılmış görüntüler kullanılarak fotogrametrik triangülasyon işlemi gerçekleştirilmiştir. Fotogrametrik triangülasyon sonrası oluşturulan stereo modeler üzerinden belirlenen kontrol noktalarının üç boyutlu koordinat ölçmeleri tamamlanmıştır. Radyometrik bozulma miktarlarının tespit edilebilmesi amacıyla orijinal görüntüler ile sıkıştırılmış görüntüler arasındaki fark değerleri hesaplanmıştır. Bu değerler kullanılarak karesel ortalama hata, ortalama hata ve pik sinyal gürültü oranı değerleri elde edilmiştir. Genel olarak bakıldığında, aynı sıkıştırma oranında JPEG2000 görüntülerinin, MrSID görüntülerinden daha iyi geometrik ve radyometrik sonuçlar sağladığı belirlenmiştir.

Anahtar Kelimeler: Görüntü Sıkıştırma, Kayıpsız ve Kayıplı Sıkıştırma Teknikleri, Görüntü Sıkıştırmada Geometrik ve Radyometrik Doğruluk, JPEG2000 ve MrSID.

iv

ABSTRACT

Ph.D THESIS

EVALUATION OF QUALITY AND ACCURACY EFFECTS OF COMPRESSED RASTER IMAGES IN AUTOMATED PHOTOGRAMMETRY

Ekrem UÇAR

THE GRADUATE SCHOOL OF NATURAL AND APPLIED SCIENCE OF SELÇUK UNIVERSITY THE DEGREE OF DOCTOR OF PHILOSOPHY IN MAP ENGINEERING

Advisor: Prof.Dr. Ferruh YILDIZ

2011, 101 Pages

Jury Prof.Dr. Ferruh YILDIZ Prof.Dr. F.Gönül TOZ Doç.Dr. Hakan KARABÖRK Doç.Dr. Murat YAKAR Y.Doç.Dr. Engin KOCAMAN

Compressed data commonly used in data storage and transmission stage. It is very important to identify that how compressed images affect the image quality and accuracy in the photogrammetric applications in which lots of images must be handled. In this study photogrammetric blocks were prepared from 1:20.000 and 1:65.000 scaled digital aerial cameras and 1:26.000 scaled analogue aerial camera images. Images compressed into both JPEG2000 and MrSID image formats by 10:1, 20:1, 40:1 and 80:1 compression ratios. For each block photogrammetric triangulation process was done with original and compressed images. After triangulation process 3D coordinates of pre- defined check points measured in stereo models. In order to calculate the radiometric distortion, the difference of the values were calculated from the original and the compressed images. By using difference values mean error, mean square error and peak-signal-to-noise ratio values were calculated. In generally, for the same compression ratio JPEG2000 compressed images give better results than MrSID compressed images both in geometric and radiometric aspects.

Keywords: , Lossless and Techniques, Geometric and Radiometric Accuracy on Image Compression, JPEG2000 and MrSID.

v

ÖNSÖZ

Sıkıştırılmış görüntülerin fotogrametrik üretimdeki otomatik işlemler üzerindeki görüntü kalitesi, geometrik ve radyometrik doğruluk üzerindeki etkilerinin araştırılarak, kullanıcılara en uygun sıkıştırma format ve oranlarının sunulmaya çalışıldığı tez çalışmasında, danışmanlığımı üstlenerek, her aşamada engin bilgi, ulusal ve uluslararası deneyimleriyle beni yönlendiren, desteğini hiçbir zaman esirgemeyen sayın hocam Prof.Dr. Ferruh YILDIZ’a gönülden teşekkür ederim.

Tez çalışmasını değerli bilgileri ile yönlendirmeleri nedeniyle, Tez İzleme Komitesindeki sayın hocalarım Prof.Dr. Gönül TOZ (İstanbul Teknik Üniversitesi) ve Yrd.Doç.Dr. Engin KOCAMAN’a; bu seviyeye gelmemde çok büyük katkısı olan, çalışmamda kullanılan veri, yazılım ve donanımı sağlaması nedeniyle Harita Genel Komutanlığı’na ve personeline; çalışmalarım esnasında sebat göstermeleri nedeniyle, eşim Zeliha, kızım Simge ve oğlum Anıl’a en derin şükranlarımı sunarım.

Tez çalışmamda belirtilen teorik esasları, çalışma aşamalarını ve elde ettiğim sonuçları, fotogrametrik harita üretimi uygulamalarında kullanmasını arzuladığım bütün kullanıcılara ithaf ediyorum.

Ekrem UÇAR KONYA-2011

vi

ĠÇĠNDEKĠLER

ÖZET ...... iv

ABSTRACT ...... v

ÖNSÖZ ...... vi

ĠÇĠNDEKĠLER ...... vii

SĠMGELER VE KISALTMALAR ...... ix

1. GĠRĠġ ...... 1

2. KAYNAK ARAġTIRMASI ...... 4

2.1. Sıkıştırma Yöntemlerinin Karşılaştırılması Konusunda Yapılan Çalışmalar ...... 5 2.2. Sıkıştırılmış Görüntüler ile Yapılan Fotogrametrik Uygulama Çalışmaları ...... 8

3. TEORĠK ESASLAR ...... 13

3.1. Kayıpsız Sıkıştırma ...... 14 3.2. Kayıplı Sıkıştırma ...... 16 3.3. Sıkıştırma Algoritmaları ...... 16 3.3.1. Kayıpsız sıkıştırma algoritmaları ...... 17 3.3.2. Kayıplı sıkıştırma algoritmaları ...... 28 3.3.3. Niceleme (Quantization) ...... 34 3.3.4. Örnek sıkıştırma algoritmaları uygulamaları ...... 35 3.4. Görüntü Formatları ...... 36 3.4.1. TIFF (Tagged Image File Format) ...... 37 3.4.2. JPEG2000 ...... 38 3.4.3. MrSID (Multiresolution Seamless Image Database) ...... 40 3.4.4. JPEG ...... 41 3.4.5. ECW ...... 45 3.4.6. GIF (Graphics Interchange Format) ...... 46 3.4.7. PNG (Portable Network Graphics) ...... 46 3.4.8. BMP (Windows BitMap) ...... 47 3.5. Sıkıştırmadaki Performans Kriterleri ...... 48 3.6. Sıkıştırmadaki Distorsiyon Kriterleri ...... 49 3.7. Modelleme ve Kodlama ...... 53 3.8. Görüntü Eşleme ...... 54

4. ARAġTIRMA SONUÇLARI VE TARTIġMA ...... 56

4.1. Çalışma Bölgesi ve Kullanılan Veriler ...... 56 4.2. Çalışmada Kullanılan Sistemler ...... 61 4.2.1. Zeiss RMK TOP 15 analog hava kamerası ve Vexcel UltraCamX sayısal hava kamerası ...... 61 4.2.2. Match-AT fotogrametrik triangülasyon yazılımı ...... 63 4.2.3. DAT/EM Summit Evolution fotogrametrik değerlendirme yazılımı ...... 64

vii

4.3. Fotogrametrik Triangülasyon ...... 65 4.4. Doğruluk ve Kalite Üzerindeki Etkiler ...... 71 4.4.1. Geometrik bozulmalar ...... 71 4.4.2. Radyometrik bozulmalar ...... 76 4.5. Tartışma ...... 88

5. SONUÇLAR VE ÖNERĠLER ...... 90

KAYNAKLAR ...... 95

ÖZGEÇMĠġ ...... 100

viii

SĠMGELER VE KISALTMALAR

Kısaltmalar

AAC : Advanced Audio Coding; Geliştirilmiş Ses Kodlama ASCII : American Standard Code For Information Interchange BMP : Windows BitMap Dosya Formatı BWT : Burrows-Wheeler Transform; Burrows-Wheeler dönüşümü CALIC : Context-based Adaptive Lossless Image Coding; Kaynak Tabanlı Uyarlanabilir Kayıpsız Görüntü Kodlama CBS : Coğrafi Bilgi Sistemleri CMYK : Cyan-Magenta-Yellow-Black DCT : Discrete Cosine Transform; Ayrık Kosinüs Dönüşümü DEM : Digital Elevation Model; Sayısal Yükseklik Modeli DMC : Dynamic Markov Compression; Dynamic Markov Sıkıştırması DPMC : Diferential Pulse-Code Modulation; Diferansiyel Darbe Kod Modülasyonu DSC : Distributed Source Coding; Dağıtılmış Kaynak Kodlaması DWT : Discrete Transform; Ayrık Dalgacık Dönüşümü ECW : Enhanced Compression Wavelet; Geliştirilmiş Dalgacık Sıkıştırma GIF : Graphics Interchange Format; Grafik Değişim Formatı GPS : Global Positioning System; Küresel Konumlama Sistemi GZIP : UNIX Compressed File Archieve; UNIX Sıkıştırılmış Dosya Arşivi HPC : Hierarchical Predictive Coding, Hiyerarşik Tahmin Kodlaması IMU : Inertial Measurement Unit; Ataletsel (İnersiyal) Ölçüm Ünitesi INS : Inertial Navigation System; Ataletsel (İnersiyal) Navigasyon Sistemi JPEG : Joint Photographic Experts Group; Birleşik Fotoğrafik Uzmanlar Grubu KOH : Karesel Ortalama Hata LOCO-I : LOw COmplexity for Images; Görüntüler için Az Karışık Kayıpsız Sıkıştırma LPC : ; Doğrusal Tahmin Kodlaması LZ77, : Lempel-Ziv 1977, LZ78 Lempel-Ziv 1978 LZW : Lempel-Ziv-Welch MNG : Multiple-image Network Graphics; Çoklu Görüntü Ağ Grafiği MP3 : Moving Picture Experts Group Layer-3 Audio Format/Extension; Hareketli Resim Uzmanlar Grubu 3’üncü Katman Ses Formatı/Uzantısı MPEG : Moving Picture Experts Group; Hareketli Resim Uzmanlar Grubu MrSID : Multiresolution Seamless Image Database; Çoklu Çözünürlüklü Kesintisiz Görüntü Veritabanı NIR : Near InfraRed; Yakın Kızılötesi

ix

PCX : Personel Computer eXchange; Kişisel Bilgisayar Değişim Formatı PNG : Portable Network Graphics; Taşınabilir Ağ Grafiği PPM : Prediction by Partian Matching; Kısmi Eşleme Kestirimi PQS : Picture Quality Scale; Resim Kalite Ölçeği PSNR : Peak Signal to Noise Ratio; Pik Sinyal Gürültü Oranı RAM : Random Access Memory; Rasgele Erişimli Hafıza RGB : Red-Green-Blue; Kırmızı-Yeşil-Mavi RMSE : Root Mean Square Error; Karesel Ortalama Hata SAR : Syntetic Aparture Radar; Sentetik Açıklıklı Radar SDK : Software Development Kit; Yazılım Geliştirme Modülü SPIHT : Set Partitioning in Hierarchical Trees; Hiyerarşik Ağaç Yapısına Katılım Kümesi SRTM : Shuttle Radar Topography Mission; Uzay Mekiği Radar Topoğrafya Görevi SYM : Sayısal Yükseklik Modeli TIFF : Tag Image File Format; Etiket Resim Dosya Formatı WMA : Windows Media Audio; Windows Medya Ses Formatı WZC : Wyner-Ziv Coding; Wyner-Ziv Kodlama YKN : Yer Kontrol Noktası ZIP : Compressed File Archieve; Sıkıştırılmış Dosya Arşivi

x 1

1. GĠRĠġ

İnsan hayatında veri kelimesinin kullanılması ile birlikte, verilerin bir ortamdan başka bir ortama iletilmesi ve bu verilerin depolanması en büyük problemlerden biri haline gelmiştir. Verilerin iletim ve depolanma problemi veri sıkıştırma yöntemleri kullanılarak giderilmeye çalışılmaktadır. Veri sıkıştırmaya ilk örnek 19’uncu yüzyıl ortalarında Samuel Morse tarafından geliştirilen mors alfabesidir. Bu alfabede kullanılan harfler noktalar (∙) ve çizgilerden (-) oluşacak şekilde kodlanmakta ve telgraf tarafından gönderilmektedir. Morse, dilde kullanılan bazı harflerin diğerlerine göre daha sıklıkla kullanıldığını farketmiştir. Bir mesajın gönderilmesi için gerekli olan ortalama zamanı azaltmak için, e (∙) ve a (∙-) gibi sıklıkla kullanılan harfleri kısa kod dizileri ile, q (--∙-) ve j (∙---) gibi daha az kullanılan harfleri uzun kod dizileri ile kodlamaktadır. Sıklıkla kullanılan karakterlerin kısa kod dizileri ile kodlanması konsepti 3’üncü Bölümde bahsedilecek olan Huffman Kodlamanın temellerini oluşturmaktadır. Mors kodlaması harflerin bireysel olarak tekrarlanma sıklığını kullanmasına rağmen, benzer şekilde yine 19’uncu yüzyılın ortalarında geliştirilen ve yaygın olarak kullanılan Braille Kodlaması sıkıştırmayı sağlayacak şekilde kelimelerin tekrarlanma sıklığını kullanmaktadır. 2 x 3 boyutundaki diziler içerisinde yer alan noktalar kullanılarak, her 6 noktadan oluşturulan bir dizi ile tek bir karakteri temsil eden harfler kodlanmış, geriye kalan nokta kombinasyonları ise ingilizcede sıklıkla kullanılan kelimeler ile eşleştirilmiştir. Veri sıkıştırmanın temellerini ve konseptini oluşturacak olan bu düzenleme ile ortalama %20 oranında yer tasarrufu sağlanmıştır. Bilgisayar teknolojisinin günlük yaşantımızın bir parçası haline gelmesi sonucunda sıkıştırma yöntemleri ve formatlarının kullanılması kaçınılmaz olmuştur. Sürekli olarak kullandığımız ve çoğu zaman farkında olmadığımız veriler, aslında sıkıştırılmış veri kümeleridir. Görüntü, ses ve verileri sıkıştırmanın sıklıkla kullanıldığı veri kaynaklarıdır. En fazla kullanılan formatlar arasında zip, rar, , mpeg, mp3, mp4 formatları gösterilebilir. Örneğin sıkıştırma olmaksızın 1 saniyelik bir video görüntüsünün 20 megabyte’dan daha fazla bir alan kaplamaktadır. Bu durumda 1 saatlik bir video yaklaşık olarak 70 gigabyte’dan fazla bir alan kapsayacaktır ki, böyle bir verinin internet ortamından veya bir kaynaktan diğerine aktarımındaki iletim problemlerini ve benzer şekilde bu verinin depolanma problemlerini çoğu zaman düşünmek bile istemeyiz. Sıkıştırma teknikleri sayesinde, aynı veriyi veya yaklaşık olarak aynı veriyi daha küçük boyutlarda elde etme imkânı kazanılmıştır. 70

2 gigabyte’lık bir veri, kullanılan sıkıştırma teknikleri ile 50 megabyte boyutuna veya 500 megabyte boyutlarına indirilebilmektedir. Veri sıkıştırma, sabit disk alanı veya veri transferi bant genişliği gibi pahalı olan kaynakların tüketimini azaltmakta yardımcı olduğu için bir çok alanda kullanılmaktadır. Özellikle internet ortamında veriyi iletmek için kullandığımız bazı sıkıştırma programlarının binary yapıdaki yazı dosyalarını çok küçük boyutlara indirdiği, ancak aynı programların yine binary yapısında olan resim dosyalarını sıkıştırmada etkin bir sonuç elde edemediği hepimiz tarafından bilinmektedir. Bir veri kümesinde hangi sıkıştırma yönteminin kullanılacağı verinin karakteristik özellikleri ile doğrudan ilişkilidir. Sıkıştırılacak verinin yapısı kullanılacak teknik ve yazılımın seçilmesinde büyük rol oynar. Benzer şekilde veriyi kullanacak olan insanın algılama özellikleri de veri sıkıştırma yönteminin belirlenmesinde önemli rol oynamaktadır. Örneğin insan gözünün bir saniyede algıladığı çerçeve sayısının alt sınırı video görüntülerin sıkıştırılmasında, insan kulağının sesi algılayabilmesindeki frekans aralığı da ses verilerinin sıkıştırılmasında belirleyici faktörler olarak kullanılmaktadır. Analog ve analitik fotogrametrik sistemler, bilgisayar teknolojisindeki gelişmelere paralel olarak yerini dijital fotogrametrik sistemlere bırakmıştır. Fotogrametrik işlemlerin tamamı, yaşanan süreç içerisinde bilgisayar sistemlerinde uygulanmaya başlamıştır. Fotogrametrik üretim zincirinin temelini oluşturan görüntülerin işlenmesi ve depolanması aşamalarında, görüntü sıkıştırma yoğun bir şekilde fotogrametrik uygulamalarda kullanılmaya başlanmıştır. Analog hava kameraları kullanılarak elde edilen fotoğraflar belirli bir çözünürlükte taranmak suretiyle sayısallaştırılmakta, elde edilen sayısal görüntüler kullanıcı operatörlerin gerçekleştirdiği ölçme işlemleri sonrasında, uygulamalar için kullanıma hazır hale getirilmektedir. Orta ve büyük hacimli projelerde operatörler tarafından gerçekleştirilen ölçüm işlemleri uzun zaman almaktadır. Sayısal görüntüler üzerinde eşleme tekniklerinin geliştirilmesi ile birlikte, uzun zaman gerektiren operatör ölçüm işlemleri azaltılmaya çalışılmış, bununla birlikte büyük hacim gerektiren görüntülerin tamamının kullanılabilmesi gerekliliği ortaya çıkmıştır. Fotogrametrik otomasyon olarak adlandırdığımız bu aşamada, blok içerisinde yer alan görüntülerin tamamının kullanılabilmesi, raster görüntü sıkıştırma ile olanaklı hale gelmiştir. Görüntü kalitesi ile doğrudan bağlantılı olan görüntü eşleme (image matching) yöntemleri otomasyon işlemlerini oldukça arttırmıştır. Kullanılan sıkıştırma yöntemi ve oranı, elde edilecek olan doğruluk ve hassasiyeti doğrudan etkileyecek olması nedeni ile, gerçekleştirilecek fotogrametrik uygulamaya yönelik çözümlerin belirlenmesi önemlidir. Fotogrametrik

3 işlem adımlarından olan iç yöneltmede, fotogrametrik triangülasyondaki bağlama noktalarının ölçülmesinde ve dengelenmiş görüntüler üzerinden sayısal yükseklik verilerinin toplanmasında, görüntü eşleme yöntemleri kullanılarak kullanıcı kontrollü tam veya yarı otomasyona geçilmiştir. Bu konuda gerçekleştirilen çalışmalar genellikle bu otomasyon aşamalarında sıkıştırma yöntemlerinin kullanılarak elde edilen sonuçların irdelenmesi veya farklı sıkıştırma tekniklerinin karşılaştırılması şeklinde olmuştur. Kullanılan sıkıştırma yöntem ve oranlarının, özellikle otomatize işlemlerde olmak üzere, ardışık olarak yapılan işlemlerin tamamında ne şekilde sonuç vereceği konusu bu çalışmada ortaya konacaktır. İkinci bölümde; kayıplı veya kayıpsız sıkıştırma yöntemleri kullanılarak özellikle görüntü sıkıştırma ile gerçekleştirilen, sıkıştırma yöntem ve algoritmalarının karşılaştırılması, sıkıştırma oranlarının karşılaştırılması, fotogrametrik uygulamalarda sıkıştırılmış görüntülerin kullanılması gibi, daha önceki çalışmalara ait kaynak araştırması gerçekleştirilecek ve elde edilen sonuçlar incelenerek yapılacak çalışmanın yönlendirmesinde kullanılacaktır. Üçüncü bölümde; veri sıkıştırmanın anlamı, sıkıştırma yöntemlerinin sınıflandırılması, veri sıkıştırma algoritmaları, görüntü formatları, modelleme ve kodlama kavramları, sıkıştırmadaki doğruluk, performans ve kalite ölçütleri, görüntü eşleme yöntemleri gibi veri sıkıştırma ile ilgili temel kavramlar ele alınacaktır. Özellikle uygulamada kullanılacak algoritma ve görüntü formatları detaylandırılacaktır. Dördüncü bölümde; çalışma bölgesinin ve kullanılan verilerin tanıtılması, çalışmada kullanılan yazılım ve programlar, kullanılan fotogrametrik bloklar ile gerçekleştirilen işlemler, elde edilen doğruluk ve kalite ile ilgili sonuçlar ve istatistiki bilgilere yer verilecek ve elde edilen neticeler tartışılacaktır. Beşinci bölümde ise çalışmada gerçekleştirilen uygulamalar sonrasında elde edilen sonuçlar değerlendirilerek, fotogrametrik üretim gerçekleştiren orta ve büyük hacimli bütün potansiyel kullanıcılar için, üretim projelerinde kullanıma en uygun sıkıştırma teknik ve oranları belirlenerek, önerilerde bulunulacaktır.

4

2. KAYNAK ARAġTIRMASI

Yapılan inceleme sonrasında literatürde bulunan mevcut yayınların; veri sıkıştırmanın temelleri ve sınıflandırılması, veri sıkıştırma algoritmalarının matematiksel yapısı ve kullanılan yöntemler üzerinde olduğu gözlenmiştir. Gerçekleştirilen uygulama çalışmalarının büyük bir bölümünün sıkıştırma yöntemlerinin veya oranlarının karşılaştırılması şeklinde olduğu görülmüştür. Diğer çalışmaların ise görüntü sıkıştırması ile elde edilen verilerden yararlanılarak oluşturulan üç boyutlu görüntülerden, otomatik eşleme ile bulunan sayısal yükseklik verileri üzerindeki doğruluğun araştırılması şeklindedir. Lam ve ark. (2001) tarafından sıkıştırılmış görüntülerin SYM doğruluğunu önemli derecede etkilediği, görüntü üzerinde yapı zenginliği fazla ise, görüntü sıkıştırma neticesinde bu yapı zenginliğinin azalmakta olduğu ve bunun neticesinde sıkıştırılmış görüntüler üzerinde toplanan sayısal yükseklik verilerinin doğruluğunu önemli derecede etkilediği bildirilmiştir. Raad (1996) tarafından görüntü sıkıştırma işleminin, görüntünün sayısallaştırılması (taranması) işleminden hemen sonra başladığı ve sıkıştırmada elde edilen görüntü kalitesinin fotogrametrik projenin tamamında etkisini gösterdiği belirtilerek, işlemler sonrasında elde edilen ürünlere ait doğruluk değerlerinin sıkıştırma işlemiyle ilişkili olduğu bildirilmiştir. Görüntü kullanımı ile ilgili olarak kullanıcıların bütün ihtiyaçlarını karşılayacak bir yöntem belirlemek hemen hemen imkansızdır. Yapılan bütün çalışmalar ihtiyaçları en optimum seviyede karşılayacak yöntemlerin belirlenebilmesi üzerine dayanmaktadır. Uygulamada kullanıcılar, kayıpsız sıkıştırmadaki gibi doğruluk ile hassasiyetten taviz vermeyen ve görüntü kalitesi çok iyi olan, kayıplı sıkıştırmadaki gibi fazla sıkıştırma oranı uygulanmış ve sabit diskler üzerinde fazla yer kaplamayan görüntüler ile çalışmayı tercih ederler. Said ve Pearlman (1993) kullanıcı ihtiyaçlarını karşılamaya yönelik en uygun kodlama yöntemini belirlemek için bir çalışma gerçekleştirmiştir. Aşamalı-uygunluk ve aşamalı-çözünürlük olmak üzere, aşamalı yeniden oluşturma için iki algoritma önerilmiştir. Soyadlarının baş harflerini kullanarak S+P dönüşümü olarak adlandırdıkları bu yeni çoklu çözünürlüklü dönüşüm küçük bir hesap yükü ile başarılı sonuçlar vermiştir. Burada elde edilen sonuç literatürde yer alan en uygun sıkıştırma oranını elde etmiştir. İlk olarak tek boyutlu dönüşüm ile görüntünün çoklu çözünürlüklü piramidleri oluşturulmuş, sonrasında kestirim katsayıları bulunmuş, entropi kodlama uygulanarak aşamalı-uygunluk dönüşümü yapılmıştır.

5

Halen görüntülerin karşılaştırılmasında kullanılmakta olan pik sinyal gürültü oranı ile karesel ortalama hata ölçütleri evrensel olarak kabul görmektedir. Wang ve Bovik (2002) tarafından, insan görsel sistemi dahil her türlü karşılaştırma ölçütünü bünyesinde barındıran yeni bir görüntü kalite ölçütü ortaya sürülmektedir. Bu kalite ölçütü görüntüdeki herhangi bir distorsiyonu üç farklı faktörün bileşkesi olarak ele almaktadır: korelasyon eksikliği, aydınlatma bozulması ve kontrastlık bozulması. Çalışmalar neticesinde elde edilen sonuçların tek bir formülasyonla yapılabilmesi neticesinde tatmin edici ve başarılı olduğu, ancak bu yeni ölçütün gelecekte daha geniş çaptaki deneylerle desteklenmesi şeklinde olduğu belirtilmiştir.

2.1. SıkıĢtırma Yöntemlerinin KarĢılaĢtırılması Konusunda Yapılan ÇalıĢmalar

Standard JPEG algoritması ve hiyerarşik kestirim kodlaması (Hierarchical Predictive Coding, HPC) kullanılarak üç farklı görüntü üzerinde sıkıştırma testleri gerçekleştirilmiştir. Geometrik kalite, sıkıştırma oranları ve hızları ile bilgi kayıpları yönünden elde edilen sonuçlar karşılaştırılmıştır. HPC tekniğinin daha hızlı olduğu ve daha iyi geometrik ve radyometrik görüntü kalitesi değerleri elde ettiği tesbit edilmiş, bunun yanında JPEG tekniğinin daha yüksek oranlarda sıkıştırma yapabildiği görülmüştür. Büyük sıkıştırma oranlarının görüntüde dikkate değer bozulmalara sebebiyet vermesi nedeniyle, hava fotoğraflarının sıkıştırılmasında kullanılmaması önerilmektedir. Elde edilen geometrik distorsiyon değerleri Çizelge 2.1’de gösterilmektedir (Novak ve Shahin, 1996).

Çizelge 2.1. JPEG ve HPC algoritmalarının geometrik karşılaştırma sonuçları

Sıkıştırma JPEG-75 JPEG-40 JPEG-5 HPC-8.5.3.1 HPC-8.3.3.1 Oranları maksimum x 0.292 2.654 17.036 0.308 1.303 maksimum x 0.353 0.815 12.972 0.671 2.075 rms (x) 0.038 0.107 0.786 0.036 0.056 rms (y) 0.042 0.102 0.807 0.031 0.070 (Sonuçlar piksel olarak verilmektedir.)

Dalgacık sıkıştırma algoritmasını geliştirmeye yönelik Martin ve Bell (2001) tarafından çoklu dalgacık adı verilen bir çalışma gerçekleştirilmiştir. Görüntü sıkıştırmada sıklıkla kullanılan dalgacık dönüşümünde, bir ölçekleme fonksiyonu bir de

6 dalgacık fonksiyonu kullanılmaktadır. Bu çalışmada iki veya daha fazla ölçekleme fonksiyonu ile dalgacık fonksiyonu kullanılarak çoklu dalgacıklar oluşturulmuştur. Öncelikle görüntü iteratif ayrıştırma yöntemi ile alt bloklara ayrılmış, sonrasında Said ve Pearlman (1993) tarafından geliştirilen ve SPIHT adı verilen niceleme yöntemi ile görüntüler sadeleştirilmiş ve çoklu dalgacık fonksiyonları kullanılarak kodlama işlemi yapılmıştır. Çalışmada çeşitli görüntüler kullanılmış, yöntemin uygulamada getirdiği ilave hesap yükünün yanında o zamana kadar dalgacık sıkıştırmayla elde edilen sonuçlara oranla, özellikle doğal görüntülerde kullanılan filtreleme yönteminin ve ölçeksel dalgacıkların çok iyi sonuçlar verdiği bulunmuştur. Kayıpsız görüntü sıkıştırma yöntemlerinin karşılaştırılmasına yönelik bir çalışma Mesut ve Carus (2005) tarafından gerçekleştirilmiştir. Karşılaştırmada 1, 4, 8 ve 16 bit renk derinliklerine sahip küçük boyutlu 16 adet görüntü dosyası kullanılmıştır. Çalışma sonucunda sadece elde edilen sıkıştırma oranları birbirleri ile karşılaştırılmıştır. Çalışmada kullanılan fotoğraflar, programlar ve elde edilen sonuçlar fotogrametrik uygulamalara yönelik değildir, ancak görüntü formatlarının başka amaçlar için sıkıştırma testlerinin uygulanması yönüyle bu bölüm içerisinde bahsedilmiştir. Avcıbaş ve ark. (2002) tarafından yaklaşık kayıpsız bir görüntü sıkıştırma algoritması ile ilgili olarak 8 farklı görüntü üzerinde test çalışması yapılmış ve elde edilen sonuçların SPIHT ve CALIC yöntemleri ile elde edilenlerden daha iyi kayıpsız performans sağladığı bildirilmektedir. Kayıplı görüntü sıkıştırma yöntemlerinden biri olan global ayrık kosinüs dönüşümü algoritmasının iyileştirilmesini hedef alan bir yöntem, Günlü ve Bilge (2006) tarafından önerilmiştir. Görüntülere ait ayrık kosinüs dönüşüm katsayıları incelenmiş ve bu değerler içerisinde bir çok sıfıra yakın değer olduğu tespit edilmiştir. Belirli bir noktadan itibaren bu veri iki gruba ayrılmış ve her gruba Huffman kodlama uygulanmıştır. Bu çalışmada ayrım noktasının belirlenmesi için bir dizi çalışma gerçekleştirilerek, bu noktanın belirlenmesi için otomatik bir yöntem sunulmuştur. İlave işlem karmaşıklığı gerektirmeden sıkıştırma oranında %8 ve işlem süresinde %50’ye varan başarı elde edilmiştir. Ayrık kosinüs dönüşümü tabanlı sıkıştırma yöntemlerinin yerini dalgacık tabanlı yöntemlere bırakacağı, ancak bu geçiş için o döneme ait mevcut bilgisayar sistemlerinin geliştirilmesine ihtiyaç duyulduğu Aksan ve Doğan (2004) tarafından öngörülmüştür. Büyük boyutlu uzaktan algılama görüntülerinin depolanmasında ve transferindeki etkili çözümler, yüksek uygunluk ve hızlı sıkıştırmadır. Dalgacık

7 dönüşümlerine ve parçalı kodlamaya bağlı hibrid algoritmaları günümüzde oldukça popülerdir. Jie ve ark. (2008) tarafından geliştirilen ve dalgacık dönüşümü ile parçalı kodlamaya dayanan geliştirilmiş bir yöntem, uzaktan algılamadaki görüntü sıkıştırmada önerilmektedir. Yöntemde ilk olarak görüntünün alt bantları arasında benzerliği oluşturmak için dalgacık dönüşümü kullanılmış, daha sonra benzer karakterli ardışık yüksek frekans bantlarına parçalı algoritma uygulanmıştır. Bu aşamada benzer blokların araştırılmasındaki hızı arttırmaya yönelik bazı geliştirmeler yapılmıştır (Çizelge 2.2). Sonuçta daha az bilgi kaybı ile görüntüyü kapsayan daha fazla görüntü kalitesi elde edilmiştir. Bununla birlikte görüntünün sinyal-gürültü oranını sağlayacak şekilde, görüntü kodlama etkinliği de arttırılmıştır.

Çizelge 2.2. Üç farklı kodlama yönteminin karşılaştırılması

Kodlama İşlem Sıkıştırma PSNR Zamanı (sn) Oranı Geleneksel Parçalı Kodlama Yöntemi 3600 22.78 4:1 Dalgacık Tabanlı Parçalı Kodlama 306 22.02 7:1 Yöntemi Dalgacık Tabanlı Geliştirilmiş Parçalı 120 22.00 7:1 Kodlama Yöntemi

JPEG ve JPEG2000 görüntülerinin karşılaştırılmasına yönelik bir çalışma Grgic ve ark. (2001) tarafından gerçekleştirilmiştir. Karşılaştırmada iki görüntü kalite ölçütü kullanılmıştır: resim kalite ölçeği (PQS) ve doruk sinyal gürültü oranı (PSNR). Görüntü kalite ölçütü PSNR kullanılarak yapılan karşılaştırmada, bütün test görüntülerinde ve veri iletim oranlarında JPEG2000 yönteminin yüksek görüntü kalitesini elde ettiği tespit edilmiştir (Çizelge 2.3). Ancak PQS ile gerçekleştirilen karşılaştırma farklı sonuçlar göstermiştir. Orta ve yüksek veri iletim oranlarında JPEG daha iyi sıkıştırma performansı sergilemiştir (Çizelge 2.4). İyi görüntü kalitesi ve düşük hesaplama kompleksliği sebebiyle JPEG görüntülerinin orta veri iletim oranlarında kullanılması önerilmektedir. Düşük veri iletim oranlarında DWT kullanan JPEG2000 algoritmasının, DCT kullanan JPEG’den daha az bozulmalara sebebiyet verdiği tespit edilmiştir.

8

Çizelge 2.3. Pik sinyal gürüntü oranı (PSNR) sonuçları

Çizelge 2.4. Resim kalite ölçeği (PQS) sonuçları

2.2. SıkıĢtırılmıĢ Görüntüler ile Yapılan Fotogrametrik Uygulama ÇalıĢmaları

Liu ve ark. (2005) tarafından JPEG2000 yöntemi kullanılarak sıkıştırılmış hava fotoğrafları üzerindeki bilgi ve geometri içeriklerin incelenmesi konusunda bir çalışma gerçekleştirilmiştir. Bu çalışmada 13.3:1 oranında sıkıştırılmış JPEG ve JPEG2000 görüntülerinin manuel yöntemlerin kullanıldığı fotogrametrik uygulamalar için yeterli olduğu bildirilmiştir. Görüntü sıkıştırma ile görüntü eşleme arasındaki doğruluğun araştırıldığı, Kiefner ve Hahn (2000) tarafından gerçekleştirilen başka bir çalışmada 5:1 oranında sıkıştırılmış JPEG görüntülerinin fotogrametrik çalışmaları olumsuz yönde etkilemeyeceği bildirilmiştir. Bununla birlikte 30:1 oranına kadar JPEG2000 görüntülerinin kullanılabileceği, özellikle 50’den büyük sıkıştırma oranlarında DWT

9 algoritmasının (JPEG2000), DCT algoritmasına büyük üstünlük sağladığı (JPEG) belirtilmiştir. Sıkıştırılmış JPEG görüntülerinin yakın mesafe fotogrametri uygulamaları üzerine etkileri ile ilgili gerçekleştirilen bir çalışmada, hedef noktalar alt piksel doğruluğunda ölçülerek, elde edilen ölçümler ışın demetleri ile dengelenmiş ve elde edilen sonuçlar Çizelge 2.5’de sunulmuştur. Çalışma sonucunda elde edilen değerler ışığında, 1:1 ile 1:70 arasındaki JPEG sıkıştırma oranlarının, özellikle yersel dijital kameraların sınırlı depolama kapasiteleri de dikkate alındığında, yakın mesafe fotogrametri uygulamalarında rahatlıkla kullanılabileceği değerlendirilmiştir (Yılmaztürk ve Akçay, 2005).

Çizelge 2.5. JPEG sıkıştırma sonuçları

KOH KOH KOH KOH Görüntüler (Bütün Noktalar) (Küçük Hedefler) (Orta Hedefler) (Büyük Hedefler) TIFF 0.17 0.14 0.15 0.20 SHQ 0.17 0.15 0.16 0.19 HQ 0.18 0.17 0.17 0.18 JPEG 1:10 0.24 0.17 0.23 0.27 JPEG 1:20 0.24 0.14 0.25 0.26 JPEG 1:40 0.28 0.21 0.27 0.33 JPEG 1:60 0.31 0.27 0.30 0.34 JPEG 1:70 0.31 0.32 0.29 0.32 JPEG 1:80 0.47 0.45 0.41 0.51 (KHO sonuçları mikrometre ve xyz olarak verilmektedir.)

İnternetteki CBS görsel similasyon sistemlerinde, çoklu ölçek sunumlarda DEM verisinin kullanımı oldukça fazlalaşmış, bu nedenle sınırlı ağ bant genişliği dikkate alındığında, bu veri hacminin azaltılması yönünde Zheng ve ark. (2008) tarafından bir çalışma gerçekleştirilmiştir. Çalışmada birçok tamsayıdan tamsayıya dalgacık dönüşümü arasında, hangisinin DEM çoklu ölçek gösterimi için en uygun sıkıştırmayı sağladığı, JPEG2000 algoritması kullanılarak karşılaştırılmıştır. Üç farklı arazi karakteristiğine sahip 90mx90m aralıklı SRTM90 verisi, 15 adet farklı tamsayı oranları kullanan dalgacık yöntemi ile sıkıştırılmış ve elde edilen sonuçlar neticesinde 2/6 tamsayı dalgacık yönteminin en uygun kademeli sıkıştırma ve dönüşüm sonucunu verdiği görülmüştür. Bilgisayarda yine görüntü gibi oldukça yer kaplayan sayısal yükseklik modellerinin sıkıştırılması ile ilgili bir çalışma gerçekleştirilmiştir. Çalışmada aritmetik kodlama yöntemi, Huffman kodlama ile doğrusal kestirim algoritması kullanılarak,

10

SYM verilerinin kayıpsız sıkıştırılmasında %40-62 oranında gelişim sağlanmıştır (Kidner ve Smith 2003).

SıkıĢtırma Oranı

ġekil 2.1. JPEG ve dalgacık sıkıştırmanın karşılaştırılması

Sayısal yükseklik modellerinin sıkıştırma sonrası etkilenme durumunu araştırmak için benzer bir çalışma Schieve (1998) tarafından gerçekleştirilmiş, ancak diğerinden farklı olarak, uygulamada kayıplı JPEG görüntüleri kullanılmış, ayrıca sıkıştırma yöntemleri de kısmen test edilmiştir. Çalışmada test verisi olarak kullanılan sayısal yükseklik verisinde, 15:1 oranındaki sıkıştırmanın mevcut veriyi fazla bozmadığı ve uygulamada kullanılabileceği değerlendirilmiştir. Kayıplı sıkıştırma algoritmalarının otomatik işlemleri negatif yönde etkilediği belirtilmiş, özellikle Şekil 2.1’de gösterildiği gibi 50:1’den büyük sıkıştırma oranlarında dalgacık tabanlı sıkıştırmaların JPEG algoritmasına üstünlük sağladığı bildirilmiştir.

Arazi-1 Arazi-2 Arazi-3 Kalan Değerlein KOH (metre)

Sıkıştırma Yüzdesi

ġekil 2.2. Farklı arazilerde değişik sıkıştırma oranları ile elde edilen KOH

11

Oimoen (2004) tarafından dalgacık tabanlı sıkıştırma yönteminin sayısal yükseklik modelleri üzerindeki etkileri üzerinde bir test çalışması gerçekleştirlmiştir. Üç farklı arazi grubu (arazi-1: düz ve dağlık, arazi-2: küçük bir kaç göl içeren düzlük alan, arazi-3: tamamen dağlık) üzerinde gerçekleştirilen çalışmada Şekil 2.2’de gösterilen sonuçlar elde edilmiş ve düz yapılı arazilerde ayrık dalgacık dönüşüm işleminin daha başarılı sonuçlar verdiği bildirilmiştir. Aster uydu görüntülerinden elde edilen global sayısal yükseklik modeli verileri kullanılarak, JPEG2000 algoritmasının kayıplı ve kayıpsız seçenekleri ve oranları kullanılarak çeşitli test çalışmaları gerçekleştirilmiştir. Elde edilen sonuç değerleri oldukça dikkate değer bulunmuştur. SYM verisi kayıpsız JPEG2000 sıkıştırma ile 6:1- 10:1 oranlarında sıkıştırılmış, 8:1 oranında kayıpsız bir sıkıştırma ile 547 Gbyte olan bir verinin yaklaşık 68 Gbyte boyutuna ineceği görülmektedir. JPEG2000 kayıplı en iyi görüntü olarak adlandırılan 19:1 sıkıştırma oranı ile SYM verisi sıkıştırılmış, Şekil 2.3’de gösterilen orijinal veri ile sıkıştırılmış veri arasındaki farklar hesaplanmıştır. Orijinal veri ile sıkıştırılmış veri arasında; %83 oranındaki verinin 1 metre içerisinde, %17 oranındaki verinin 1-2 metre içerisinde ve %0.005 oranındaki verinin de 2 metreden büyük olduğu test edilmiştir.

Sıkıştırılmamış 19:1 Kayıplı Sıkıştırılmış Fark Verisi (yeşil=1m., siyah=2m.)

ġekil 2.3. Orijinal veri ile 19:1 oranında sıkıştırılmış veri arasındaki farklar

Aynı veri grubunda 80:1 oranında kayıplı JPEG2000 sıkıştırma yöntemi ile benzer çalışma yapılmış ve sonuç olarak Şekil 2.4’de gösterilen değerler elde edilmiştir. Orijinal veri ile sıkıştırılmış veri arasında; %33 oranındaki verinin 1 metre içerisinde, %46 oranındaki verinin 1-2 metre içerisinde, %16 oranındaki verinin 2-3 metre içerisinde, %4 oranındaki verinin 3-4 metre içerisinde ve %1 oranındaki verinin en

12 büyüğü 20 m. olacak şekilde 4 metreden büyük olduğu belirlenmiştir (www.microimages.com).

Sıkıştırılmamış 80:1 Kayıplı Sıkıştırılmış Fark Verisi (beyaz=0m, mavi=1m., sarı=2m., turuncu=3m., kırmızı=4m.)

ġekil 2.4. Orijinal veri ile 80:1 oranında sıkıştırılmış veri arasındaki farklar

13

3. TEORĠK ESASLAR

Bilgisayar biliminde ve bilgi teorisinde veri sıkıştırma veya kaynak kodlama, özel kodlama algoritmaları kullanılarak, kodlanmamış kullanımından daha az boyutta olacak şekilde verinin kodlanması işlemidir. Herhangi bir veri iletişiminde gönderici ve alıcının ikisi birden kodlama algoritmasını okuyabiliyorsa sıkıştırılmış veriler kullanılabilir. Yani göndericinin veriye uyguladığı kodlama şemasına göre, alıcı çözme şemasına sahip ise sıkıştırılmış veri iletişiminden bahsedilebilir. Sıkıştırma tekniği veya algoritması denildiğinde gerçekte iki farklı algoritma kastedilmektedir. Birincisi Χ orijinal verisini girdi olarak alan ve bunu sıkıştırarak daha küçük boyutta bir XC verisi oluşturan sıkıştırma algoritması, ikincisi de XC sıkıştırılmış verisini girdi olarak alan ve bunu açarak bir Y verisi oluşturan yeniden oluşturma algoritmasıdır. Bu işlemler şematik olarak Şekil 3.1’de gösterilmektedir. Bu çalışmada, hem sıkıştırma hem de yeniden oluşturma algoritmaları sıkıştırma teknikleri olarak adlandırılacaktır (Sayood 2005).

XC βεδεαρπξσυ Ωεεγακ Sürekli Girdi Sıkıştırma Λζςρντφελ Uzayı δεαρε X εγαςρντφ Y βεδεαρπξσυ βεδεαρπξσυ

Ωεεγακ Ωεεγακ Λζςρντφελ Λζςρντφελ δεαρε δεαρε εγαςρντφ εγαςρντφ

ġekil 3.1. Sıkıştırma ve yeniden oluşturma

Yeniden oluşturulan verinin özellikleri, sıkıştırma tekniklerinin temel olarak iki bölümde sınıflandırılmasında belirleyici olmaktadır. Birincisi yüksek sıkıştırma uygulanan ve Y verisinin X verisi ile aynı olduğu kayıpsız sıkıştırma yöntemleri, diğeri de Y verisinin X verisi ile farklılıklar gösterdiği kayıplı sıkıştırma yöntemleridir.

14

Sıkıştırmanın ana hedefi olarak verinin depolanması aşamasındaki yer ihtiyacının azaltılması ve iletilmesi aşamasında veri aktarımının hızlandırılması olarak bahsedilmiştir. Bununla birlikte veri sıkıştırmanın bazı alt hedefleri de bulunmaktadır. Bu alt hedefler; işlemci ve bellek kullanımının minimum seviyeye indirilmesi, aktarma hata etkilerinin azaltılması, sıkıştırılmış sürümün yazılım ve işlenmesinin desteklenmesi ve devam eden görüntü transferinin desteklenmesi olarak sıralanabilir (Aksan ve Doğan 2004).

Ham Veri Dönüşüm Niceleme Kodlama

Sıkıştırılmış Veri

Yeniden Oluşturulan Ters Ters Kod Çözme Veri Dönüşüm Niceleme

ġekil 3.2. Sıkıştırma işleminin temel aşamaları

Sıkıştırma yöntemlerini, algoritmalarını ve formatlarını kesin kurallar ile birbirinden ayırmamız ve birbirinden bağımsız bir şekilde ele almamız yanlış olacaktır. Bir sıkıştırma algoritmasından yararlanılarak elde edilen farklı formatlarda veriler olabileceği gibi, birden fazla tekniğin bir arada kullanılması ile elde edilen veri formatları da mevcuttur. Bundan sonraki bölümlerde; sıkıştırma yöntem, algoritma ve formatları detaylı olarak anlatılacak olup, uygulamada kullanılacak olan format ve algoritmalar üzerinde biraz daha ayrıntılı anlatılacaktır. Kayıplı veya kayıpsız bir sıkıştırma işleminin temel aşamaları Şekil 3.2’de gösterilmektedir.

3.1. Kayıpsız SıkıĢtırma

Kayıpsız sıkıştırma tekniklerinde, adından da anlaşılacağı gibi veride herhangi bir bilgi kaybı olmamaktadır. Eğer veri kayıpsız olarak sıkıştırılmış ise, orijinal veri tam

15 olarak sıkıştırılmış veriden tekrar elde edilebilir. Orijinal ve yeniden oluşturulmuş veri arasında herhangi bir farklılığa tahammülü olmayan uygulamalarda kayıpsız sıkıştırma teknikleri kullanılmaktadır. Kayıpsız sıkıştırmanın kullanıldığı en önemli alan, metin verilerinin sıkıştırılmasıdır. Yeniden oluşturulan verinin orijinal veriyle birebir aynı olması çok önemlidir. Olabilecek en küçük bir farklılık bu veri grubunda farklı anlaşılmalara yol açacaktır. Sadece tek bir karakterin farklı bir şekilde yeniden oluşturulması sonrasında, “Bugün kürek getir” ile “Bugün yürek getir” cümleleri masumane bir örnek olarak verilebilir. Ancak bu masum örneğin bir bankanın kayıtlarının yeniden oluşturulması aşamasında oluşabileceğini düşünürsek, ortaya çıkabilecek farklı anlamlar veya rakamlar bir felaketle sonuçlanabilir. Daha sonradan kullanabilecek olan ve önemli bilgiler içeren herhangi bir veri çeşidinde bütünlüğün korunması çok önemlidir. Madencilik çalışmalarında kullanılan multispektral görüntülerde, pikseller üzerindeki bilgiler önceden belirlenmiş spektral aralıklara göre maden cinslerini göstermektedir. Kayıplı bir şıkıştırma sonrasında elde edilen görüntü ile oluşturulacak sonuçlar yanlış yönlendirmelere ve maddi kayıplara yol açabilecekken, benzer şekilde radyolojide kullanılan görüntülerden oluşturulacak sonuçlar insan hayatına mal olabilecektir. Tarım, ormancılık, çevre kirliliği gibi çevresel görüntülemede kullanılan uydu görüntüleri farklı numerik betimlemeler elde edebilmek ve kıyaslama yapabilmek amacıyla belirli bir süre sonra yeniden değerlendirmelere tabi tutulabilmektedir. Eğer yeniden oluşturulan veri, orijinal veri ile birebir aynı olmaz ise farklı sonuçlar ortaya çıkacaktır. Tekrardan aynı koşulları oluşturacak şekilde yeni bir görüntü elde etme de olanaklı değildir. Bu sebeple bu şekildeki veri kümelerinde sıkıştırma aşamasında herhangi bir farklılık yaratacak bir yöntemin kullanılması tavsiye edilmemektedir. Orijinal veri ile birebir aynısı olmasını arzu ettiğimiz birçok uygulama bulunmasına rağmen, daha fazla sıkıştırma yapıp daha rahat bir şekilde verilerle uğraşmak istediğimiz uygulamalar da bulunmaktadır. Bu gibi durumlarda kayıplı sıkıştırma tekniklerinden söz edebiliriz. Kayıpsız veri sıkıştırma birçok uygulamada kullanılmaktadır. Bunlardan en yaygın olanları ZIP dosya formatı ve Unix sistemlerindeki gzip dosya formatıdır. Kayıplı sıkıştırma teknolojisi içerisinde de bir bileşen olarak kullanılabilmektedir. TIFF ve MNG gibi bazı görüntü formatları kayıplı veya kayıpsız metotları kullanabilirken, PNG ve GIF gibi bazı görüntü formatları ise sadece kayıpsız sıkıştırmayı kullanmaktadır.

16

3.2. Kayıplı SıkıĢtırma

Kayıplı sıkıştırma teknikleri bir kısım veri kayıplarını göze almaktadır. Bu yöntemde sıkıştırılmış verinin yeniden oluşturulmasında tam olarak orijinal verinin elde edilemeyeceği bilinmektedir. İnsan gözünün veya diğer duyu organlarının algılamadığı veya algılamada güçlük çektiği bilgilerin, orijinal veriden arındırılarak sıkıştırmanın uygulanması, bu yöntemlerin en büyük avantajıdır. Ancak sıkıştırmanın fazla olduğu durumlarda sıkıştırma hataları olarak adlandırılan görüntü bozulmaları dikkati çekmektedir. Yeniden oluşturma sonrasında orijinal verinin elde edilemeyeceğinin ve bir distorsiyon olacağının kabul edilmesi, kayıpsız sıkıştırma ile göremeyeceğimiz yüksek sıkıştırma oranlarını elde etmemize olanak sağlar. Bir çok uygulamada yeniden oluşturmadaki eksiklik bir problem teşkil etmemektedir. Örneğin bir konuşmanın veya sesin iletilmesi veya depolanması aşamasında, konuşmada geçen herbir örnek sesin gerçek değerinin tutulması zorunluluk yaratmamaktadır. Yeniden oluşturulacak konuşmada beklenen kaliteye bağlı olarak, her örneğe ilişkin değişken miktarda bilgi kayıpları göze alınabilmektedir. Yeniden oluşturulan konuşmada telefondaki ses kalitesine benzer bir kalite bekliyorsak kayda değer bilgi kayıpları göze alınabilir. Ama yeniden oluşturulan konuşmada müzik CD’sindeki gibi bir kalite bekliyorsak çok daha az bilgi kaybı olacağı görülecektir. Benzer şekilde bir video görüntü dizisinde yeniden oluşturulan video görüntüsünün orjinal görüntü ile aynı olamayacağı bir gerçektir. Kullanıcının video görüntüsünde beklediği çözünürlük nispetinde, bu veri çeşidinde kesinlikle kayıplı sıkıştırma yöntemleri kullanılmaktadır. Bir sıkıştırma planı tasarladığımızda elde edeceğimiz perfonmansı ölçebilme yeteneğimizin bulunması gerekmektedir. Sıkıştırmanın birçok farklı uygulama alanı olacağından, performans tanımlama ve ölçümü için farklı koşullar geliştirilmelidir.

3.3. SıkıĢtırma Algoritmaları

Bilgisayar ortamında depolama ve sınırlı bant genişliklerinde veri iletimi gibi etkenler yanında, sıkıştırma yöntemlerinin ve formatlarının ortaya çıkmasındaki veya araştırılmasındaki en büyük etkenlerden birisi de verinin kendisidir. Verinin içerisinde ihtiyaç dışı ve fazla bilgiler bulunabilmektedir. Bu fazla bilgilerin veri yapısı içerisinden

17 ayrıştırlması da bir nevi sıkıştırma sağlamaktadır. Bir veri içerisinde ne kadar fazla veri varsa sıkıştırma oranı da o derece yüksek olacaktır. Bu fazlalık bilgilerin kaynaklarını ise şu şekilde sıralayabiliriz: uzaysal fazlalık, spektral fazlalık, anlık fazlalık ve algılanabilen fazlalık (Aksan ve Doğan 2004).

3.3.1. Kayıpsız sıkıĢtırma algoritmaları

Çoğu kayıpsız sıkıştırma programı iki aşamada işlemi gerçekleştirir: birinci aşamada girdi verisinin istatistiksel modeli oluşturulur, ikinci aşamada ise oluşturulan bu model kullanılarak girdi verisi bit sırasına göre adreslenir. Bu aşamada veri tekrar sıklıkları veya olasılıkları önemli rol oynamaktadır. Kayıpsız sıkıştırma algoritmalarında en çok Huffman kodlama ve aritmetik kodlama kullanılmaktadır. Aritmetik kodlama bilgi entropisinde verilen belirli istatistiksel model için uygun olabilen en iyi sıkıştırma oranlarına ulaşabilmekte, Huffman kodlama ise basit ve hızlı bir sıkıştırma olmasına rağmen bire yakın sembol olasılıkları olan modellerde kötü sonuçlar elde edebilmektedir. İstatistiksel model oluşturmak için iki ana yol bulunmaktadır: statik model ve uyarlanabilir model. Statik modelde veri analiz edilir ve model oluşturulur, sonra bu model sıkıştırılan veri ile birlikte depolanır. Bu yaklaşım basit ve modülerdir, ancak bazı durumlarda modelin kendisinin depolanması zahmetli olabilmektedir. Ayrıca sıkıştırılacak bütün verilerde tek bir modelin kullanılması zorunluluğu, heterojen veri içeren dosyalarda düşük performansa sebep olmaktadır. Uyarlanabilir modellerde ise veri sıkıştırılırken kullanılan model dinamik olarak güncellenmektedir. Hem kodlayıcı hem de çözücü, ilk başta önemsiz bir model kullanmakta, başlangıç verisinde zayıf sıkıştırmaya sebep olmakta, fakat daha fazla bilgi öğrendikçe veri performansı gelişmektedir. Günümüzde uygulamada kullanılan en popüler sıkıştırma tipi uyarlanabilir kodlayıcıları kullananlardır. Kayıpsız sıkıştırma yöntemleri sıkıştırma için tasarlandıkları veri tiplerine göre sınıflandırılabilir. Prensipte herhangi bir genel maksat kayıpsız sıkıştırma algoritması, herhangi bir veri tipine uygulanabilir ve bazen tasarlandıkları veri tipi haricindeki verilerde bile çok iyi sonuçlar elde edebilirler. Metin verilerinde kullanılan birçok kayıpsız sıkıştırma tekniğinin, adreslenmiş görüntülerde de iyi sonuçlar verdiği görülmüştür.

18

Sürekli görüntülerde ilk piksel hariç her pikselin sol komşusu ile arasındaki renk farkının az olduğu varsayımı ile, piksel değerleri birbirinden çıkartılmak suretiyle aradaki farkların yer aldığı görüntüler daha düşük değerler ile çalışma imkânı sağlanır. Fark verilerinden yeni oluşturulan bu veri kümesinde yakınsamalar daha fazla olacağı için verilerin tekrarlanma sıklıkları daha yüksek olacaktır. Bu tekniğin bir sonraki aşamasında veri noktalarına ait bütün komşu nokta çiftlerinin farkları ve toplamları depolanmakta, düşük çözünürlükte sadece toplamlar kullanılarak devam ettirilmektedir. Bu işlem ayrık wavelet dönüşümü olarak adlandırılmaktadır. JPEG2000 formatında, bunlara ilave olarak diğer çiftlerdeki veri noktaları ve çarpım faktörleri de farkların içerisine ilave edilmektedir. Bu faktörlerin tamsayı olması nedeniyle her koşulda elde edilen sonuç da tamsayı olmaktadır. Değerlerin artışı beraberinde dosya boyutunun da artmasını getirmektedir, ancak değerlerin dağılımı daha yüksek olmaktadır. Bu başlık içerisinde yer alan sıkıştırma algoritmalarından, görüntü sıkıştırmada kullanılmayanların sadece isimleri ve kullanıldıkları veri kümeleri belirtilecektir. Görüntü sıkıştırmada kullanılanlardan tez çalışmasında kullanılacak olanlar detaylı olarak anlatılacaktır.

3.3.1.1. ArdıĢık tekrarlı kodlama (Run-length encoding)

Kayıpsız veri sıkıştırmanın en basit yöntemi olarak bilinir. Orijinal veri kümesi yerine, tek bir veri karakterinin ve tekrarlanma sayısının tutulduğu bir yöntemdir. Ardışık olarak tekrar eden karakterlerden oluşan verilerin sıkıştırılmasında başarılı sonuçlar vermektedir. Özellikle fax cihazlarındaki veri iletimi için geliştirilmiş Huffman kodlama teknikleri ile birleştirilerek kullanılan ve siyah-beyaz renk ayırımına göre çalışan bir yöntemdir. Gönderilen veri içerisinde renkli resim bulunsa bile bu resim siyah beyaz olarak kodlanmaktadır. Normal bir metin içerisinde çoğu alanın boş veya beyaz olduğu dikkate alınırsa, verinin sıkıştırılması ve yeniden oluşturulması hızlı bir şekilde gerçekleştirilmektedir. Fax cihazındaki bir tarama çizgisinde aşağıdaki renkleri elde ettiğimizi varsayarsak (siyah pikseller S ile beyaz pikseller B ile temsil edilsin); BBBBBBSSBBBBBBBBBBBBBBSSSSBBBBBBBBSSBBBBBBBBBBBBBBBB BBBBBBBSSBBBBBBBBBBBBSSSSSBBBBBBBSSBBBBBBBBBBBBBBBBB bu verinin kodlanması;

19

1’inci tarama çizgisi: 6B2S14B4S8B2S16B 2’nci tarama çizgisi: 7B2S12B5S7B2S17B şeklinde olacaktır. Simgeler, çizgisel çizimler ve animasyonlar gibi tekrarlı renk karakterlerinin fazla olduğu resimler haricinde, diğer normal fotoğrafların sıkıştırılmasında tercih edilmez. Hava fotoğrafı ve uydu görüntülerini bir kenara bırakacak olursak, normal fotoğraflarda bile elde edilecek sıkıştırma dosyasının boyutu orijinal dosya boyutunun 2-3 katına çıkabilmektedir. Eğer görüntünün yapısı çoğunlukla dikey dokulardan oluşmuş ise bu görüntünün yatay bir şekilde taranması da boyutu arttıracağından, kötü sıkıştırmaya bir örnek olacaktır. Bu nedenle görüntünün tarama yönünün de belirlenmesi bu kodlama yöntemi için önemli bir etkendir (Salomon 2004). Ardışık tekrarlı kodlama ile elde edilen yaygın formatlar arasında; TGA (Truevision Graphics Adaptor) veya TARGA (Truevision Advanced Raster Graphics Adaptor), Macintosh bilgisayarları için Apple tarafından geliştirilen PackBits formatı (TIFF dosyalarında da aynı sıkıştırma şeması kullanılmaktadır), PCX (Personel Computer eXchange) ve ILBM (InterLeaved BitMap) sayılabilir.

3.3.1.2. Sözlük kodlayıcıları (Dictionary coders)

Yedek kodlayıcı olarak da bilinen bu yöntem, sıkıştırılacak metin ile kodlayıcı tarafından veri yapısında oluşturulan bir grup dizgi arasındaki eşleme araştırmasını gerçekleştiren kayıpsız bir sıkıştırma yöntemidir. Metin yapısındaki veri gruplarında kullanılan bir yöntemdir. Kodlayıcı ilk eşlemeyi bulduğunda, veri yapısında bu dizginin konumuna karşılık gelen bir yer değiştirme gerçekleştirir. LZ77 ve LZ78 yöntemleri de bu prensipe göre çalışmaktadır.  LZ77 ve LZ78: Abraham Lempel ve Jacob Ziv tarafından 1977 ve 1978 yıllarında geliştirilen kayıpsız veri sıkıştırma algoritmalarıdır. LZ1 ve LZ2 olarak da bilinir. Her ikisi de sözlük kodlayıcısı olarak kullanılmaktadır. LZ77 sıralı erişim ile eşleme yaparken, LZ78 rasgele erişim ile eşleme yapmaktadır. PNG formatı LZ77 algoritmasına dayanmaktadır. Huffman kodlamanın aksine, Lempel-Ziv (LZ) kodlama algoritması değişken uzunluklu girdi sembolleri sabit uzunluklu kod verilerine dönüşmektedir. Huffman kodlama kaynakla ilgili istatistik bilgilerinin önceden

20 bilinmesine ihtiyaç gösterirken, bu yöntemde bilinmesine ihtiyaç yoktur ve sadece özel bir kaynak için değil birçok kaynak türünde etkili bir şekilde çalışabilmektedir. Belki de bu sebeple kayıpsız veri sıkıştırmada en çok kullanılan yöntem olmuştur. Literatürde algoritmanın iki sürümü bulunmaktadır; teorik sürüm ve pratik sürüm. Her iki sürüm de temelde aynıdır (Gersho ve Gray 1992).  LZW: LZ78 algoritmasının Terry Welch tarafından geliştirilmesiyle oluşturulan bir sıkıştırma algoritmasıdır. LZ grubunun en çok kullanılan şeklidir. GIF formatı LZW’nin kullanıldığı en çok bilinen uygulamadır. Unix sıkıştırma da bu algoritmayı kullanmaktadır.

3.3.1.3. Kaynak tabanlı sıkıĢtırma (Context-based compression)

Eğer kodlanacak semboller dizisi, sembollerin bağımsız oluşumlarını içermiyorsa, kodlanacak sembolün komşusunda oluşacak sembolün bilgisi, kodlanacak sembolün değeri hakkında iyi bir fikir verecektir. Yani bu bilgi verilen bir kaynak içerisinde bazı sembollerin diğerlerine göre daha fazla olasılıkla yer alması anlamına gelmektedir. Bu da olasılık dağılımının eğriliğini arttırmaktadır. Eğer kaynak kodlayıcı ve çözücü tarafından biliniyorsa, bu olasılık dağılımı sıkıştırma seviyesinin arttırılması için kullanılabilmektedir.

3.3.1.3.1. Kısmi eĢleme kestirimi (Prediction by partial matching, PPM)

Kaynak tabanlı algoritmalar içerindeki en çok bilinen bu yöntem, ilk olarak 1984 yılında Cleary ve Witten tarafından önerilmiştir. PPM olarak da bilinen bu algoritma, kaynak modelleme ve kestirim tekniklerine dayalı uyarlanabilir istatistiksel veri sıkıştırma tekniğidir. Bu model sıkıştırılmamış sembol kümesindeki bir önceki sembol setlerini kullanarak, küme içerisindeki bir sonraki sembolü tahmin etme üzerine kurulmuştur (Sayood, 2005). 1990’lı yılların başına kadar PPM algoritmalarının hatırı sayılır bir miktarda RAM gerektirmesi nedeni ile yazılım uygulamalarında sıklıkla tercih edilen bir yöntem olmamıştır. Ancak son zamanlardaki PPM uygulamaları, doğal konuşma metinleri için en iyi sonuç veren kayıpsız sıkıştırma programları olarak kullanılmaktadır.

21

3.3.1.3.2. Burrows-Wheeler dönüĢümü (BWT)

Kaynak tabanlı yöntemlerden birisi olan BWT, kayıpsız sıkıştırma için farklı bir yol kullanarak kodlanacak sembolün kaynağını kullanır. Bu algoritmanın en önemli parçasını oluşturan dönüşüm işlemi 1983 yılında Wheeler tarafından geliştirilmiştir. Diğer yöntemlerin aksine, kodlama işlemi öncesinde kodlanacak bütün kod dizilerinin mevcudiyetini gerektirmektedir (Salomon, 2008). Blok sıralama sıkıştırması olarak da bilinen bu algoritma, bzip2 gibi veri sıkıştırma tekniklerinde kullanılmaktadır. Metin, ses ve görüntü şeklindeki veri gruplarının sıkıştırılmasında kullanılan etkin bir kayıpsız veri sıkıştırma algoritmasıdır.

3.3.1.3.3. Buyanovski iliĢkili kodlayıcısı (Associative Coder of Buyanovsky)

George Buyanovsky tarafından geliştirilen, sıkıştırma işleminde kullanılan kaynaklarda farklı bir yaklaşım getiren bir yöntemdir. Bu etkin kodlayıcının ayrıntılı detayları tam olarak bilinmemektedir. Diğerlerin farklı olarak kaynak içeriklerinin yolları da bu kodlayıcıda tutulmaktadır. Metin verisinde geleneksel soldan sağa doğru okuma yaklaşımı mevcuttur. Ancak bu yöntemde sağdan sola okuma yaklaşımı ilave edilmiş ve eşlemede komşu içerikler de dikkate alınmaktadır. Bu şekildeki yaklaşımın sonucu olarak algoritma daha zengin bir çevrede çalışma imkanı bulmuş ve sıkıştırmayı sağlayabilmek için esneklik kazanmıştır. Metin verilerinin sıkıştırılmasında çok başarılı sonuçlar elde edilmiştir (www.siret.ms.mff.cuni.cz ).

3.3.1.3.4. Dinamik Markov sıkıĢtırması (Dynamic Markov compression, DMC)

Gordon Cormack ve Nigel Horspool tarafından geliştirilen kayıpsız veri sıkıştırma algoritmasıdır. Her seferinde bir bit tahmin edilir ve kodlanır. PPM’ye benzer bir şekilde kestirimli aritmetik kodlama kullanmakta, sadece kestirimin her seferinde bir byte yerine bir bit kullanılmaktadır. DMC yeterince hızlı çalışan ve iyi sıkıştırma sonuçları veren bir algoritmadır, ancak fazla hafıza gerektirmesi nedeni ile geniş uygulama alanları bulunmamaktadır. Özellikle metin verilerinde çok başarılı sonuçlar verdiği test edilmiştir (Cormack ve Horspool 1987).

22

3.3.1.3.5. Kaynak karıĢtırma (Context mixing)

Diğer bireysel kestirim sonuçlarına göre daha doğru sonuç veren, iki veya daha fazla istatistik modellerinin birleştirilmesiyle, bir sonraki sembol tahminini daha iyi yapabilen bir veri sıkıştırma algoritmasıdır. Bu yöntemin kullanılması ile ilgili en basit yöntem, örneğin her modele ilişkilendirilen olasılıkların ortalamasının alınmasıdır. Bireysel modellerin kestirimlerinden yeni bir kestirim oluşturan rasgele ağaç yapısı bir diğer yöntemdir. Modellerin birleştirilmesi, yapay zekâ ile öğrenmedeki aktif araştırma alanıdır. Ortalama kalite işlemi kullanan veri sıkıştırma programları, girdi verisinin bireysel değerlerine olasılık atamada bu algoritmayı kullanmaktadır. Modellerin bağımsız olması nedeniyle, güvenirlik modellerin karşılaştırılmasında değil, aynı model içerisindeki iki kestirimin karşılaştırılmasında anlamlı hale gelmektedir (www.cs.fit.edu).

3.3.1.3.6. Kaynak uyarlı kayıpsız görüntü sıkıĢtırma (Context Adaptive Lossless Image Compression, CALIC)

Piksel değerlerinin kaynak ve kestirimini birlikte kullanan, 1994’de ortaya konan bir kayıpsız görüntü sıkıştırma algoritmasıdır. CALIC algoritması gri tonlamalı görüntülerde ve iki seviyeli görüntülerde olmak üzere iki modda işlem yapabilmektedir. Bir görüntü içerinde verilen bir pikselin değeri genellikle komşularından birine çok yakındır. Hangi komşu pikselin en yakın değere sahip olduğu görüntünün lokal yapısı ile ilgilidir. Hangi pikselin en yakın olduğunun bulunması en iyi kestirimi verecektir (Wu ve Memon 1997). Algoritma kodlanacak pikselin çevresini belirlemelidir ve bu belirleme hem kodlayıcı hem de çözücü tarafından bilinmelidir. Algoritmanın iyi bir şekilde çalışabilmesi için en önemli adım başlangıç kestirim değerinin bulunmasıdır. Algoritma içerisindeki bazı işlem aşamalarının sadeleştirilebilmesi sonrasında görüntüler için en iyi sıkıştırma yöntemi olabileceği değerlendirilmektedir.

23

3.3.1.4. Entropi kodlaması (Entropy coding)

Bilişim kuramında entropi kodlama, ortamın özel karakteristiklerinden bağımsız olan bir kayıpsız veri sıkıştırma algoritmasıdır. Entropi kodlama girdi verisi içerisinde yer alan her bir sembole bir ön kod oluşturur ve atar. Daha sonra her sabit uzunluklu girdi sembolünü, karşılık gelen değişken uzunluklu ön kodlama kelimesi ile değiştirerek verinin sıkıştırılmasını gerçekleştirir (Erdem 2006). Her kodlama kelimesinin uzunluğu yaklaşık olarak, olasılığının negatif logaritması ile orantılıdır. Bu nedenle en fazla kullanılan semboller en kısa kodları kullanmaktadır. Shannon kaynak kodlama teorisine göre bir sembolün en uygun kod uzunluğu

−logbP ile temsil edilmektedir. b çıktı kodlarını oluşturmada kullanılan sembollerin sayısını, P de girdi sembolünün olasılığını temsil etmektedir. En yaygın olarak kullanılan enrtopi kodlama tekniklerinden ikisi; Huffman kodlama ve aritmetik kodlamadır. Özellikle sinyal sıkıştırmada, veri akışı içerisindeki yaklaşık entropi karekteristikleri iyi bir şekilde bilinirse, basit statik kodların kullanılması yararlı olacaktır. Bu statik kodlar; evrensel kodları (Elias gama kodlama veya Fibonacci kodlama gibi) ve Golomb kodlarını (birli kodlama veya Rice kodlama gibi) içermektedir. Entropi kodlama sayısal verilerin sıkıştırmasında bir yöntem olarak kullanılmasının yanında, entropi kodlayıcı veri akışıları arasındaki benzerliklerin miktarının ölçülmesinde de kullanılabilmektedir. Bu işlem, her veri sınıfı için bir entropi kodlayıcısı veya sıkıştırıcısı oluşturmakla gerçekleştirilmektedir. Daha sonra sınıflandırılmamış bilinmeyen veri, her sıkıştırıcıya sıkıştırılmamış bir şekilde verilir ve en yüksek sıkıştırmayı sağlayana göre sınıflandırılır.

3.3.1.4.1. Huffman kodlama

David A. Huffman tarafından 1952 yılında geliştirilen bu yöntem, Basit Entropi Kodlama olarak da adlandırılır. Genellikle sıkıştırmanın en son aşamasında kullanılır. Bilgisayar biliminde ve bilişim kuramında Huffman kodlama kayıpsız veri sıkıştırma için kullanılan bir entropi kodlama algoritmasıdır. Konsept Mors kodlamaya oldukça benzemektedir. Kaynak sembolün kodlanmasında, değişken uzunluklu kod tablosunun kullanımına dayanmaktadır. Sabit uzunluklu girdi verisindeki semboller, değişken

24 uzunluklu kod değerlerine dönüşmektedir. Değişken uzunluklu kod tablosu, kaynak sembolün her muhtemel değer oluşum tahmin edilen olasılığının, özel bir yöntem ile türetilmesine dayanmaktadır (Salomon 2004, Erdem 2006, Salomon 2008). Verilen bir modele veya olasılıklar grubuna en uygun olan ön kodlar, Huffman kodlar olarak adlandırılır. Huffman kodlama, en uygun ön kodlara ilişkin iki gözleme dayanmaktadır. Birincisi; uygun kodlamada sıklıkla tekrar eden sembollerin kod uzunlukları az tekrar edenlerden daha kısadır. İkincisi; uygun kodlamada az tekrar eden iki sembol aynı uzunluktadır. Huffman kodlama, her sembolün temsil edilerek seçiminde özel bir metot kullanmaktadır. Bir takım sembollerin temsilinde kullanılan bit sırası, az kullanılan kaynak sembolerin temsil edilmesindeki bit sırası uzunluğundan, sıklıkla kullanılan sembollerin temsilindeki daha kısa olan bit dizisinin ön kodlaması olamaz. Bu kodlamanın etkinlik ölçüsü, onun ortalama uzunluk ile entropi arasındaki farkı veya fazlalığıdır (redundancy). Dış düğüm noktalarının veya yapraklarının sembollere karşılık geldiği ikili sistem ağaç yapısı, Huffman kodlamayı oluşturmanın diğer bir yöntemidir. Huffman kodlamanın kullanıldığı bir çok uygulama alanından en önemlileri şu şekilde sıralanabilir: kayıpsız görüntü sıkıştırma, metin sıkıştırma, ses sıkıştırma. Kayıpsız görüntü sıkıştırmada, dört adet örnek görüntü kullanarak Sayood (2005)’un elde ettiği neticeler Çizelge 3.1 ve Çizelge 3.2’de gösterilmektedir.

Çizelge 3.1. Huffman kodları kullanılarak elde edilen piksel değerleri

Görüntü Adı Bits/Piksel Toplam Boyut (byte) Sıkıştırma Oranı Sena 7.01 57,504 1.14 Sensin 7.49 61,430 1.07 Earth 4.94 40,534 1.62 Omaha 7.12 58,374 1.12

Çizelge 3.2. Huffman kodları kullanılarak elde edilen piksel fark değerleri

Görüntü Adı Bits/Piksel Toplam Boyut (byte) Sıkıştırma Oranı Sena 4.02 32,968 1.99 Sensin 4.70 38,541 1.70 Earth 4.13 33,880 1.93 Omaha 6.42 62,643 1.24

 Uyarlanır Huffman kodlama (Adaptive ): Dinamik Huffman kodlama olarak da bilinir. Huffman kodlama kaynak verideki olasılıkların

25 bilinmesine dayanmaktadır. Bu bilgi mevcut değil ise, verinin üzerinden ilk geçişte istatistik bilgileri toplanır, ikinci geçişte de veri kodlanır (Salomon 2004). Kaynak veriye ait herhangi bir önbilgi olmaksızın, iletilecek sembol kodlarının belirlenmesine, verinin değişen koşullarına göre uyarlanmasına ve bir defada kodlanmasına olanak sağlamaktadır. Bu algoritmayı tek bir geçişlik işleme dönüştürebilmek için Faller ve Gallagher tarafından uyarlanabilir algoritma ortaya koymuş, daha sonra bu algoritma Knuth ve Vitter tarafından geliştirilmiştir (Sayood 2005). En büyük faydası gerçek zamanlı olarak kaynak verinin bir defada kodlanmasıdır. Bu yöntemin getirdiği dezavantaj ise iletişim hatalarına karşı oldukça duyarlı olmasıdır. Veri içerisindeki sadece bir kayıp bütün kodlamayı harap edecektir.  Golomb kodlama (): Huffman kodlama grubundan olan bir yöntemdir. Solomon W. Golomb tarafından 1960’lı yıllarda ortaya konan kayıpsız veri sıkıştırma yöntemidir. Geometrik dağılımlı sonsuz girdi verisinin basit entropi kodlanmasıdır. Geometrik dağılım izleyen alfabeler en uygun ön kod olarak Golomb kodu alırlar. Girdi verisindeki küçük değerlerin tekrarlanmasının büyük değerlerden fazla olduğu durumlar için Golomb kodlaması oldukça uygun bir yöntemdir. Yarı sonsuz olasılık modelleri için kullanılan Huffman kodlama ile aynı olduğu söylenebilir (Seroussi ve Weinberger 1997).  Rice kodlama: Robert F.Rice tarafından tasarlanan ve daha sonra Pen-Shu Yeh ve Warner Miller tarafından geliştirilen bir kodlama yöntemidir. Golomb kodlaması gibi Huffman kodlama grubundan olan bu yöntem, uyarlanabilir Golomb kodlaması olarak da değerlendirilmektedir. Bu kodlamada negatif olmayan tamsayılar dizisi bloklara bölünmekte, daha sonra her bloğa Golomb kodlama uygulanmaktadır. Uzay Veri Standartları Danışma Komitesi (Consultative Committee on Space Data Standards, CCSDS) kayıpsız sıkıştırmada kullanılmak üzere bu yöntemin kullanılmasını tavsiye etmiştir (Sayood 2005).  Tunstall Kodlama: Bu yöntemi diğer Huffman kodlama grubundan ayıran en büyük özelliği, sembollerin tekrarlanma sıklıklarına göre kod uzunluğunun verilmemesi, her sembolün aynı uzunlukta kodlanmasıdır. Aynı uzunluktaki kod uzunluklarının sağladığı en büyük avantaj ise kodlamadaki hataların devamlılığının olmamasıdır. Değişken uzunluklu kodlarda ise bir hata sonrasında, takip eden hatalar serisi oluşmaktadır (www.rle.mit.edu).

26

 Shannon-Fano kodlama: Sembol setlerine ve bunların ölçülen veya tahmin edilen olasılıklarına bağlı olarak ön kod oluşturma tekniğine dayanmaktadır. Bu yöntem Huffman kodlamasındaki gibi en düşük muhtemel kod uzunluğunun elde edilmesini sağlayamaz, ancak bütün kod uzunluklarının teorik olarak ideal olan kod uzunluklarında olmasını garanti eder. Bu yöntemin, Shannon gürültüsüz kodlama teorisinin kanıtlanmasında kullanılan Shannon kodlama veya aritmetik kodlamadaki Elias kodlama olarak bilinen Shannon-Fano-Elias kodlama ile karıştırılmaması gerekir.

3.3.1.4.2. Aritmetik kodlama ()

Değişken uzunluklu entropi kodlama kullanan, Huffman kodlama gibi popülaritesi artmakta olan kayıpsız veri sıkıştırma yöntemidir. Özellikle ikili sistemde olduğu gibi daha küçük uzunluklu sembol gruplarıyla yapılan çalışmalarda oldukça kullanışlı bir yöntemdir. Entropi değerinin yüksek olduğu durumlarda Huffman kodlama yetersiz kalabilirken, aritmetik kodlama ile oldukça başarılı sonuçlar elde edilmiştir. ASCII kodunda olduğu gibi her karakter sabit sayıdaki bitlerle temsil edilir. Toplamda az sayıda bit kullanılacak şekilde, sıklıkla kullanılan karakterler daha az bitlerle, daha az kullanılanlar daha fazla bitlerle temsil edilirler. Girdi verisinin bileşen sembollere ayrıldığı ve her birinin bir kod ile yer değiştirildiği Huffman kodlamadan farklı olarak, aritmetik kodlamada bütün mesaj, kesir (fraction) adı verilen tek bir sayıya ( n, 0.0 ≤ n < 1.0) kodlanır (Salomon 2008). Huffman kodlama ile karşılaştırıldığında, aritmetik kodlamanın en büyük dezavantajı daha karmaşık bir yapıya sahip olması ve çok fazla hesap yükünün bulunmasıdır. Hesap yükü probleminin güçlü bilgisayar sistemleri ile çözülebilmesi durumunda hemen hemen her alanda Huffman kodlamaya üstünlük sağlayacaktır. Bu yöntemde değişken girdi istatistiklerine adaptasyon daha kolaydır, bir ağaç yapısının saklanma gerekliliği ve ön kodlama oluşturma zorunluluğu bulunmamaktadır. Bu özellik de Huffman kodlamada uygulanabilir gözükmeyen modelleme ve kodlama işlemlerinin ayrılabilmesine olanak sağlamakta, bu ayrım sıkıştırma sistemlerinin tasarımında büyük esneklik getirmektedir.  Aralık kodlama (Range coding): Aritmetik kodlama tekniklerinde ortaya çıkan problemlerini aşmak üzere ortaya çıkan bir yöntemdir. Konsept olarak aritmetik kodlamadaki gibi mesaj içerisindeki bütün semboller tek bir sayıya kodlanır

27

(Salomon 2008). Huffman kodlamaya göre daha büyük sıkıştırma oranları elde edilebilmektedir ve ikinin katları olmayan olasılıklarda Huffman kodlamanın karşılaştığı yetersizlikler bulunmamaktadır. Yöntem; veri seti aralıkların her defasında bölünerek, yeni alt aralıklar oluşturulmasına ve bu aralıklara kod değerleri atanarak kullanılmasına dayanmaktadır.

3.3.1.4.3. Evrensel kodlar (Universal codes)

Veri sıkıştırmada tamsayılar için evrensel kod, pozitif tamsayıları binary kodlara dönüştürmede adreslenen bir ön kodlamadır. Genelde tamsayılardaki çoğu ön kodlama, büyük tamsayılara büyük kodların atanması üzerine kurulur. Böyle bir kodlama, mesaj setlerinin sıralanarak olasılıklarının azaltılması ve oluşturulan mesaj indeksinin gönderilmesi esasına göre birçok mesaj haberleşmesinde etkin bir şekilde kullanılabilir. Evrensel kodlar hassas bir şekilde bilinen olasılık dağılımlarında genellikle kullanılmazlar ve uygulamada herhangi bir dağılım için en uygun olacak şekilde kullanılabilen bir evrensel kod bulunmamaktadır.  Elias gama kodlaması (): Peter Elias tarafından geliştirilen ve pozitif tamsayıların kodlanmasında kullanılan bir evrensel koddur. Kodlanan tamsayıların üst limitinin önceden belirlenemediği durumlarda yaygın bir şekilde kullanılmaktadır. Bu kodlama kodlanacak en büyük değerin bilinmediği ve veri içerisindeki küçük değerlerin büyük değerlerden çok daha fazla olduğu durumlarda kullanılmaktadır (Elias 1975).  Fibonacci kodlaması (): Matematikte Ficonacci kodlama, pozitif tamsayıları binary kodlara kodlayan bir evrensel koddur. Bu kodlamanın en büyük avantajı hatalara karşı fazla duyarlı olmamasıdır. Diğer kodlamalarda sıkıştırılmış veri içerisindeki bir bitin eksikliği veya hatası kendisinden sonra gelen bütün veriyi kullanışsız hale getirmekteyken, Fibonacci kodlamasında bir verinin hatası sadece bir veya iki veri sırasını elverişsiz hale getirir.

28

3.3.1.5. Slepian-Wolf kodlaması (Slepian-Wolf coding, SWC)

Kayıpsız Dağıtılmış Kaynak Kodlaması (Distributed Source Coding, DSC) olarak da adlandırılır. Veri sıkıştırma ile ilgili bilgisayar biliminde DSC, birbirleri ile iletişimi olmayan çoklu korelasyonlu bilgi kaynaklarının sıkıştırılmasıdır. Çözücü tarafındaki çoklu kaynaklar arasındaki korelasyonun kanal kodları ile birlikte modellenmesi sonucu, DSC kodlayıcıdan çözücüye hesap karmaşıklığını kaydırabilmektedir. Bu nedenle algılayıcı ağlar ve video/çoklu ortam sıkıştırmadaki gibi karmaşık sınırlamalı göndericilerdeki uygulamalarda en uygun çatı sağlanmaktadır. 1973 yılında David Slepian ve Jack Keil Wolf, istatistiksel bağımlı iki kaynağın dağıtılmış sıkıştırması ile sınırlı kayıpsız sıkıştırma bilgi teorisini ortaya koymuşlardır. Daha sonra sınırlama Thomas M.Cover tarafından ikiden fazla kaynağı içerecek şekilde geliştirilmiştir (www.scholarpedia.org).

3.3.2. Kayıplı sıkıĢtırma algoritmaları

3.3.2.1. Ayrık kosinüs dönüĢümü (Discrete cosine transform, DCT)

Ayrık kosinüs dönüşümü, sonlu sayıdaki veri noktaları dizisinin, farklı frekanslarda salınan kosinüs fonksiyonlarının toplamına dayanmaktadır. Bilimde ve mühendislikte sayısız uygulamada kullanılabilmesi yönüyle DCT algoritması büyük önem taşımaktadır. Küçük yüksek frekanslı bileşenlerin ihmal edildiği ses ve görüntülerin kayıplı sıkıştırılmasından, kısmi diferansiyel eşitliklerin nümerik çözümlerindeki spektral yöntemlere kadar farklı uygulamalarda kullanılabilmektedir. Ortalama tipik bir sinyalin modellenmesinde, daha az sayıda fonksiyonlara ihtiyaç göstermesi nedeni ile, sinüs fonksiyonlarından ziyade kosinüs fonksiyonlarının kullanılması önemlidir. Özellikle ayrık Fourier dönüşümüne benzer bir yapıya sahip olup sadece gerçek rakamların kullanıldığı Fourier ilişkili dönüşümdür (Günlü ve Bilge 2006). DCT algoritması güçlü enerji sıkıştırma yeteneği sayesinde özellikle kayıplı veri sıkıştırmada, sinyal ve görüntü işlemede sıklıkla kullanılmaktadır.

29

Düzenlenmiş ayrık kosinüs dönüşümü; AAC, Vorbis, WMA ve MP3 ses sıkıştırma formatlarında kullanılmaktadır. DCT aynı zamanda, JPEG görüntü sıkıştırma, MJPEG, MPEG, DV ve Theora video sıkıştırmada kullanılmaktadır. İki boyutlu N x N blokları hesaplanır, sonuçların nicelemesi yapılır ve entropi kodlanır. N sayısı genellikle 8’dir ve bloktaki her sütun ile satıra DCT formülü uygulanır. Sonuç, sol üst yani (0,0) elemanının sıfır-frekans bileşeni olduğu, 8x8’lik dönüşüm katsayı dizisidir ve düşey ile yataydaki yükselen indeks değerli girdiler, yüksek düşey ve yatay konumsal frekansları temsil etmektedir. NxM boyutlu bir f(x,y) görüntünün ayrık kosinüs dönüşümü;

2 M 1N 1 (2x 1)u  (2y 1)v  C(u,v)  (u)(v) f (x, y)cos  cos  (3.1) MN x0 y0  2M   2N  u=0,1,2,...,N-1; v=0,1,2,...,M-1 ters dönüşüm ise;

2 M 1N 1 (2x 1)u  (2y 1)v  f (x, y)  (u)(v)C(u,v)cos  cos  (3.2) MN u0 v0  2M   2N 

1 x=0,1,2,...,N-1; y=0,1,2,...,M-1; w=0 ise (w)  , değilse (w) 1 2 fonksiyonları ile tanımlanmaktadır (Pan ve ark. 2000).

3.3.2.2. Parçalı sıkıĢtırma ( compression)

Parçalar kullanan bir kayıplı görüntü sıkıştırma algoritmasıdır. Bir görüntüdeki parçaların çoğunlukla aynı görüntüdeki diğer parçalara benzemesi gerçeğinden yola çıkılan bu yöntem doğal görüntülere ve dokulara en uygun olandır. Parçalı algoritmalar bu parçaları parça kodları olarak adlandırılan matematiksel veriye dönüştürür ve bu parça kodları kodlanmış görüntüyü yeniden oluşturma aşamasında kullanılır. Parçalı sıkıştırmada herhangi bir pikselin kaydedilmemesi nedeniyle; JPEG, GIF ve MPEG gibi piksel tabanlı sıkıştırma algoritmalarından farklıdır. Diğer klasik sıkıştırma

30 algoritmalarından farklı olarak, görüntü bir kere parçalı koda dönüştürüldüğünde, görüntüde herhangi bir keskinlik kaybı olmaksızın herhangi bir ekran boyutunda yeniden oluşturulabilir. Parçalı görüntü temsili, matematiksel olarak iterasyonlu fonksiyon sistemi şeklinde tanımlanabilir (Fisher 1995). Parçalı sıkıştırmadaki kodlama işlemi ve aynı benzerliklerin bulunmasında kullanılan arama işlemi, hesaplanabilirlik açısından oldukça masraflıdır. Bununla birlikte yeniden oluşturma işlemi biraz daha hızlıdır. Bu asimetri, bu yöntemin gerçek zamanlı uygulamalarda kullanılabilirliğini elverişsiz hale getirmektedir. 50:1 oranına kadar olan ortak sıkıştırma oranlarında, parçalı sıkıştırma JPEG gibi DCT tabanlı algoritmalar ile benzer sonuçlar sağlamaktadır. Yüksek sıkıştırma oranlarında parçalı sıkıştırma kalite açısından diğer yöntemlere üstünlük sağlamaktadır. Bu yöntemin kullanılması ile, uydu görüntülerinde 170:1’in üzerindeki sıkıştırma oranlarında kabul edilebilir sonuçlar elde edilmiştir. Benzer şekilde 25:1 ile 244:1 oranları arasında parçalı video sıkıştırmasında, 2.4 ile 66 saniye/çerçeve aralıklarında kabul edilebilir sıkıştırma süreleri elde edilmiştir. Yüksek karmaşıklık ve renk derinliğinde siyah beyaz görüntüler ile karşılaştırıldığında sıkıştırma etkinliğinin arttığı görülmektedir.  Parçalı dönüĢüm (Fractal transform): Kayıplı görüntü sıkıştırma için uygulanan ve Michael Barsley tarafından bulunan bir tekniktir. Sayısal görüntüler için pratikte uygulanabilen bu ilk parçalı sıkıştırma, kod kitapçığı olarak görüntünün kendisini kullanan vektör nicelemeye () benzemektedir. Parça dönüşüm sıkıştırması şu şekilde çalışmaktadır. A1 sayısal görüntüsü 2 oranında örneklenerek A2 görüntüsü elde edilir. A1 görüntüsündeki 4x4 pikselden oluşturulan her B1 bloğu için, A2 görüntüsünde B1’e karşılık gelen ve B1’e en çok benzeyen B2 blokları tespit edilir. Daha sonra A2’den B2’ye gri tonlu veya renkli karşılıklar ve kazanımlar bulunur. Her hedef blok için kaynak blokların konumları ile renk karşılıkları ve kazanımları çıkartılır. Yeniden oluşturma aşamasında ise işlem sırası şu şekilde gerçekleşmektedir. A1 görüntüsü 2 ile örneklenerek A2 görüntüsü elde edilir. Sıkıştırılan veriden elde edilen A2 görüntüsü olduğu şekliyle A1 görüntüsü olarak kopyalanır. Sıkıştırma aşamasında elde edilen renk karşılıkları ve kazanımları kullanılarak hedef görüntü iyileştirilir (Fisher 1995).

31

3.3.2.3. Dalgacık kodlama (Wavelet encoding)

Dalgacık tabanlı dönüşüm uygulayan görüntü sıkıştırma yöntemleri, iyi görüntü kalitesi sağlamakla beraber yüksek oranlarda sıkıştırma sağlamada oldukça başarılı olmuştur (DeVore ve ark. 1992). Bu yöntem görüntü sıkıştırma için çok uygun olan bir veri sıkıştırma yöntemidir. Bazen video ve ses sıkıştırmada kullanılmakla beraber, en dikkate değer uygulaması JPEG2000’dir. Hedefi; görüntü verisini mümkün olan en küçük yer kaplayan dosya olarak kaydetmektir. Bu sıkıştırma yöntemi kayıplı veya kayıpsız olabilmektedir. Dalgacık dönüşümünün görüntü sıkıştırmada bir yöntem olarak kullanılmasının yanında, görüntü içerisindeki bazı istenmeyen lekelerin temizlenmesinde de kullanıldığı bilinmektedir. Örneğin fazla gürültüye sahip oldukları bilinen SAR görüntülerinden gürültünün temizlenmesi işlemi bu yöntem ile gerçekleştirilmektedir (Xing ve ark. 2008). Wavelet dönüşümü kullanan wavelet sıkıştırma yöntemleri, sesteki vurmalı çalgılar veya karanlık bir gecedeki yıldızların görüntüsünde olduğu gibi iki boyutlu görüntülerdeki yüksek frekanslı bileşenler gibi geçiş halinin temsil edilmesinde oldukça uygundur. Veri sinyalindeki geçiş elemanlarının, ayrık kosinüs dönüşümü gibi sıklıkla kullanılan diğer dönüşüm yöntemlerinden daha az bilgi içerecek şekilde temsil edilebilmesi anlamına gelmektedir. Wavelet sıkıştırma her çeşit veri grubu için en uygun yöntem olmayabilir. Geçişleri olan sinyal karakteristikleri için wavelet sıkıştırma uygun iken, düzgün veya periyodik sinyaller için Fourier dönüşümü kullanan klasik harmonik sıkıştırma yöntemleri ile daha iyi sıkıştırma yapabilmektedir. Bu sıkıştırma yöntemindeki işlem adımları şu şekildedir. Önce Wavelet dönüşümü uygulanır, bu işlem görüntüdeki piksellere ait çok sayıda katsayı üretir. Daha sonra bilginin istatistiksel olarak sadece küçük bir miktardaki katsayıların içerisinde tutulması nedeniyle, bu katsayılar kolaylıkla sıkıştırılır. Bu prensip dönüşüm kodlama olarak adlandırılmaktadır. Sonrasında katsayılar nicelenir ve nicelenen değerler entropi ve/veya ardışık tekrarlı kodlanır. Bu tekniğin görüntülerde kullanıldığı en yaygın formatlar arasında ECW ve JPEG2000 sayılabilir.

32

3.3.2.4. Vektör niceleme (Vector quantization)

Çeşitli kaynaklarda vektör kuantalama olarak da isimlendirilen vektör nicelemenin temel prensibi, sürekli girdi uzayı için, sürekli girdi uzayını, bilgi kaybını minimum tutacak sekilde ayrık çıktı uzayında yansıtmaktır. Ayrık girdi uzayı için ise, Q özellik içeren P vektörden olusan bir veritabanını, N

Sürekli Girdi Uzayı Ayrık Girdi Uzayı

ġekil 3.3. Vektör nicelemenin temel prensibi

Vektör niceleme, prototip vektörlerin dağılımıyla olasılık yoğunluk fonksiyonlarını modellemeye olanak sağlayan, sinyal işlemedeki klasik bir niceleme tekniğidir. İlk etapta veri sıkıştırma için kullanılan bir yöntemdir. Yöntem; büyük bir nokta verisinin (vektör olarak adlandırılmaktadır), Şekil 3.4’de gösterildiği gibi kendisine yakın olan yaklaşık aynı sayıdaki nokta sayısından oluşan gruplara bölünmesi, daha sonra her grubun k-means ve diğer kümeleme algoritmalarındaki gibi kendi merkez noktası ile temsil edilmesine dayanmaktadır (Gersho ve Gray 1992).

ġekil 3.4. Büyük bir nokta kümesinin vektör niceleme ile gruplara ayrılması ve merkezinin belirlenmesi

33

Özellikle büyük ve yüksek boyutlu verilerin yoğunluğunun belirlenmesinde, vektör nicelemenin yoğunluk eşleme özelliği kuvvetlidir. Veri noktalarının kendilerine en yakın merkez nokta adreslemesi ile temsil edilmesi nedeniyle, sıklıkla tekrar eden veriler düşük hatalara, seyrek veriler yüksek hatalara sahip olabilmektedir. Bu nedenle vektör niceleme kayıplı veri sıkıştırmaya oldukça uygun bir yöntemdir. Bu yöntem aynı zamanda kayıplı veri düzeltme ve yoğunluk tahmininde de kullanılabilmektedir. Blok niceleme veya patern eşleme niceleme olarak da adlandırılan vektör niceleme, çoğunlukla kayıplı veri sıkıştırmada kullanılmaktadır. Çoklu boyuttaki vektör uzayındaki verilerin, daha küçük boyutlardaki ayrık alt uzaylarındaki sonlu sayıdaki değerlerinin kodlanmasına dayanmaktadır. Alt uzay vektörleri daha az saklama alanına ihtiyaç duyduğu için veri sıkıştırılmış olur. Vektör nicelemenin yoğunluk eşleme özelliğine bağlı olarak, sıkıştırılmış veri kendi yoğunluğu ile ters orantılı olacak şekilde hataları ihtiva etmektedir. Dönüşüm genellikle projeksiyon ile veya kodlama kitapçığı kullanılarak gerçekleştirilmektedir. Yöntem çoğunlukla ses ve video verilerinin sıkıştırılmasında kullanılmaktadır.

3.3.2.5. Doğrusal tahmin kodlaması (Linear predictive coding, LPC)

Doğrusal tahmin modelindeki bilgileri kullanarak ses sinyal işleme veya konuşma işlemedeki spektral genişliğin sayısal sinyalinin sıkıştırılmış yapıda temsil edilmesinde çoğunlukla kullanılmaktadır. Yöntem cep telefonlarında ve kablosuz haberleşme cihazlarında olmak üzere, özellikle telefon şirketleri tarafından dijital ses sıkıştırmada kullanılmaktadır.  Wyner-Ziv kodlama (Wyner-Ziv coding, WZC): Kayıplı Dağıtılmış Kaynak Kodlaması (DSC) olarak da adlandırılır. Slepian-Wolf kodlama algoritmasına, bir niceleyici eklenmesi ile elde edilen bir algoritmadır. Bu sebeple Wyner-Ziv kodlayıcı tasarımı, niceleyici ve karşılık gelen yeniden oluşturma yöntem tasarımı üzerinde odaklanmıştır.

34

3.3.3. Niceleme (Quantization)

Niceleme; görüntü verisindeki sürekli değer gruplarının daha az sayıdaki (sonlu) değerler ile tahmin edilmesi işlemine karşılık gelmektedir. Veri sıkıştırma işleminde niceleme iki şekilde kullanılmaktadır. Birincisi; eğer sıkıştırılacak veri büyük sayılardan oluşmakta ise niceleme onları küçük sayılara dönüştürmede kullanılır. Küçük sayılar büyüklere göre daha az yer kaplar ve sıkıştırma gerçekleşir. Diğer taraftan küçük sayılar büyüklerine göre daha az bilgi taşıyabilmektedir, böylece niceleme sonucu kayıplı sıkıştırma olmaktadır. İkincisi; eğer sıkıştırılacak veri analog ise niceleme küçük sayılar ile sayısallaştırmada kullanılmaktadır. Daha küçük sayılar daha iyi sıkıştırma ancak daha fazla bilgi kaybı anlamına gelmektedir (Salomon 2008). Niceleyicinin girdisi orijinal veridir, çıktısı da belirli seviyedeki sayılardır. Niceleme fonksiyonu genellikle sonlu sayıdaki ayrık çıktı değerlerinden oluşmaktadır. İki çeşit niceleme bulunmaktadır; ölçeksel niceleme ve vektör niceleme. Ölçeksel nicelemede her girdi sembolü çıktıyı oluştururken ayrı ayrı ele alınırken, vektör nicelemede girdi sembolleri vektör adını alarak gruplandırılır ve çıktıyı oluşturmada beraber değerlendirilir. Bu gruplandırma ve beraber değerlendirilme süreci işlem yükünü arttırmaktadır. Niceleyici girdi veya çıktı verilerine göre de sınıflandırılabilmektedir. Eğer girdi verisi eşit mesafeli aralıklara bölünmüş ise düzenli niceleyici (uniform quantizer), bölünmemiş ise düzenli olmayan niceleyici (non-uniform quantizer) adını almaktadır. Düzenli niceleyici alt sınırın ve aralık mesafesinin tanımlanmasıyla kolaylıkla tanımlanabilir ve uygulamada kullanılması daha basittir. İnsan gözü geniş alanlardaki küçük aydınlık farklarını tespit etmekte ve yüksek frekanslı aydınlık değişimlerini ayırt etmede iyi değildir. Bu da yüksek frekanslı bileşenlerdeki gözün ayırt edemediği bilginin azaltılabileceği anlamına gelmektedir. Bu işlem frekanstaki her bileşenin o frekans için bir katsayıyla bölünmesi ve en yakın tam sayıya yuvarlanmasıyla gerçekleştirilir. Eğer DCT işlemi yüksek hassasiyetle gerçekleştirildiyse, bütün dönüşüm işlemi içerisindeki kayıbı, bu niceleme işlemi oluşturmaktadır. Bu işlem sonrasında birçok yüksek frekanslı bileşen sıfıra yuvarlanmakta, kalanların büyük bir bölümü de daha az bitlerle gösterilebilen pozitif veya negatif tamsayılara yuvarlanmaktadır.

35

3.3.4. Örnek sıkıĢtırma algoritmaları uygulamaları

 İndirme (): LZ77 ve Huffman kodlamasının birleşkesini kullanan kayıpsız veri sıkıştırma uygulamasıdır. Bu uygulama ilk olarak zip dosya formatını da tasarlayan Phil Katz tarafından geliştirilmiştir ve zip, gzip ve png dosyalarına kullanılmaktadır.  Lempel-Ziv-Markov zincir algoritması (LZMA): Microsoft Windows için 1998 yılından itibaren geliştirilen açık kaynak dosya depolayıcısı 7-Zip programı tarafından veri sıkıştırma için kullanılan bir algoritmadır ve işlem sonrası uzantısı 7z olan dosyaları oluşturur.  Lempel-Ziv-Oberhumer (LZO): Yeniden oluşturma hızı üzerinde yoğunlaşan kayıpsız veri sıkıştırma algoritmasıdır.  Lempel-Ziv-Extended (LZX): Jonathan Forbes ve Tomi Poutanen tarafından geliştirilen LZ77 ailesinden olan sıkıştırma algoritmasıdır.  Unix dosyalarını sıkıştırma (.Z dosya formatı) ve GIF dosya formatı oluşturulurken LZW kullanılmaktadır.  Unix dosyalarını paketleme (.z dosya formatı) işleminde Huffman kodlama kullanılmaktadır.  bzip2: Burrows-Wheeler dönüşümünü ve Huffman kodlamasının bileşimini kullanan ve Julian Seward tarafından geliştirilen açık kaynak kayıpsız veri sıkıştırma algoritmasıdır.  Ortalama Kalite İşlemi (Process Avarage Quality, PAQ): Kaynak karıştırma yöntemiyle çalışan çok yüksek bir kayıpsız veri sıkıştırmadır.  JPEG: Ayrık kosinüs dönüşümü, niceleme ve Huffman kodlama yöntemlerini kullanan kayıplı görüntü sıkıştırma ile elde edilen görüntü dosya formatıdır.  MPEG: Ayrık kosinüs dönüşümü ve video için hareket-dengeli tahmin yöntemi kullanan, geniş bir kullanım alanı olan ses ve video sıkıştırma standardıdır. - MP3: Alt bant kodlaması ve Değiştirilmiş Ayrık Kosinüs Dönüşümü, Algısal Modelleme, Niceleme ve Huffman Kodlama yöntemlerini kullanan, MPEG-1 standardında ses ve müzik sıkıştırma dosyası veya uzantısıdır. - AAC: Değiştirilmiş Ayrık Kosinüs Dönüşümü, Algısal Modelleme, Niceleme ve Huffman Kodlama yöntemlerini kullanan, MPEG-2 ve MPEG-4 ses kodlama özelliğidir.

36

 Vorbis: DCT yöntemi kullanarak, açık kaynak kayıplı ses sıkıştırma formatı veya yazılımıdır.  JPEG2000: Wavelet sıkıştırma, niceleme ve entropi kodlama yöntemleri kullanılmaktadır.  Gerçek Ses (True Audio, TTA) ve Serbest Kayıpsız Ses Kodlayıcısı (Free Lossless Audio , FLAC): Kayıpsız ses sıkıştırması için doğrusal tahmin kodlama yöntemi kullanan yöntemlerdir.

3.4. Görüntü Formatları

Bu başlık altında fotogrametrik uygulama yazılımlarında kullanılan görüntü formatları anlatılacak, uygulamada kullanılan JPEG2000 ve MrSid görüntü formatları detaylandırılacaktır. Görüntü dosya formatları ile ilgili özet bilgiler Çizelge 3.3’de gösterilmektedir.

Çizelge 3.3. Görüntü formatları özet tablosu

Renk Format Tam Adı SıkıĢtırma Algoritması Açıklama Derinliği Yok veya düşük 1, 4, 8, 16, Birçok iki boyutlu uygulamada BMP Windows Bitmap seviyede RLE 24, 32 kullanılmaktadır. Enhanced compressed Hava fotoğrafları ve uydu görüntüleri gibi ECW DWT - wavelet yer konuşlu görüntülerde kullanılır. Transparanlık ve animasyonu Graphics Interchange 1, 2, 3, 4, 5, GIF LZW destekleyebilen ve internette yaygın şekilde Format 6, 7, 8 kullanılan bir formattır. Amiga grafik donanımı için tasarlanan ILBM InterLeaved BitMap RLE Hepsi görüntü formatıdır. Joint Photographic Birçok program tarafından kullanılan JPEG DCT, RLE, Huffman 8, 12, 24 Experts Group kayıplı sıkıştırılmış görüntü formatıdır. Joint Photographic Kayıplı veya kayıpsız 8, 16, 24, JPEG yerine kullanılmak üzere geliştirilen JPEG2000 Experts Group 2000 DWT 32, 48 bir formattır. Multiresolution Yer konuşlu görüntülerin sıkıştırılmasında MrSID Seamless Image Kayıpsız Wavelet - ve hızlı bir şekilde görüntülenmesinde Database kullanılmaktadır. Az yer kaplayan ve kolaylıkla yeniden Personal Computer 1, 2, 4, 8, oluşturulabilen, halen PC Paintbrush PCX Yok veya RLE eXchange 24 tarafından kullanılan eski bir görüntü formatıdır. Yaklaşık JPEG2000 ile aynı zamanda Progressive Graphics Kayıplı veya kayıpsız 1, 8, 12, 16, PGF JPEG dosya formatını değiştirmek için File DWT 24, 32, 48 geliştirilen bir formattır. 1, 2, 4, 8, Macintosh işletim sistemi tarafından PICT Macintosh Picture Yok, RLE 16, 24, 32 kullanılan bir görüntü dosya formatıdır. 1, 2, 4, 8, Portable Network PNG Kayıpsız, DEFLATE 16, 24, 32, GIF formatı yerine geliştirilen bir formattır. Graphics 48, 64 1, 2, 4, 8, İşlenmiş veya editlenmiş görüntü verisini PSD Photoshop Document Yok veya RLE 16, 24, 32, tutan bir dosya formatıdır. 48, 64 Truevision Advanced 1, 2, 4, 8, Birçok 3D oyunda ve 3D dokulama TGA Raster Graphics Yok veya RLE 16, 24, 32 programında kullanılmaktadır. Adaptor Tagged Image File Yok, LZW, RLE, ZIP, 1, 2, 4, 8, TIFF Görüntü tarama ve görüntüleme formatıdır. Format vb. 16, 24, 32

37

Raster görüntülerin matematiksel fonksiyon şeklinde tanımlanması sayesinde, görüntüde yer alan verilerin yorumlanabilmesi için, sürekli fonksiyonlara uygulanan dönüşüm işlemleri yapılabilmekte ve ayrıca verilerle ilgili istatistiksel işlemler de uygulanabilmektedir. Görüntüyü sürekli bir fonksiyon olarak tanımlamak mümkün olmadığı için, önce görüntü sürekliymiş gibi düşünülür ve daha sonra çeşitli örnekleme yöntemleriyle bu sürekli fonksiyon ayrık fonksiyon şeklinde örneklenir (Açıkgöz ve ark. 1999).

3.4.1. TIFF (Tagged Image File Format)

Grafik sanatçıları, basım endüstrisi, fotoğrafçılar ve Macintosh kullanıcıları tarafından tercih edilen görüntü kaydetme dosya formatıdır. İlk olarak Aldus firması tarafından 1986 yılında ortaya çıkartılan bu formatın telif hakları, 2009 yılından itibaren Aldus firmasını bünyesine katan Adobe Systems firmasının kontrolüne geçmiştir. Masaüstü tarayıcı sağlayıcı her şirketin kendine özgü format kullanmasını önlemek amacıyla, 1980 ortalarında ortak bir taranmış görüntü dosya formatı elde etme çabaları sonucu oluşturulmuştur. Başlangıçta her tarayıcının rahatlıkla destekleyebilmesini sağlamak amacıyla her pikselde sadece iki olası değerin saklanabildiği, ikili sistemde görüntü formatı olmuştur. Tarayıcılar geliştikçe ve bilgisayarlardaki depolama alanları arttıkça TIFF formatı önce gri tonlamalı görüntülerde sonrasında da renkli görüntülerde kullanılmaya başlanmıştır. Günümüzde JPEG ve PNG ile birlikte yüksek renk derinliğine sahip popüler bir formattır. İki deneme sonrasında ilk olarak 1986 yılında sürüm 3.0 olarak çıkmış, küçük değişiklikler sonrası 1987'de sürüm 4.0 olmuştur. 1988 yılında renkli görüntü ve LZW sıkıştırma desteği eklenerek 5.0 sürümü oluşturulmuş, halen 6.0 sürümü kullanılmaktadır (www.partners.adobe.com). TIFF; boyut, tanımlama, uygulanan sıkıştırma gibi görüntü geometrisini tanımlayan başlık etiketlerinin içerildiği, görüntüyü ve verisini tek bir dosya içerisinde saklayabilen esnek ve uyarlanabilir bir dosya formatıdır. TIFF dosyası, örneğin kayıplı sıkıştırılmış JPEG ve kayıpsız sıkıştırılmış PackBits görüntülerini içeren bir taşıyıcı olabilmektedir. Görüntülerin kayıpsız olarak sıkıştırılarak saklanabilmesi yeteneği, TIFF dosya formatının arşivlenme amaçlarında kullanılabilmesine olanak sağlamaktadır. Dosya boyutunu düşürmek amacıyla kayıpsız veri sıkıştırma tekniği olan

38

LZW sıkıştırma yönteminin kullanılması önerilmektedir. LZW tekniğinin kullanımı patentli olduğu için, 2004 yılına kadar sınırlı bir şekilde yapılabilmiştir. Şu anda patent problemi bulunmamaktadır. TIFF formatının geliştirilmesi, uyumluluk problemlerini de beraberinde getirmiştir. Her TIFF okuyucusunun, JPEG, LZW sıkıştırma veya katmanların içerilmediği temel seviye TIFF görüntüsünü okuması gerekmektedir. Temel seviye TIFF görüntüsünde ise ardışık tektrarlı kodlamanın bir çeşidi olan PackBits sıkıştırma içerilmektedir. Birçok okuyucu temel seviye görüntü ile birlikte diğer etiketleri de okuyabilmektedir. Sonuç olarak TIFF formatı en küçük ortak bölen görüntü formatı olmuştur ve çoğu TIFF görüntüsü, sıkıştırılmamış 24-bit RGB veya 32-bit CMYK görüntüsünden oluşturulmaktadır. TIFF 6.0 sürümüne örnek format etiketinin eklenmesiye birlikte, kayan noktalı görüntülerin ve her kanalda 8 bitten fazla veri içerilen tamsayılı görüntülerin içerildiği gelişmiş piksel veri tiplerinin ele alınması olanaklı hale gelmiştir. Bu etiket sayesinde büyük hassasiyet gerektiren bilimsel görüntü işleme olanaklı hale gelmiştir. Bununla birlikte çoklu sayfa görüntülerinin kuralını oluşturan görüntü dizilerinin tek bir dosyada saklanması ve JPEG sıkıştırma etiketinin tutulması da bu sürümde mümkündür.

3.4.2. JPEG2000

Birleşik Fotoğrafik Uzmanlar Grubu komiitesi tarafından 2000 yılında ayrık cosinüs dönüşüm tabanlı JPEG standardının, yeni tasarlanan wavelet tabanlı yöntem ile değiştirilmesi sonrasında ortaya konulan bir kodlama sistemi ve görüntü sıkıştırma standardıdır. JPEG2000 çalışma grubunun hedefi; farklı tipteki (iki düzeyli, gri tonlamalı, renkli, çok bileşenli, hiper bileşenli), farklı karakteristiklere (doğal, bilimsel, uzaktan algılanmış, metin içeren, vb.) sahip, farklı görüntülenme modellerine (müşteri/sunucu, gerçek zamanlı iletim, arşiv amaçlı, sınırlı bant genişliğine sahip, vb.) olanak sağlayan, tercihen tek ve entegre bir görüntü standardını ortaya koymaktır (Gray 2002). JPEG ile karşılaştırıldığında en belirgin avantajı kod akışındaki esnekliktir. Skodras ve ark. (2001) tarafından JPEG2000 kodlama sistemi Şekil 3.5’de gösterildiği şekilde ifade edilmektedir.

39

ġekil 3.5. JPEG 2000 kodlayıcısı (a) ve çözücüsünün (b) genel ifadesi

JPEG2000 ile sıkıştırılan bir görüntüdeki kod akışı ölçeklenerek farklı yollar ile görüntü yeniden oluşturulabilir. Yani herhangi bir noktada kod akışının kesilmesiyle geriye kalan bölüm için daha farklı bir çözünürlükte görüntü elde edebilme imkanı bulunmaktadır. Kod akışının değişik yollarla sıralanabilmesi uygulamalarda belirgin bir şekilde performans artışı sağlamaktadır. Bununla birlikte bu esneklik doğal olarak kodlayıcıda ile çözücüde karmaşıklığı ve hesap yükünü beraberinde getirmektedir. Diğer bir farklılık ise görsel bozukluklarda ortaya çıkmaktadır. JPEG2000 görüntü kenarlarında dairesel bulanıklık oluşturmakta, JPEG görüntülerinde ise 8x8’lik bloklardan oluşması nedeniyle hem dairesel hemde bloklama bozuklukları oluşmaktadır. JPEG2000’in mevcut birçok özelliğinden bazıları Marcellin ve ark. (2000) tarafından sıralanmıştır: - Düşük bit oranlarında sıkıştırma performansı, - Kalite, çözünürlük, bileşen veya uzaysal konumluluk ile kademeli iletim, - Kayıplı veya kayıpsız sıkıştırma, - Bit sıralarına rasgele erişim, - Kaydırma, büyültme ve küçültme (sıkıştırılmış veri içerisinden sadece ilgili alanın çözülmesi), - Rotasyon veya kırpma gibi sıkıştırılmış çevre işlemleri, - Sadece ilgili alanın kodlanabilmesi, - Sınırlı hafıza uygulamaları. JPEG2000 sadece sıkıştırma performansını arttırmakla kalmamış, ölçeklenebilirlik ve editlenebilirlik gibi özellikleri de ilave etmiştir. JPEG2000

40 sıkıştırma yönteminde, çok düşük ve çok yüksek sıkıştırma oranları elde edilebilmektedir. JPEG2000 sıkıştırılmış yapıdayken, doğrudan kompleks meta veriyi kullanabilmektedir. Bu özellik de, kompleks bir ürünü basit bir şekilde gösterebilmesi açısından avantaj sağlamaktadır (Christophe ve ark. 2008).

3.4.3. MrSID (Multiresolution Seamless Image Database)

Ortofotolar gibi yer konuşlu raster görüntülerin kodlanması için LizardTech firması tarafından geliştirilen ve patentli bir dosya formatıdır. Kayıplı veya kayıpsız görüntü sıkıştırma yapabilmekte olup, şu anda kullanılmakta olan en son sürümü 4’üncü nesil MrSID’dir. Bu format ayrık dalgacık dönüşümü kullanmakta, alt görüntülerin yapısı içerisinde dalgacık dönüşümünün katsayıları tutulmakta, böylelikle istenilen büyültme seviyesinde ve istenilen alanda görüntü hızlı bir şekilde gösterilebilmektedir. Görüntüler hem lokal olarak, hem de ağlar üzerinden herhangi bir kayıp olmaksızın görüntülenebilmektedir (www.digitalpreservation.gov). Öncelikle coğrafi bilgi sistemleri için geliştirilen bir formattır. Aynı görüntü içerisinde çoklu çözünürlük ile ilgili değerler tutulabilmektedir. Görüntü içeriğine ve renk derinliğine bağlı olarak farklı sıkıştırma oranları elde edilebilmekte, uygulamada gri tonlamalı görüntülerde 20:1, renkli görüntülerde 50:1 oranları tercih edilmektedir (Zhang 2001). Hava fotoğrafları ve uydu görüntüleri gibi büyük boyutlu raster görüntüler sıkıştırılmakta ve bütün dosyanın yeniden oluşturulmasına gerek kalmadan kolaylıkla görüntülenebilmektedir. MrSID dosyalarının çoklu ölçek ve kalite seviyeleri içermesi nedeniyle, internet ortamındaki raster görüntülemede de çok uygun olduğu söylenebilir. Araştırma penceresine görüntünün sadece ilgili alanı ve büyültmesi gönderilmesi nedeniyle görüntülenme, navigasyon ve çizim performansı oldukça yüksektir. MrSID formatı ESRI, ERDAS, Autodesk, Intergraph ve diğer bütün önemli CBS yazılımları tarafından desteklenmektedir. GeoExpress, MrSID formatını okumada ve yazmada LizardTech tarafından geliştirilen yazılım paketidir. Bu formatın açık kaynak uygulamaları bulunmamaktadır. Verinin yeniden oluşturulması amacıyla kullanılan çözücü yazılım geliştirme kiti ücretsiz olarak firma tarafından sağlanması nedeniyle herhangi bir uygulamada MrSID formatı kolaylıkla okunabilmektedir.

41

MrSID teknolojisi başlangıç görüntüsünü oluşturmak amacıyla kayıpsız wavelet sıkıştırma kullanmaktadır. Sonra kodlayıcı tarafından bu görüntü büyültme seviyelerine, alt bantlara, alt bloklara ve bit seviyelerine bölünmektedir. İlk kodlama sonrasında görüntü oluşturucu sıfır veya fazla optimizasyon uygulamaktadır. 2:1 gibi sıkıştırma oranlarında kayıpsız veri elde edilebilirken, yüksek sıkıştırma oranlarında kayıplı sıkıştırılmış veri elde edilmektedir. MrSID seçici çözümleme kullanmaktadır, yani belirli bir alanın veya ekranın büyültme seviyesini ve görüntü kalitesini çözümlemek için tüm görüntünün çözümlenmesine ihtiyaç göstermemektedir.

3.4.4. JPEG

Fotoğrafik görüntülerin sıkıştırılmasında bilgisayar ortamında ve internette en yaygın olarak kullanılan kayıplı bir sıkıştırma formatıdır. JPEG, sürekli tondaki görüntüler için geliştirilen bir sıkıştırma yöntemidir. JPEG sıkıştırmanın ana hedefleri arasında; yüksek sıkıştırma oranlarının elde edilebilmesi, bir çok parametre kullanılabilmesi nedeniyle kullanıcıya istediği şekilde görüntüyü sunabilmesi, görüntü özelliklerinden bağımsız olarak sürekli tondaki görüntüleri sıkıştırabilmesi, birçok platformda kullanılabilen komplike fakat fazla karmaşık olmayan bir yöntem kullanması sıralanabilir (Wallace 1992, Salomon 2008). Uygulanan sıkıştırmanın derecesi, depolama için kullanılan disk alanı ve görüntü kalitesi ile doğrudan orantılıdır. JPEG sıkıştırma algoritması, görüntünün rengi ve tonlaması arasında yumuşak geçişler yapabilmektedir. Bununla birlikte keskin ayrımlar olan görüntülerde bu formatın kullanılması uygun değildir. Sıkıştırma sonrasında bu şekildeki görüntülerde, komşu piksellerdeki keskin kontrast farkları dikkate değer doku hatalarına sebebiyet vermektedir. Keskin kontrast farklarının bulunduğu görüntülerin kayıpsız sıkıştırma yöntemlerinden biriyle sıkıştırılması daha uygun olacaktır. Editlenecek görüntülerin JPEG ile sıkıştırılması uygun değildir. Görüntünün her defasında kodlanması ve yeniden çözülmesi görüntü kalitesinde kayıplara sebebiyet vermektedir. Genellikle kayıplı sıkıştırılmış olan bu formatın, kayıpsız olan bazı alternatifleri de bulunmaktadır. Ancak bu kayıpsız seçeneklerin çoğu programlar tarafından desteklenmemektedir. Sıkıştırma aşamasında görüntü 8x8 piksellik alt bloklara ayrılmakta ve her blokta ayrık kosinüs dönüşümü uygulanmaktadır. Daha sonra bu bloklar nicelemeye tabi tutulmaktadır. Niceleme sonrasında ardışık tekrarlı kodlama

42 ile benzer frekanslarda gruplar oluşturulur ve oluşturulan bu veri Huffman kodlama ile kayıpsız olarak sıkıştırılmaktadır. JPEG standardı Huffman kodlamaya göre matematiksel olarak daha üstün olan aritmetik kodlamayı da kullanabilmektedir. Aritmetik kodlamanın dosya boyutunu %5- %7 arasında daha küçük boyutlu hale getirebilecek olmasına rağmen, bu kodlamadaki lisans problemleri ve Huffman kodlamaya göre kodlamada ve yeniden oluşturmada daha fazla zaman almasından dolayı tercih edilmemiştir. Birleşik Fotoğrafik Uzmanlar Grubu (Joint Photographic Experts Group, JPEG) sürekli tondaki resimlerin kodlanması için standartların geliştirilmesinden sorumlu bir komitedir. En ünlü kayıplı görüntü sıkıştırma standardı bu grup tarafından ortaya konulmuştur. Bu çok kullanılan JPEG standardının ortaya konulduğu dönemlerde, aynı grup tarafından kayıpsız görüntü standartları da oluşturulmuştur. Bu kayıpsız JPEG sıkştırma standardında kullanıcının seçim yapabileceği 8 ayrı algoritma sunulmuştur. Birinci algoritmada kestirim bulunmamaktadır. Diğer algoritmalar ise şu şekildedir; Î(i, j)  I(i 1, j) (3.3)

Î(i, j)  I(i, j 1) (3.4)

Î(i, j)  I(i 1, j 1) (3.5)

Î(i, j)  I(i, j 1)  I(i 1, j)  I(i 1, j 1) (3.6)

Î(i, j)  I(i, j 1)  (I(i 1, j)  I(i 1, j 1)) / 2 (3.7)

Î(i, j)  I(i 1, j)  (I(i, j 1)  I(i 1, j 1)) / 2 (3.8)

Î(i, j)  (I(i, j 1)  I(i 1, j)) / 2 (3.9)

I(i, j) orijinal görüntüde (i,j) konumundaki pikselin değeri, Î(i, j) ise (i,j) konumundaki pikselin kestirilen değerini göstermektedir. Bu kestirim yöntemlerinin uyarlanabilir aritmetik kodlama ile elde edilen test değerleri Çizelge 3.4’de, koyu renklerle en iyi sıkıştırmayı gösteren değerlerin, GIF ve PNG formatları ile karşılaştırma sonuçları ise Çizelge 3.5’de gösterilmektedir (Sayood 2005).

Çizelge 3.4. Farklı JPEG kestirim yöntemlerinin karşılaştırılması

Görüntü Adı JPEG0 JPEG1 JPEG2 JPEG3 JPEG4 JPEG5 JPEG6 JPEG7 Sena 53,431 37,220 31,559 38,261 31,055 29,742 33,063 32,179 Sensin 58,306 41,298 37,126 43,445 32,429 33,463 35,965 36,428 Earth 38,248 32,295 32,137 34,089 33,570 33,057 33,072 32,672 Omaha 56,061 48,818 51,283 53,909 53,771 53,520 52,542 52,189

43

Çizelge 3.5. Kayıpsız JPEG, GIF ve PNG karşılaştırılması

Görüntü Adı En İyi JPEG GIF PNG Sena 29,742 51,085 31,577 Sensin 32,429 60,649 34,488 Earth 32,137 34,276 26,995 Omaha 48,818 61,341 50,185

3.4.4.1. Kayıpsız JPEG (Lossless JPEG)

Kayıplı JPEG standardından tamamen farklı bir teknik kullanılarak geliştirilmiştir. Üç en yakın komşu (üst, sol ve sol-üst) piksele dayalı tahmin algoritması ve tahmin hatalarında da entropi kodlama kullanmaktadır. Bağımsız JPEG Grubu kütüphanesi tarafından desteklenen standart bir format değildir, ancak bu kütüphane tarafından desteklenebilmesi amacıyla bir ara program geliştirilmiştir. Bu format medikal görüntülemede, sayısal negatif dosyalarda ve bazı dijital kameralarda ham görüntüleri sıkıştırmada kullanılmaktadır. Yaygın bir kullanımı geliştirilmemiştir. Kayıplı JPEG formatında DCT kullanılmaktadır, ancak kayıpsız JPEG yönteminde Diferansiyel Darbe Kod Modülasyonu (DPCM) olarak adlandırılan basit tahminsel kodlama modeli kullanılmaktadır. Bu model, görüntüde kodlanmış olan en yakın komşulardan tahmin edilen örnek değerlerin kestirilmesine dayanmaktadır. DPMC’de her örneğin bağımsız olarak kodlanması yerine, kestirilen örnekler arasındaki farklar kodlanır. Bir örnek ile bir sonraki arasındaki farklar genelde sıfıra yakındır. Bütün örneklerin kestirimi tamamlandığında, örnekler arasındaki farklar hesaplanır ve Huffman kodlama veya aritmetik kodlama ile kayıpsız olarak entropi kodlanır (Salomon 2004).

3.4.4.2. JPEG-LS

JPEG-LS, modelleme ve kodlama olarak adlandırılan bağımsız ve ayrık iki aşmadan oluşan basit ve etkin bir algoritmadır. Bu yöntem kayıpsız JPEG yönteminden daha iyi sıkıştırma verimliliği sağlayabilmek amacıyla geliştirilen, düşük karmaşıklıklı kayıpsız veya yaklaşık kayıpsız görüntü sıkıştırma standardıdır. Daha önce bahsedilen

44

CALIC algoritmasına oldukça yakın bir yöntem kullanmaktadır. Geliştirilmesinin bir diğer sebebi ise, o dönemlerde Huffman kodlama tabanlı kayıpsız JPEG standardının ve diğer standartların sıkıştırma performansının sınırlı olmasıdır. Çekirdek JPEG-LS algoritması; kestirime, artık modellemeye ve artıkların kaynak tabanlı kodlanmasını kullanan LOCO-I algoritmasına dayanmaktadır (Weinberger ve ark. 2000). Sayood (2005) tarafından 4 adet görüntü kullanılarak, klasik JPEG, JPEG-LS ve CALIC algoritmalarından elde edilen sonuçlar Çizelge 3.6’da görterilmektedir. JPEG- LS ile CALIC algoritmalarının çok birbirine çok yakın değerlere sahip olduğu ve klasik JPEG görüntüsüne oranla %6-%18 arasında daha iyi performans verdiği görülmektedir.

Çizelge 3.6. JPEG, JPEG-LS ve CALIC karşılaştırılması

Görüntü Adı JPEG JPEG-LS CALIC Sena 31,055 27,339 26,433 Sensin 32,429 30,344 29,213 Earth 32,137 26,088 25,280 Omaha 48,818 50,765 48,249

LOCO-I (LOw COmplexity LOssless COmpression for Images): Sürekli tonlamaya sahip görüntülerde kayıpsız veya yaklaşık kayıpsız sıkıştırma standardıdır. Her kayıpsız sıkıştırma algoritmasında olduğu gibi bu yöntem de üç aşamadan oluşmaktadır: kestirim, kaynak belirleme ve artık değer kestirimi için olasılık modeli. Bu yöntemdeki tahminci aynı zamanda orta değer kenar bulucu (median edge detector) olarak da adlandırılmaktadır. Kaynak modelleme aşaması, parametre belirleme ve kaynak belirleme aşamasından oluşur. Sonrasında da kodlama işlemi gerçekleştirilir. Kodlama öncesindeki modelleme aşaması iki önemli adımdan oluşmaktadır: dekorelasyon (kestirme) ve hata modelleme. Çalışma sonrasında elde edilen KOH değerlerinin JPEG2000’den daha düşük olduğu test edilmiştir. Çeşitli görüntüler kullanılarak elde edilen test sonuçları Çizelge 3.7’de gösterilmektedir (Weinberger ve ark. 2000).

45

Çizelge 3.7. Farklı görüntüler ile elde edilen karşılaştırma sonuçları

(Sonuçlar bit/piksel olarak verilmektedir.)

3.4.5. ECW

Hava fotoğrafları ve uydu görüntülerinin kullanımı için geliştirilen wavelet sıkıştırma formatıdır. Halen ERDAS firmasının sahibi olduğu ECW formatı, ilk olarak Earth Resource Mapping firması tarafından geliştirilmiştir. Çok az RAM kullanarak çok büyük boyutlu görüntüleri sıkıştırmada kullanılabilen önemli bir formattır. ECW tekniğinin hızlı bir şekilde sıkıştırma yapabilmesini sağlayan sebepler şu şekilde sıralanabilir: görüntü parçalarını hızlı bir şekilde diske yazar, DWT dönüşümü sırasında çağırır ve DWT işlemi sırasında bilgisayardaki işlemcinin yeteneklerini çok iyi kullanır. 3:1 sıkıştırma oranı orijinal görüntüye oldukça yakın sonuçlar vermektedir (www.gisdevelopment.net). JPEG2000 görüntü standartının çıkmasından sonra, geliştirilen ilave bir yazılım ile JPEG2000 formatının ECW içerisine yazılması mümkün olmuş ve yazılım geliştirme arabirimi ERDAS ECW JPEG2000 SDK olarak adlandırılmıştır. Yer konumlu uygulamaları destekleyebilmek amacıyla harita projeksiyon bilgileri ECW içerisine aktarılabilmektedir. Görüntü verisi, 1GHz işlemci ile saniyede 1.5 Mbyte olacak şekilde sıkıştırılabilmektedir.

46

3.4.6. GIF (Graphics Interchange Format)

1987 yılında CompuServe firması tarafından geliştirilen bit adresli görüntü formatıdır. Geniş destek ve uygunluğu nedeniyle internet ortamında sıklıkla kullanılmıştır. Her pikselde 8 bit adreslenen bu formatta 256 renk derinliği elde edilebilmektedir. Renkler 24-bit RGB renk uzayından elde edilmekte, aynı zamanda animasyonu destekleyebilmektedir. GIF formatındaki renk sınırlaması nedeniyle, renkli fotoğraflarda ve sürekli tonlamaya sahip diğer görüntülerde kullanımı uygun olmayıp, grafik veya logo gibi sabit renk alanlarından oluşan basit görüntülerin kullanımı için çok uygundur. GIF görüntüleri, herhangi bir görsel kayıp olmaksızın görüntü depolama boyutunu azaltan LZW kayıpsız veri sıkıştırma tekniği ile sıkıştırılmaktadır. GIF görüntüyü satır satır taramaktadır. Dolayısıyla aynı satırdaki pikseller arasındaki korelasyonu bulabilmekte, ancak satırlar arasındaki korelasyonu kuramamaktadır. Görüntü iki boyutlu olsa bile, GIF bu haliyle bir boyutludur ve bu sebeple GIF sıkıştırma yeterli değildir (Salomon 2004). 1994 yılında patentli olan bu sıkıştırma tekniğinin kullanımı ile ilgili ortaya çıkan problemler sonrasında PNG standardının geliştirilmesine başlanılmıştır. Keskin renk kenarlarına ve sabit renkli alanlara sahip olması nedeniyle, sıkıştırmaya çok uygun olan bu görüntü formatının, dijital fotoğraflarda, hava fotoğraflarında ve uydu görüntülerinde kullanımı yaygın değildir.

3.4.7. PNG (Portable Network Graphics)

Kayıpsız veri sıkıştırma ile elde edilen bit adresli görüntü formatıdır. Patent problemi bulunmayacak şekilde GIF formatını geliştirmek ve yer değiştirmek üzere, 1990 ortalarında Thomas Boutell başkanlığındaki PNG geliştirme grubu tarafından geliştirilmeye başlanmış ve Ekim 1996’da çalışma sonuçlandırılmıştır (Salomon 2004). PNG internetteki görüntülerin transfer edilmesi amacıyla tasarlanmıştır, bu nedenle CMYK gibi RGB olmayan renkli görüntüleri desteklemez. GIF dosyalarında kullanılan LZW veri sıkıştırma algoritmasının Unisys tarafından patentleşmesi ve GIF renk sınırı olan 256’dan daha fazla renk içeren görüntülerin kullanımının yaygınlaşması sonrasında, GIF gibi animasyona olanak

47 sağlamayan ve sadece tek görüntü formatını destekleyecek şekilde yeni bir format oluşturulmasına karar verilmiştir. 1996 yılında ilk sürümü ile kullanımına başlanılmıştır. PNG iki aşamalı sıkıştırma işlemi kullanmaktadır. İlk aşamada filtreleme veya kestirim olarak da adlandırılan ön sıkıştırma gerçekleştirilmekte, ikinci aşamada ise LZ77 uyarlaması olan, indirme (deflate) olarak bilinen ve patent problemi bulunmayan kayıpsız veri sıkıştırma metodu kullanılmaktadır.

3.4.8. BMP (Windows BitMap)

Windows 1.0 için oluşturulan orijinal bitmap formatı çok basit bir yapıya sahiptir. Sabit renk paleti mevcuttur ve veri sıkıştırma desteklenmemektedir. Bu ilk format DDB (device-dependent bitmap) olarak da bilinmektedir, dosya başlık bilgisinin hemen ardından resim verisi gelmektedir. Windows 2.0 ile birlikte BMP formatı da geliştirilmiştir. Sonraki bu sürümler DIB (device-independent bitmap) dosya formatı olarak da adlandırılır. Bu sürümlerde dosya başlık verisi, bitmap başlık verisi, renk palet bilgisi ve ardından resim verisi gelmektedir. Özellikle Windows işletim sisteminde bit adresli dijital görüntülerin depolanmasında kullanılan bir görüntü dosya formatıdır. Sıkıştırılmamış BMP dosyalarında görüntü pikselleri, her pikselde 1, 4, 8, 16, 24 veya 32 bit renk derinliği ile saklanır. 8 bit veya daha az görüntüler gri tonlamalı ve renk adreslidir. Alpha kanalı olarak adlandırılan ve 24 bitlik bir görüntüyü 32 bite çıkaran bir dördüncü kanal ayrı bir dosya içerisinde saklanabilir. Bu format kayıplı veya kayıpsız herhangi bir yolla sıkıştırılmış dosyalardan daha fazla yer tutmaktadır (www.fileformat.info). Genellikle RGB renk modeli kullanılmaktadır. Diğer raster görüntü tarama veya adresleme sistemlerinden farklı olarak, piksellerin adreslenmesi yukarıdan aşağıya doğru gerçekleştirilir. BMP dosya formatının basitliği, Windows veya herhangi bir ortamda rahatlıkla kullanılabilmesi, patent probleminin bulunmaması ve çok fazla dokümante edilmiş olması nedenleri ile herhangi bir işletim sistemindeki görüntü işleme programlarının rahatlıkla okuyup yazabildiği genel bir format olmuştur. BMP dosyalarının herhangi bir sıkıştırmadan yoksun olması veya genellikle düşük oranda ardışık tekrarlı kodlama ile sıkıştırılmış olması nedeniyle boyutları oldukça büyüktür. Bu dosyalardaki yaklaşık %0.1 boyutundaki fotoğrafik olmayan artık veriler, ZIP gibi

48 kayıpsız veri sıkıştırma algoritmaları kullanılarak sıkıştırılabilir. Ancak bunu sıkıştırılmış görüntü olarak adlandırmak yanlış olacaktır.

3.5. SıkıĢtırmadaki Performans Kriterleri

Bir sıkıştırma algoritması çok sayıda farklı yöntem ile değerlendirilebilir. Algoritmanın relatif karmaşıklığı, algoritmayı uygulamak için gerekli hafıza, belirlenen bir sistem konfigürasyonunda algoritmanın sağladığı hız, sıkıştırma miktarı ve yeniden oluşturulan verinin orijinal veriye ne kadar benzediği ölçümü yapılabilecek değerlerdir. Bu değerleden bizim için önemli olan ölçüt ise, yeniden oluşturulan görüntünün, yaklaşık aynı doğruluk değerleri ile görüntü kalitesini elde edebilecek şekilde orijinal görüntüye ne kadar benzeyeceği veya orijinal görüntünün hangi oranlarda sıkıştırılabileceğidir. Bir sıkıştırma algoritması kullanılarak sabit bir veri kümesinin ne derecede sıkıştırıldığı tespitinin en belirgin yöntemi; orijinal verinin temsil edilmesi için gerekli olan bit sayısı ile sıkıştırma sonrası elde edilen veriyi temsil etmek için gerekli olan bit sayısının karşılaştırılmasıdır. Elde edilen değer sıkıştırma oranı (compression ratio) olarak adlandırılmaktadır. Örneğin 256 x 256 pikselden oluşan bir görüntü 65,536 byte’lık bir depolama alanı gerektirmektedir. Sıkıştırma sonrasında elde edilen görüntünün depolanması için gerekli olan alan 16,384 byte olsun. Bu durumda sıkıştırma oranının 4:1 olduğunu söylememiz yanlış olmaz. Elde edilen yeni değerin orijinal değerden çıkartılması sonucu ortaya çıkan değer ise, sıkıştırma oranının başka bir ifade şekilde ifade edilmesine olanak sağlar. Aynı görüntü örneğini kullanacak olursak, orijinal görüntünün %75 sıkıştırıldığı söylenebilecektir. Sıkıştırma performansının raporlanmasında kullanılan bir başka yol ise; tek bir görüntü örneğini temsil etmek için gerekli olan ortalama bit sayısıdır. Bu sayı genellikle değer (rate) olarak adlandırılır. Kayıplı sıkıştırmada elde edilen veri her zaman orijinal veriden farklıdır. Bu nedenle sıkıştırma algoritmasının etkinliğini belirlemek için bir şekilde oluşan farklılıkları belirlememiz gerekmektedir. Orijinal veri ve yeniden oluşturulan veri arasındaki farklar genellikle distorsiyon (distortion) olarak adlandırılır. Kayıplı sıkıştırma teknikleri genellikle ses ve video gibi analog sinyallerden oluşturulan veri

49 gruplarında kullanılmaktadır. Ses ve video verilerinin sıkıştırılmasında sonuç ürünün kalitesini belirleyen insan faktörüdür. İnsan tepkilerinin matematiksel olarak modellenmesinin zor olması nedeniyle, yeniden oluşturulan verinin kalitesini belirleyebilmek amacıyla, distorsiyon belirlenmesinde çok sayıda yaklaşık kriterler kullanılmaktadır. Orijinal ve yeniden oluşturulan veri arasındaki farklılıklarda kullanılabilecek diğer terimler ise uygunluk (fidelity) ve kalite (quality)’dir. Yeniden oluşturulan verinin uygunluğu veya kalitesi yüksektir dediğimizde, orijinal veri ile yeniden oluşturulan veri arasındaki farkın az olduğu anlaşılması gerekir. Ancak bu farkın matematiksel mi yoksa algısal mı olduğu da önemlidir. Bu ayrım Liu ve ark. (2005) tarafından şu şekilde belirtilmiştir. “Görüntü işlemedeki uygunluğun belirtilmesinin iki ölçütü vardır: objektif ve sübjektif. Sübjektif uygunluk ölçütü insan gözlemlerinden elde edilen değerlendirmelere göre oluşturulmakta, objektif uygunluk ölçütü ise matematiksel temellere dayanmaktadır.” Yapılacak çalışmada her ikisi birden ele alınacaktır. Görüntü kalitesinin en iyi şekilde temsil edilmesi veya belirlenebilmesi için beş adet kriterin kullanılması önerilmektedir. Bu beş kriter; maksimum mutlak fark (maximum absolute difference), ortalama mutlak hata (mean absolute error), relatif KOH (relative RMSE), spektral uygunluk (spectral fidelity) ve görüntü kalite indeksidir (image quality index). Görüntülerin sıkıştırılmasından sonra veya bir takım işlemlere tabi tutulmasından sonra meydana gelen bilgi kayıplarının belirlenmesi amacıyla kalite unsurunun mutlaka kolaylıkla ölçüme uygun olması gerekmektedir (Christophe ve ark. 2008).

3.6. SıkıĢtırmadaki Distorsiyon Kriterleri

Kayıpsız bir sıkıştırmaya baktığımızda yeniden oluşturulan bir verinin orijinalden ne kadar farklı olduğu konusunda endişelenmemize gerek yoktur. Ancak gerçek uygulamalarda kayıpsız sıkıştırma ile elde edilen çok az bir veri grubu bulunmaktadır. Sıkıştırma seviyesinin uygulanacağı bir eşik düzey vardır ki, bu da elde etmek istediğimiz bilgi miktarı ile doğrudan ilişkilidir. Kaynaktaki bütün veriyi muhafaza etmek istesek de, entropi temel sınırdır. Çeşitli durumlarda kayıpsız sıkıştırma algoritmaları kullanılarak sınırlı miktardaki sıkıştırma uygun olabilmektedir. Veri depolama veya iletme birimlerimiz

50 yeterli ise veya kaybedeceğimiz bilgi miktarının maliyeti ilave depolama ve iletim maliyetinden düşük ise, kayıpsız sıkıştırma sonrası elde edilecek veri kabul edilebilecek seviyededir. Bu durumlar haricinde kayıplı sıkıştırma algoritmalarımızın etkinliğini belirlemek amacıyla performans ölçütleri gereklidir. Kayıpsız sıkıştırma algoritmalarında genellikle sıkıştırma oranı performans ölçütü olarak kullanılmaktadır. Ancak bu durum kayıplı yöntemler için uygun değildir. Bu sebeple sıkıştırma oranları haricinde ilave performans ölçütlerine sahip olmamız gerekmektedir. Bunlardan bir tanesi, orijinal veri ile yeniden oluşturulan veri arasındaki farkların ölçüsü olan distorsiyondur. Arzulanan durum, sıkıştırmada en az distorsiyon olacak şekilde en fazla sıkıştırma oranını elde etmek şeklindedir. Olağanüstü durumlarda eğer iletilecek hiçbir bilgi yoksa oran sıfırdır veya bütün bilgiyi koruduğumuzda distorsiyon sıfırdır. Ayrık kaynak oranı basitçe entropidir. Bu iki olağanüstü durum arasındaki seçenekler ile ilgili çalşmaya oran distorsiyon teorisi (rate distortion theory) adı verilir. Orijinal veri ile yeniden oluşturulan veri arasındaki yakınlık veya uygunluk nasıl ölçülecektir? Bu sorunun cevabı genellikle hangi türdeki bir verinin sıkıştırılacağı ile ilgilidir, sonrasında ise cevabı kimin vereceğine bağlıdır. Sanatsal bir tablonun sıkıştırma sonrasındaki kalitesi ile ilgili verilecek cevabın bir emlakçı tarafından verilmesi veya satışa sunulan bir ev resminin sıkıştırma sonrasındaki kalitesi ile ilgili cevabın bir ressam tarafından verilmesi ne kadar doğru olacaktır? Bir de cevabı verecek kişnin insan olduğunu unutmamamız gerekir. Yani aynı görüntü ile ilgili yorumlar kendi meslekleri ile ilgili olsa bile kişiden kişiye değişebilmektedir. Bu durumda bilimsel çalışmalar için insan yorumundan daha farklı ölçütler kullanmamız gerekliliği ortaya çıkmaktadır. Yeniden oluşturulan veri ile orijinal veri arasındaki distorsiyonu belirlemek için fark distorsiyon ölçütleri (difference distortion measures) olarak adlandırılan ölçütler kullanılmaktadır: karesel hata ölçütü ve mutlak fark ölçütü. Kaynak veri xn  , yeniden oluşturulan veri yn  ile gösterecek olursak; karesel hata ölçütü; d(x, y)  (x  y)2 (3.10) mutlak hata ölçütü; d(x, y)  x  y (3.11)

şeklinde olacaktır.

51

Bu hata ölçütleri ile, çeşitli sıkıştırma tekniklerinin karşılaştırılmasında kullanılan karesel ortalama hata (KOH) ile pik sinyal gürültü oranını (peak signal to noise ratio, PSNR) elde edebiliriz. f x, y orijinal görüntüyü, fˆx, y sıkıştırılmış görüntüyü, M ve N ( x 1,2,..., N; y 1,2,..., M ) görüntü boyutlarını temsil etmek üzere; Karesel Ortalama Hata (KOH):

M 1N 1 2 1 ˆ 2 KOH  f x, y f x, y   e (3.12) MN x0 y0

Pik Sinyal Gürültü Oranı (PSNR): Yeniden oluşturulan görüntünün radyometrik bozulmasının bir göstergesidir. PSNR değeri her ne kadar KOH ile bağlantılı olsa da görüntünün bit sayısı da önemli ölçüde değeri değiştirmektedir.

OrijinalGörüntününDeğerAralığı2 PSNR  10 log (3.13) 10 KOH

2552 Örneğin 256 renk seviyeli gri tonlamalı bir görüntüde, PSNR  10log olur. 10 KOH Entropi: Kaynak çıktının ortalama bilgisi belirsizlik veya kaynağın entropisi olarak adlandırılır. Entropi, tek bir kaynak çıktının gözlenmesiyle elde edilen ortalama bilgi miktarını tanımlamaktadır. Yüksek entropi değeri fazla belirsizliği ve kaynakla ilişkili fazla bilgiyi ifade eder. (x,y) konumundaki pikselin oluş olasılığı P(x,y) ile gösterilirse;

M 1N 1 Entropi   P(x, y)log P(x, y) (3.14) x0 y0 olarak ifade edilir. Uygunluk (fidelity): Uygunluk orijinal görüntü ile yeniden oluşturulan görüntü arasındaki benzerliktir. Başka bir ifade ile yeniden oluşturulan görüntüdeki geometrik distorsiyondur. Orijinal ve yeniden oluşturulan görüntüdeki gri değerler, g ij ve g ij ile temsil edildiğinde;

52

m n  (gij .gij ) i1 j1 Uygunluk( fidelity )  m n (3.15) 2  gij i1 j 1 olarak ifade edilir. Kayıpsız sıkıştırmalarda uygunluk 1.0 ve PSNR sonsuzdur. Uygunluk 0.99 ve PSNR 42’den büyük ise sıkıştırma, yaklaşık kayıpsız sıkıştırma olarak adlandırılabilir (Liu ve ark. 2005). Kayıplı video ve görüntü sıkıştırmadaki PSNR değerlerinin 30-50 değerleri arasında olduğu belirtilmektedir (Anonymous, 2011). Görüntü sıkıştırma ile ilgili radyometrik bozulmaları inceleyen kaynakların tamamında, yüksek PSNR değerlerinin sıkıştıma kalitesinin iyi olduğunun bir göstergesi olduğu, düşük PSNR değerlerinin iyi olmadığı şeklinde genel ifadeler ile karşılaşılmaktadır. Ancak kayıpsız sıkıştırma, kayıplı sıkıştırma veya yaklaşık kayıpsız sıkıştırmanın hangi aralıklarda olduğu, net bir şekilde belirtilmeyerek, sadece tavsiye niteliğinde daha fazla test çalışmalarının yapılması gerektiği belirtilmiştir. KOH ile PSNR arasında ters orantı vardır. Yani düşük KOH, yüksek PSNR anlamına gelir. Sinyal orijinal görüntüyü, gürültüde yeniden oluşturulan görüntüdeki hatayı göstermesi nedeniyle, yüksek PSNR değeri, sıkıştırma sonucunun iyi olduğunun göstergesidir. Uygulamada her veri için bu farkları belirlemek çok zordur. Bu sebeple fark dizisindeki bilgiyi özetlemek amacıyla belli sayıda ortalama ölçüm kullanılmaktadır. Ortalama değerde en yaygın kullanılan ölçüt, karesel ortalama hata olarak adlandırılan karesel hata ölçümlerinin ortalamasıdır. Özellikle görüntü sıkıştırma algoritmalarının değerlendirilmesinde oldukça yararlı olan, ancak karesel ortalama hata kadar sık kullanılmayan diğer ölçüt ise ortalama mutlak farktır (d);

1 N d   xn  yn (3.16) N n1

53

3.7. Modelleme ve Kodlama

Uygulamada kullanılacak sıkıştırma yönteminin kayıplı mı yoksa kayıpsız mı olacağının kararı, yeniden oluşturmadaki gereksinimler ile belirlenir. Kullanılacak kati sıkıştırma tekniğinin seçimi, çok sayıda farklı faktörlere bağlıdır. Sıkıştırılacak verinin karakteristik özellikleri en önemli faktörlerdir. Metin verisinin sıkıştırılmasında çok başarılı sonuçlar veren bir sıkıştırma tekniği, görüntülerin sıkıştırılmasında iyi sonuç vermeyebilir. Eğer sıkıştırma bir bilim olarak ele alınırsa, bunun deneysel bir bilim olduğu unutulmamalıdır. Belirli bir uygulama için bir sıkıştırma yönteminin çok iyi sonuç vermesinin esas nedeni, uygulamada kullanılan veri kümesinin içerinde yer alan büyük miktardaki fazlalıklardır. Farklı türdeki veriler için geliştirilen veri sıkıştırma algoritmaları iki aşamaya bölünebilir. Birinci aşama genellikle modelleme (modeling) olarak adlandırılır. Bu aşamada veri içerisinde herhangi bir fazlalığın bulunup bulunmadığı bilgisi tespit edilir ve bu fazlalığın model olarak tanımlanmasına çalışılır. İkinci aşama ise kodlama (coding) olarak adlandırılır. Model tanımlaması ve verinin belirlenen modelden ne şekilde farklı olduğunun tanımlaması, genellikle ikili (binary) sistem kullanılarak kodlanır. Hazırlanan model ve gerçek veri arasındaki farklar çoğunlukla artık (residual) olarak adlandırılır (Sayood 2005). Kaynak verinin entropisinin tahmin edilmesinde iyi bir modele sahip olmak yararlı olacaktır. İyi bir model daha etkin sıkıştırma algoritmalarına olanak sağlar. Matematiksel işlemler kullanılarak verinin işlenmesi için teknikler geliştirmek, veriye ait matematiksel modele sahip olmakla mümkün olur. Başarılı olarak nitelendirilen bir tekniğe sahip olmak için en iyi modelin oluşturulması aşikardır. Matematiksel modelin kurulması için çeşitli yaklaşımlar mevcuttur: Fiziksel Modeller: Eğer veri oluşturma işleminin fiziği hakkında birşeyler biliyorsak bu bilgiyi model oluşturmakta kullanabiliriz. Eğer model geliştirmek için belirlenen fiziksel model çok karmaşıksa, veri istatistiklerinin deneysel gözlemlerine dayanarak bir model oluşturulabilir. Olasılık Modelleri: Veri kaynağı için en basit istatistiksel model; kaynak tarafından oluşturulan her sembolün diğer bütün sembollerden bağımsız olduğunu ve herbirinin aynı olasılıkla oluştuğunu kabul etmektir. Kaynak hakkında hiçbir şey

54 bilmiyorsak bu modeli kullanmak yararlı olacaktır. Verilen bir olasılık modeli ile kaynağın entropisi; H(S)  P(X1 )log P(X1 ) kullanılarak hesaplanabilir. Markov Modelleri: Rus matematikçi Andrei Andrevich Markov’un adını taşımaktadır. En çok kullanılan Markov modeli, örnekler arasındaki bağlantının varlığını gösteren, ( P(X n X n1 )  P(X n X n1, X n2 , X n3 ,...) ) birinci-derece Markov modelidir: Kayıpsız sıkıştırmada kullanılan modellerde, ayrık süre Markov zinciri adını alan özel bir Markov modeli kullanılmaktadır. BileĢik Kaynak Modeli: Birçok uygulamada kaynağın bir tek model ile tanımlanması kolay değildir. Bu gibi durumlarda girilen bir zamanda sadece bir kaynağın aktif olduğu, birkaç kaynağın kombinasyon veya bileşimi olarak görülebilen bileşik kaynak tanımlanır. Bazı çok karmaşık işlemleri tanımlamada kullanılan zengin bir modeldir.

3.8. Görüntü EĢleme

Fotogrametrik işlem adımlarının büyük bir bölümü görüntü eşleme ile bir şekilde ilişkilidir. Karşılık gelen noktaların bulunması olarak da adlandırılır. İç yöneltme aşamasında resim orta nokta bulucularının iki boyutlu modelinin eşlenmesi, karşılıklı yöneltmede ve fotogrametrik triangülasyonda nokta transferi ve sayısal arazi modellerinde bir görüntü parçasının diğer görüntü parçalarıyla eşlenerek üç boyutlu arazi noktalarının elde edilebilmesi sayılabilir (Uçar 2001). Görüntü eşlemede çeşitli yöntemler kullanılmaktadır. Bu yöntemler; alana bağlı eşleme, detaya bağlı eşleme ve sembolik eşleme olarak sıralanabilir. Alana bağlı eşlemede, benzerlik ölçümleri çapraz korelasyon veya en küçük kareler yöntemi ile belirlenmektedir. Çapraz korelasyon uygulaması kolay ve hesaplanması hızlı bir yöntemdir. İlk aşamada eşleme penceresindeki bütün konumlar için çapraz korelasyon faktörü;

R C (g1(r,c)  1)(g2(r,c)  2) (r,c)  r1 c1 ; 0   1 (3.17) R C R C (g1(r,c)  1)(g2(r,c)  2) r1 c1 r1 c1

55 g1(r,c) : Kalıp matrisinin gri ton değeri 1 : Kalıp matrisinin ortalama gri ton değeri g2(r,c) : Araştırma matrisinin ilgili bölümünün gri ton değeri 2 : Araştırma matrisinin ilgili bölümünün ortalama gri ton değeri R, C : Kalıp matrisinin satır ve sütun sayısı denklemi ile belirlenir. İkinci aşamada en iyi eşleme durumunu ifade eden, yani en yüksek korelasyon değerini sağlayan (r, c) konumu belirlenir (Uçar 2001). Gelişmiş fotogrametrik uygulama programları otomasyon aşamasında hem alana bağlı eşleme yöntemlerini hem de detaya bağlı eşleme yöntemlerini bir arada kullanmaktadır. Otomasyondaki eşlenik noktaların belirlenmesi işlemi, görüntülerin sahip olduğu yöneltme parametrelerinin doğruluğu ile arama penceresi ve hedef pencere arasındaki görüntü kalitesiyle doğrudan ilintilidir. Bu nedenle sıkıştırma sonrasında pikseller üzerindeki renk distorsiyonu eşleme sonuçlarını etkilemektedir.

56

4. ARAġTIRMA SONUÇLARI VE TARTIġMA

Fotogrametride sayısal görüntülerin kullanılmasına başlanılmasından itibaren, kullanıcının büyük ölçüde zamanını alan bir takım uygulamalar, bilgisayarın da yardımı ile otomatize edilmeye çalışılmıştır. Fotogrametrik blok oluşturma aşamasında; öncelikle iç yöneltmedeki resim orta noktalarının bulunması işleminde, daha sonra bağlama noktalarının otomatik olarak ölçülmesi işleminde otomasyon kullanılmıştır. Fotogrametrik uygulamalarda ise söz konusu otomasyon, sayısal yükseklik modellerinin oluşturulmasında yaygın bir şekilde kullanılmıştır. Bu otomatikleştirme veya otomasyon işlemleri, görüntü eşleme yöntemlerinin kullanılmasıyla olanaklı hale gelmiştir. Görüntü eşleme alana veya detaya bağlı olarak yapılabilmektedir. Görüntü eşleme yöntemlerinin başarısı, kullanılan görüntülerin kalitesi ile doğrudan ilişkilidir. Yöneltme parametreleri ne kadar doğru ise, görüntü çiftleri hedef çerçeve içerisinde birbirine daha hızlı bir şekilde yakınsama sağlayacak ve en uygun eşlemenin gerçekleştirildiği noktada ölçüm işlemi tamamlanacaktır. Yaklaşık kayıpsız veya kayıplı sıkıştırılmış görüntülerde meydana gelebilecek bozulmalar görüntü eşleme sonuçlarını doğrudan etkileyecektir. Bu sebeple uygulamada kullanılacak en uygun sıkıştırma oranının belirlenmesi yapılacak çalışmanın esasını teşkil etmektedir. Bu bölümde gerçekleştirilen uygulama çalışması ile ilgili bilgiler ve elde edilen neticeler sunulacaktır.

4.1. ÇalıĢma Bölgesi ve Kullanılan Veriler

Fotogrametrik blok uygulamasının yapılacağı çalışma alanı olarak, daha önce de birçok test ve kalibrasyon çalışmasının yapıldığı, Ankara İlinin Çankaya ve Gölbaşı İlçesi içerisinde yer alan bir bölgede olmak üzere, 3 adet fotogrametrik blok seçilmiştir. Çalışma içerisinde Blok-1, Blok-2 ve Blok-3 olarak adlandırılmıştır. Bölge içerisindeki her fotogrametrik blokta kullanılmak üzere, jeodezik ölçümleri gerçekleştirilmiş ve yersel işaretlemeleri yapılarak tesis edilmiş 4’er adet yer kontrol noktası seçilmiştir.

Blok-1 ve Blok-2’de kullanılan hava fotoğrafları Vexcel UltraCamX sayısal hava kamerası ile, Blok-3’de kullanılan hava fotoğrafları ise Zeiss RMK TOP 15 analog hava kamerası ile çekilmiştir. Blok-1; iki uçuş kolonu içerisinde yer alan 16 adet 1:20.000 ölçekli renkli hava fotoğrafından, Blok-2; iki uçuş kolonu içerisinde yer alan 6 adet

57

1:65.000 ölçekli renkli hava fotoğrafından ve Blok-3; iki uçuş kolonu içerisinde yer alan 6 adet 1:26.000 ölçekli siyah-beyaz hava fotoğrafından oluşmaktadır. Uygulamada kullanılan Blok-1’e ait bölgenin genel görünümü Şekil 4.1’de gösterilmektedir.

ġekil 4.1. Çalışma bölgesinin genel görünümü

Analog hava kamerası ile elde edilen fotoğraflar, hassas fotogrametrik tarayıcılar kullanılarak 21 mikron çözünürlüğünde ve TIFF formatında sayısal hale getirilmiştir. Çalışmada kullanılan TIFF formatındaki orijinal hava fotoğrafları, Erdas Imagine yazılımı kullanılarak, 10:1, 20:1, 40:1 ve 80:1 oranlarında sıkıştırılarak JPEG2000 ve MrSID formatlarına dönüştürülmüştür. Sıkıştırma sonrası elde edilen dosya boyutları Çizelge 4.1’de gösterimektedir.

Çizelge 4.1. Sıkıştırma sonrası elde edilen görüntü boyutları

Sıkıştırma Blok-1 Blok-2 Blok-3 Oranları JPEG2000 MrSID JPEG2000 MrSID JPEG2000 MrSID 1:1 (orijinal) 389 389 389 389 118 118 10:1 38,8 37,2 38,8 36,8 11,8 11,0 20:1 19,4 18,6 19,4 20,7 5,90 5,94 40:1 9,72 9,23 9,72 9,75 2,95 3,32 80:1 5,04 4,92 5,04 5,51 1,53 1,53 Blok-1, Blok-2 ve Blok-3 içerisindeki, 143, 377 ve 1037 numaralı fotoğraflara ait boyutlar örnek olarak gösterilmiştir. Birim olarak Mbyte kullanılmıştır.

58

Blok-2 ve Blok-3’de kullanılan görüntülerin, sıkıştırma ve yeniden oluşturma aşamasındaki, bilgisayar ortamında kullanılan zaman, işlemci ve hafıza durumuna ait elde edilen değerler ölçülmüştür. Kullanılan bilgisayara ait bir kısım özellikler; windows 7 işletim sistemi, pentium i7 2.86 GHertz işlemci, 64 bit, 4 Gbyte hafıza. Hesaplamalar sırasında başka programlar çalıştırılmamış, bütün işlemlerde standart bir ortam oluşturulmasına gayret edilmiştir. Başka donanım ve konfigürasyona ait sistemlerde, kullanılan donanım özelliklerine bağlı olarak farklı sonuçların elde edileceği değerlendirilmektedir. Digital hava kamerası ile elde edilmiş 6 adet renkli hava fotoğrafından oluşan ve sabit disk üzerinde 2.27 Gbyte alan kaplayan Blok-2’ye ait görüntülerin, sıkıştırma aşamasında ölçülen değerleri Çizelge 4.2 ve Şekil 4.2’de, yeniden oluşturma aşamasında ölçülen değerleri de Çizelge 4.3 ve Şekil 4.3’de gösterilmektedir.

Çizelge 4.2. Blok-2’deki fotoğrafların sıkıştırma aşamasındaki ölçüm sonuçları

Sıkıştırma MrSID JPEG2000 Oranları Süre CPU RAM Süre CPU RAM 10:1 276 13 41.000 208 13 92.000 15:1 297 13 41.000 171 13 74.000 20:1 176 13 41.000 154 13 62.000 30:1 150 13 41.000 126 13 54.000 40:1 187 13 41.000 171 13 47.000 60:1 132 13 41.000 103 13 44.000 80:1 140 13 41.000 56 13 41.000 Süre saniye olarak, CPU kullanımı yüzde olarak ve RAM kullanımı Kbyte olarak verilmiştir.

Süre Kullanımı Hafıza Kullanımı 350 100.000 90.000 Süre Kullanımı 300 80.000 250 70.000 90 60.000 200 80 50.000 150

Süre (Sn) 40.000

70 (Kbyte) RAM 100 30.000 60 MrSID 20.000 50 50 JPEG2000 10.000 40 0 0 Süre (sn) Süre 10 15 20 30 40 60 80 10 15 20 30 40 60 80 30 Sıkıştırma Oranı Sıkıştırma Oranı 20 10 ġekil 4.2. Blok-2’deki fotoğrafların sıkıştırma aşamasındaki ölçüm sonuç grafiği 0 10 15 20 30 40 60 80 Sıkıştırma Oranı

59

Çizelge 4.3. Blok-2’deki fotoğrafların yeniden oluşturma aşamasındaki ölçüm sonuçları

Sıkıştırma MrSID JPEG2000 Oranları Süre CPU RAM Süre CPU RAM 10:1 761 13 33.000 575 25 82.000 15:1 508 13 33.000 505 24 64.000 20:1 484 13 33.000 466 24 55.000 30:1 439 13 33.000 435 24 47.000 40:1 426 13 33.000 397 23 43.000 60:1 453 13 33.000 377 23 37.000 80:1 399 13 33.000 363 22 36.000 Süre saniye olarak, CPU kullanımı yüzde olarak ve RAM kullanımı Kbyte olarak verilmiştir.

Süre Kullanımı Hafıza Kullanımı

800 90.000 Süre Kullanımı 700 80.000 70.000 600 90 60.000 500 80 50.000 400 70 40.000 Süre (Sn) 300 RAM (Kbyte) RAM 30.000 60 200 MrSID 20.000 50 100 JPEG2000 10.000

40 0 0 Süre (sn) Süre 30 10 15 20 30 40 60 80 10 15 20 30 40 60 80 Sıkıştırma Oranı Sıkıştırma Oranı 20 10

0 ġekil 4.3. Blok-2’deki fotoğrafların yeniden oluşturma aşamasındaki ölçüm sonuç grafiği 10 15 20 30 40 60 80 Sıkıştırma Oranı Analog hava kamerası ile elde edilmiş 6 adet siyah-beyaz hava fotoğrafından oluşan ve sabit disk üzerinde 708 Mbyte alan kaplayan Blok-3’e ait görüntülerin, sıkıştırma aşamasında ölçülen değerleri Çizelge 4.4 ve Şekil 4.4’de, yeniden oluşturma aşamasında ölçülen değerleri de Çizelge 4.5 ve Şekil 4.5’de gösterilmektedir.

Çizelge 4.4. Blok-3’deki fotoğrafların sıkıştırma aşamasındaki ölçüm sonuçları

Sıkıştırma MrSID JPEG2000 Oranları Süre CPU RAM Süre CPU RAM 10:1 80 13 14.000 63 13 31.000 15:1 82 13 14.000 63 13 25.000 20:1 60 13 14.000 45 13 22.000 30:1 56 13 14.000 53 13 18.000 40:1 54 13 14.000 34 13 17.000 60:1 47 13 14.000 31 13 16.000 80:1 47 13 14.000 29 13 15.000 Süre saniye olarak, CPU kullanımı yüzde olarak ve RAM kullanımı Kbyte olarak verilmiştir.

60

Süre Kullanımı Hafıza Kullanımı

90 35.000 80 Süre Kullanımı 30.000 70 60 25.000 90 50 20.000 80 40

Süre (Sn) 15.000 70 30 (Kbyte) RAM 60 10.000 20 MrSID 5.000 50 10 JPEG2000 40 0 0 Süre (sn) Süre 10 15 20 30 40 60 80 10 15 20 30 40 60 80 30 Sıkıştırma Oranı Sıkıştırma Oranı 20 10

0 ġekil 4.4. Blok-3’deki fotoğrafların sıkıştırma aşamasındaki ölçüm sonuç grafiği 10 15 20 30 40 60 80 Sıkıştırma Oranı Çizelge 4.5. Blok-3’deki fotoğrafların yeniden oluşturma aşamasındaki ölçüm sonuçları

Sıkıştırma MrSID JPEG2000 Oranları Süre CPU RAM Süre CPU RAM 10:1 166 13 15.000 200 23 31.000 15:1 152 13 15.000 178 23 26.000 20:1 143 13 15.000 166 23 23.000 30:1 142 13 15.000 150 22 20.000 40:1 139 13 15.000 142 22 19.000 60:1 132 13 15.000 129 22 18.000 80:1 133 13 15.000 124 20 17.000 Süre saniye olarak, CPU kullanımı yüzde olarak ve RAM kullanımı Kbyte olarak verilmiştir.

Süre Kullanımı Hafıza Kullanımı

250 35.000 30.000 200 25.000

150 20.000 15.000

Süre (Sn) 100 RAM (Kbyte) RAM 10.000 50 5.000 0 0 10 15 20 30 40 60 80 10 15 20 30 40 60 80 Sıkıştırma Oranı Sıkıştırma Oranı

ġekil 4.5. Blok-3’deki fotoğrafların yeniden oluşturma aşamasındaki ölçüm sonuç grafiği

Blok-2 ve Blok-3 içerisinde yer alan hava fotoğraflarının sıkıştırılması ve yeniden oluşturulması aşamalarında elde edilen ölçüm değerleri neticesinde aşağıda belirtilen sonuçlar elde edilmiştir;  MrSID formatı, sıkıştırma ve yeniden oluşturma işlemlerinde, test işleminde kullanılan bütün oranlarda işlemcinin sabit bir bölümünü (%13) kullnmaktadır. JPEG2000 formatı ise sıkıştırma işleminde MrSID ile aynı işlemci yüzdesini (%13)

61 kullanmakta, ancak yeniden oluşturma aşamasında işlemciyi daha fazla oranda (%22- 25) kullanmaktadır.  MrSID formatı test işleminde kullanılan sıkıştırma oranlarının tamamında, dönüşümü yapılan hava fotoğraflarının büyüklüğüne de bağlı olarak sabit miktarda hafıza kullanmaktadır. Bununla birlikte JPEG2000 formatı en büyük sıkıştırma oranında bile MrSID formatından fazla olacak şekilde, hem sıkıştırılan fotoğrafın büyüklüğüne hem de sıkıştırma oranına göre değişken büyüklüklerde hafızayı kullanmaktadır.  JPEG2000 formatında, MrSID formatına oranla daha fazla işlemci ve hafıza kullanması nedeniyle, sıkıştırma ve yeniden oluşturma süreleri MrSID formatına göre daha kısa sürede olmaktadır.

4.2. ÇalıĢmada Kullanılan Sistemler

Tez çalışmasında fotogrametrik uygulamalarda kendisini kanıtlamış programlar kullanılmıştır. Bu bölümde çalışmada kullanılan sistem ve programlar hakkında kısa açıklayıcı bilgiler verilecektir:

4.2.1. Zeiss RMK TOP 15 analog hava kamerası ve Vexcel UltraCamX sayısal hava kamerası RMK TOP 15 hava kameraları (Şekil 4.6) Carl Zeiss şirketi tarafından üretimi gerçekleştirilmiş ve sayısal hava kameralarının kullanılmaya başlanması öncesinde, en gelişmiş hava kamerasıdır. Kamera ile 23 cm x 23 cm ebatlarında hava fotoğrafı çekilebilmektedir. Kamera üzerinde 8 adet resim orta nokta bulucusu yer almaktadır. Yedi numaralı resim orta nokta bulucusunun yanında kamera cinsinin logosu ve kameranın seri numarası bulunmaktadır. Çalışmada kullanılan kameranın kalibre edilmiş odak uzaklığı 153.139 mm’dir. Vexcel UltraCamX sayısal hava kamerası; global konumlama sistemi (GPS) ve inersiyal ölçüm birimi (IMU) olan inersiyal navigasyon sistemi (INS) destekli bir cihazdır. Bu sistem sayesinde fotoğraf çekme anındaki konum ve açısal dönüklük bilgileri elde edilebilmektedir. Cihaz üzerinde 4 adet pankromatik, birer adet kırmızı, yeşil, mavi ve kızılötesi olmak üzere toplam 8 adet optik koni ve 13 adet CCD (Charge Coupled Device) dizini bulunmaktadır (Şekil 4.6). Analog kameralarda olduğu gibi

62 geniş bir alanın fotoğrafını oluşturabilmek amacıyla çoklu kamera konisi kullanılmıştır. Pozlama sonrasında konilerden elde edilen görüntüler birleştirilmekte ve tek bir hava fotoğrafı oluşturulmaktadır. UltraCamX ile elde edilen görüntü özelliklerinden bir bölümü Çizelge 4.6’da gösterilmektedir (www.aerial-survey-base.com).

ġekil 4.6. Zeiss RMK TOP 15 analog hava kamerası ve UltraCamX sayısal hava kamerası

Çizelge 4.6. UltraCamX sayısal hava kamerası görüntü özellikleri

Görüntü veri formatları 8, 12 ve 16 bit TIFF, JPEG Pankromatik görüntü boyutu 14,430 x 9,420 piksel Pankromatik fiziksel piksel boyutu 7.2 µm Renk (multi-spektral yeteneği) 4 kanal -- RGB & NIR Renkli görüntü boyutu 4,810 x 3140 piksel Renkli fiziksel piksel boyutu 7.2 µm Renk kanalları için radyometrik çözünürlük >12 bit Görüntü geometrik doğruluk < ± 2 µm

Sayısal hava kamerasının yardımcı donanımları arasında; gerçek zamanlı görüntüleri işleyebilmesi ve saklayabilmesi amacıyla 15 adet CPU’dan oluşan hesaplama birimi, kamera operatörünün fotoğraf çekim esnasında kullandığı kamera işletim arayüzü, çekilen fotoğrafları kaydetmek ve iletimini sağlamak amacıyla veri depolama ve veri iletim birimleri bulunmaktadır.  Sayısal hava kamerasının sıkıĢtırmaya katkıları: Klasik film yapısında bulunan grenli yapının; parazitlere sebebiyet verdiği, görüntünün radyometrisini ile dinamik yapısını azalttığı ve filmin banyo işlemlerinde meydana gelen kimyasal etkileşimlerin görüntü kalitesini kötü yönde etkilediği bilinmektedir. Sayısal kameralar ile alınan görüntülerde eşleme sonuçlarının, klasik kameralarla elde edilen ve

63 sayısallaştırılmış görüntülere oranla yaklaşık 2.5 kat daha iyi sonuç verdiği test çalışmaları sonrasında elde edilmiştir (Perko ve Gruber 2002, Gruber ve ark. 2004, Leberl ve Gruber 2005). Film içerisindeki grenli yapıdan kaynaklanan parazitlerin bulunmaması ve görüntü eşleme sonuçlarının artmasının doğal sonucu olarak, otomatik sayısal yükseklik verilerinde de elde edilen doğruluklar önemli ölçüde artmıştır (Gruber ve ark. 2004). Görüntü sıkıştırma sonrasında elde edilen kodlanmış görüntülerden elde edilecek sonuçların da, klasik kameralara oranla yukarıda belirtilen sonuçlarla paralellik sağlayacağı öngörülmektedir.

4.2.2. Match-AT fotogrametrik triangülasyon yazılımı

Inpho şirketinin gelişmiş ve benzersiz görüntü işleme algoritmalarına dayalı yüksek duyarlık ve performans ile dijital havai triangülasyon sağlayan bir yazılımdır. Büyük çaplı projeler dahil olmak üzere, bütün havai triangülasyon işlemleri tamamen otomatize edilmiştir. Bu özelliğinden dolayı özellikle tez çalışmasında kullanılmak üzere seçilmiştir. Hem analog hava kamerası ile hem de sayısal hava kamerası ile çekilen fotoğrafları kullanabilmektedir. GPS/IMU verisini kullanabilmekle birlikte, sayısal hava kamerasının boresight kalibrasyonunu da desteklemektedir. Esnek veri değişimi kapasitesi sayesinde, dış yöneltme parametreleri gibi verileri diğer fotogrametrik sistemlere kolaylıkla aktarabilmektedir. Programın diğer özellikleri aşağıda belirtilmektedir (www.inpho.de):  Manuel veya otomatik nokta seçim işlemi, en az kullanıcı müdahalesini gerektiren entegre ışın demetleri ile dengeleme yeteneği,  Bindirme, blok şekli veya boyutu ile ilgili herhangi bir sınırlama bulunmamaktadır. Program %80-90 bindirme oranları ile ve 10.000 görüntüye kadar test işlemlerinden geçmiştir.  Fotogrametrik bloğun kalitesini ve mukavemetini en iyi şekilde arttıran bağlama noktaları otomatik olarak toplanmaktadır.  Detaya bağlı ve en küçük kareler eşlemesi kullanılarak 0.1 alt piksel korelasyon duyarlığında bağlama noktaları elde edilebilmektedir.

64

 Zayıf dokuya sahip bölgelerde ve dağlık alanlarda etkin bağlama noktası eşleme yapabilmektedir.  Görüntü piramitlerinin her seviyesinde bağlama noktalarının dahili kalite kontrolü ışın demetleri dengeleme ile sağlanmaktadır.  Tamamen otomatik iç yöneltme ve alt bloklar ile çalışabilme yeteneği bulunmaktadır.  Grafiksel olarak blok analizi yapılabilmekte, bütün veriler bu grafik üzerinde gösterilebilmektedir.  DAT/EM Summit Evolution, BAE Socet Set, Z/I project, Aviosoft Ori, ABC- PC, AP32, Phorex/Pex, PATB, Bluh ve Bingo gibi programlar ile import/export yeteneği bulunmaktadır.

4.2.3. DAT/EM Summit Evolution fotogrametrik değerlendirme yazılımı

Summit Evolution dijital fotogrametrik çalışma istasyonu, doğrudan AutoCAD, MicroStation veya ArcGIS ortamında üç boyutlu detay toplamaya olanak sağlayan kullanıcı dostu bir programdır. Programın bazı özellikleri arasında; hava fotoğrafı, uydu görüntüsü, yakın mesafe, IFSAR ve ortofoto görüntüleri destekleyebilmekte, alt piksel seviyesinde işlem yapabilmekte, ardışık model görüntüleyebilmekte, siyah beyaz ve renkli görüntüleri kullanabilmekte, gerçek zamanlı kaydırma, büyültme-küçültme, epipolar örnekleme yapabilmekte, vektör veriyi üç boyutlu görüntüleyebilmekte, çoklu stereo model açabilmekte, renk düzeltme, görüntü dengeleme ve histogram dengelemesi yapabilmekte, eş yükseklik eğrisi oluşturabilmekte ve gösterebilmektedir. Kullanıcı; dengelenmiş bütün fotogrametrik blok içerisinde sanki sadece bir modelin içindeymiş gibi hareket edebilmektedir. İç, karşılıklı ve mutlak yöneltme özelliği bulunduğu gibi; Albany, PATB, Aerosys, Phorex, Bluh ve Bingo gibi havai triangülasyon programlarından elde edilen sonuçları da okuyabilmektedir. Görüntü bölümlemesi sayesinde, bütün görüntüyü hafızaya almaya gerek kalmadan 2 Gbyte’a kadar olan görüntüleri herhangi bir büyültme seviyesinde kolaylıkla görüntüleyebilmektedir. Program; Çoklu görüntü etiketli TIF veya diğer TIF formatları, GeoTIF, ADS40/80 TIF, DMC, TIF, JPG, BMP, SMTI formatı, TGA, TJP, PCX ve

65

ECW formatlarını doğrudan okuyabilmekte veya bu formatları etiketli GeoTif kendi dosya formatına (smti) dönüştürebilmektedir.

4.3. Fotogrametrik Triangülasyon

Bütün bloklar için orijinal TIFF formatındaki hava fotoğrafları kullanılarak Match-AT programında fotogrametrik proje oluşturulmuştur. Kullanılan hava kameralarının özellikleri tanımlanmış, Blok-3 içerisinde yer alan fotoğraflar için otomatik iç yöneltme işlemi gerçekleştirilmiştir. Sayısal hava kameralarının analog kameraların yerine rahatlıkla kullanılabileceğinden (Jacobsen 2010) hareketle, yakın gelecekte bütün fotogrametrik projelerin sayısal hava kameraları ile elde edilen hava fotoğraflarından oluşturulacağı öngörülmektedir. Fotogrametrik triangülasyonda kullanılacak olan yer kontrol noktalarının ölçüm işlemi manuel olarak gerçekleştirilmiş, sonrasında programın özelliklerinden olan alana bağlı ve detaya bağlı eşleme yöntemleri kullanılarak, bağlama noktalarının otomatik ölçümleri tamamlanmış ve fotogrametrik blokların triangülasyon işlemi yapılmıştır. Yer kontrol noktalarının ölçülmesi haricinde, herhangi bir kullanıcı müdahalesinde bulunulmamıştır. Blok-1’in otomatik bağlama noktası ölçme işlemi sonrasında, 176 bağlama noktasının 2 fotoğrafı bağlayacak şekilde, 292 bağlama noktasının 3 fotoğrafı bağlayacak şekilde, 129 bağlama noktasının 4 fotoğrafı bağlayacak şekilde, 17 bağlama noktasının 5 fotoğrafı bağlayacak şekilde ve 193 bağlama noktasının 6 fotoğrafı bağlayacak şekilde olmak üzere, toplam 807 adet bağlama noktasının otomatik olarak toplandığı görülmektedir (Şekil 4.7). Blok-2’nin otomatik bağlama noktası ölçme işlemi sonrasında, 140 bağlama noktasının 2 fotoğrafı bağlayacak şekilde, 133 bağlama noktasının 3 fotoğrafı bağlayacak şekilde, 91 bağlama noktasının 4 fotoğrafı bağlayacak şekilde, 49 bağlama noktasının 5 fotoğrafı bağlayacak şekilde ve 33 bağlama noktasının 6 fotoğrafı bağlayacak şekilde olmak üzere, toplam 446 adet bağlama noktasının otomatik olarak toplandığı görülmektedir. Blok-3’ün otomatik bağlama noktası ölçme işlemi sonrasında, 105 bağlama noktasının 2 fotoğrafı bağlayacak şekilde, 117 bağlama noktasının 3 fotoğrafı bağlayacak şekilde, 63 bağlama noktasının 4 fotoğrafı bağlayacak şekilde, 32 bağlama

66 noktasının 5 fotoğrafı bağlayacak şekilde ve 20 bağlama noktasının 6 fotoğrafı bağlayacak şekilde olmak üzere, toplam 337 adet bağlama noktasının otomatik olarak toplandığı görülmektedir.

ġekil 4.7. Otomatik bağlama noktası ölçülen noktalar (Blok-1)

Otomatik bağlama noktası ölçüm işleminde program tarafından 25 adet Gruber noktası (arama penceresi) kullanılmaktadır (Şekil 4.8).

y

x

ġekil 4.8. Otomatik bağlama noktası ölçülen bölgeler (Dış çerçeve hava fotoğrafı alanını, kırmızı kareler ise Gruber noktalarını temsil etmektedir.)

Sıkıştırma işleminden sonra görüntüler üzerinde meydana gelen radyometrik değişikliklerin, otomatik nokta bulma işleminde kullanılan görüntü eşleme algoritmasını doğrudan ilgilendirmesi nedeniyle, bütün sıkıştırma oranları ile elde edilen fotogrametrik blokların, triangülasyon sonrasında elde edilen bağlama noktalarına ait sonuçlar Çizelge 4.7’de gösterilmektedir. Blok-1 içerisinde yer alan 144 ve 145

67 numaralı fotoğraflar kullanılarak otomatik bağlama noktalarının grafiği Şekil 4.9’da gösterilmektedir. Manuel bağlama noktası ölçümü yapılan benzer yapıdaki bir fotogrametrik blok içerisinde ortalama olarak 10-20 adet nokta ölçümü gerçekleştirilmektedir. Klasik ölçme yöntemine ile karşılaştırıldığında, otomatik eşleme sonrasında elde edilen nokta sayısının çok daha fazla sayıda olduğu Şekil 4.9’da net bir şekilde görülmektedir.

Çizelge 4.7. Fotogrametrik triangülasyon işlemi neticesinde elde edilen bağlama noktaları miktarı

Sıkıştırma Oranları Blok-1 Blok-2 Blok-3 TIFF 1:1 807 446 337 JPEG2000-10 872 423 367 JPEG2000-20 841 436 351 JPEG2000-40 848 423 287 JPEG2000-80 750 457 238 MrSID-10 853 425 336 MrSID-20 820 387 341 MrSID-40 853 418 297 MrSID-80 845 403 226

ġekil 4.9. 144 ve 145 numaralı görüntülerde toplanan otomatik bağlama noktaları

Görüntü sıkıştırmanın fotogrametrik triangülasyonda etkilerini net bir şekilde belirleyebilmek için, kullanıcılar tarafından yapılabilecek nokta ölçüm hatalarının en az

68 seviyede tutulması hedeflenmiştir. Çalışmada kullanılan her blok içerisinde, orijinal TIFF görüntüleriyle oluşturulan fotogrametrik blok ve hazırlanan sıkıştırma format ve oranlarıdaki görüntüler ile birlikte toplam 9’ar adet fotogrametrik blok oluşturulmuştur. Orijinal blok içerisinde ölçümü gerçekleştirilen yer kontrol noktalarının ölçüm değerleri sıkıştırılmış görüntüler ile oluşturulan blokların içerisine aktarılmış, böylece kullanıcıdan kaynaklanabilecek ölçüm farkları elimine edilmiştir. Fotogrametrik triangülasyon sonrası elde edilen değerler; Blok-1 için Çizelge 4.8’de, Blok-2 için Çizelge 4.9’da ve Blok-3 için Çizelge 4.10’da gösterilmektedir.

Çizelge 4.8. Blok-1’e ait fotogrametrik triangülasyon sonuç değerleri

KOH KOH KOH Ort.Std. Ort.Std. Ort.Std. Sıkıştırma Sigma Sigma X Y Z Sapma x Sapma y Sapma z Oranları (micron) (piksel) (metre) (metre) (metre) (metre) (metre) (metre) TIFF 1:1 1.1 0.2 0.003 0.006 0.045 0.013 0.017 0.059 JPEG2000-10 1.1 0.2 0.003 0.006 0.047 0.012 0.016 0.055 JPEG2000-20 1.1 0.2 0.003 0.006 0.045 0.013 0.018 0.061 JPEG2000-40 1.3 0.2 0.003 0.006 0.043 0.017 0.023 0.079 JPEG2000-80 1.6 0.2 0.003 0.006 0.046 0.025 0.033 0.116 MrSID-10 1.1 0.2 0.003 0.006 0.045 0.012 0.016 0.056 MrSID-20 1.1 0.2 0.003 0.006 0.044 0.013 0.018 0.062 MrSID-40 1.3 0.2 0.003 0.006 0.046 0.016 0.022 0.076 MrSID-80 1.7 0.2 0.003 0.007 0.046 0.028 0.037 0.128

Çizelge 4.9. Blok-2’ye ait fotogrametrik triangülasyon sonuç değerleri

KOH KOH KOH Ort.Std. Ort.Std. Ort.Std. Sıkıştırma Sigma Sigma X Y Z Sapma x Sapma y Sapma z Oranları (micron) (piksel) (metre) (metre) (metre) (metre) (metre) (metre) TIFF 1:1 0.9 0.1 0.010 0.007 0.070 0.068 0.097 0.342 JPEG2000-10 1.0 0.2 0.011 0.007 0.063 0.072 0.100 0.358 JPEG2000-20 1.1 0.2 0.009 0.005 0.067 0.085 0.120 0.423 JPEG2000-40 1.3 0.2 0.006 0.006 0.059 0.094 0.142 0.485 JPEG2000-80 1.6 0.2 0.009 0.009 0.073 0.120 0.178 0.614 MrSID-10 1.0 0.1 0.009 0.007 0.064 0.074 0.110 0.373 MrSID-20 1.1 0.2 0.007 0.006 0.062 0.079 0.114 0.404 MrSID-40 1.2 0.2 0.007 0.005 0.052 0.090 0.132 0.449 MrSID-80 1.6 0.2 0.004 0.003 0.033 0.127 0.190 0.632

69

Çizelge 4.10. Blok-3’e ait fotogrametrik triangülasyon sonuç değerleri

KOH KOH KOH Ort.Std. Ort.Std. Ort.Std. Sıkıştırma Sigma Sigma X Y Z Sapma x Sapma y Sapma z Oranları (micron) (piksel) (metre) (metre) (metre) (metre) (metre) (metre) TIFF 1:1 3.5 0.2 0.009 0.009 0.009 0.123 0.158 0.412 JPEG2000-10 4.1 0.2 0.031 0.012 0.035 0.135 0.177 0.454 JPEG2000-20 5.1 0.2 0.056 0.031 0.009 0.175 0.226 0.640 JPEG2000-40 7.4 0.4 0.052 0.030 0.036 0.265 0.346 0.933 JPEG2000-80 10.2 0.5 0.015 0.017 0.031 0.386 0.522 1.440 MrSID-10 4.1 0.2 0.034 0.012 0.049 0.140 0.181 0.462 MrSID-20 5.1 0.2 0.028 0.018 0.008 0.175 0.224 0.607 MrSID-40 7.3 0.3 0.003 0.038 0.040 0.258 0.339 0.878 MrSID-80 11.5 0.5 0.100 0.028 0.016 0.446 0.591 1.570

Büyük Ölçekli Harita ve Harita Bilgileri Üretim Yönetmeliğinde, fotogrametrik işlemler ve dengelemede elde edilen hata miktarlarının sınır değerleri belirtilmektedir. Analog hava kamerası ile elde edilen hava fotoğraflarının sayısallaştırılması işleminde piksel büyüklüğünün 30 mikrometreden daha büyük olmaması gerektiği ve blok dengeleme sonucunda elde edilecek koordinat ortalama hatalarının 8 mikrometreyi geçmemesi gerektiği belirtilmektedir (BÖHHBUY 2005). Sayısal hava kamerası ile çekilen fotoğraflardan oluşan Blok-1 ve Blok-2’nin bütün sıkıştırma oranları ile elde edilen triangülasyon sonuçları neticesinde hata sınırının çok altında kaldığı (Çizelge 4.8 ve Çizelge 4.9), analog hava kamerası ile elde edilen ve 21 mikrometre çözünürlüğünde sayısallaştırılan hava fotoğraflarından oluşan Blok-3’de ise MrSID ve JPEG2000 formatlarında 80:1 sıkıştırma oranı ile elde edilen fotogrametrik blokların yeterli doğruluğu sağlamadığı, yine MrSID ve JPEG2000 formatlarında 40:1 oranı ile elde edilen fotogrametrik blokların ise hata sınırının altında olmasına rağmen, sınıra çok yakın olduğu belirlenmiştir (Çizelge 4.10). Standart sapma değerleri, karesel ortalama hata miktarları ve koordinatların ortalama standart sapma değerleri incelendiğinde, her üç fotogrametrik blokta, aynı sıkıştırma oranlarındaki MrSID ve JPEG2000 formatlarının birbirine yakın sonuçlar verdiği görülmektedir. Farklı sıkıştırma oranlarında her üç bloğa ait elde edilen triangülasyon sonuçlarının eğim grafiği Şekil 4.10’da gösterilmektedir. Sayısal hava kamerası ile elde edilen Blok-1 ve Blok-2’nin eğiminin, analog hava kamerası ile oluşturulan Blok-3’den daha düşük ve kararlı olduğu görülmektedir. Örneğin analog kamera ile çekilen fotoğraflardan elde edilen fotogrametrik bir blokta standart sapma

70 değeri 5 ve altında bir sonuç isteniyorsa buna karşılık gelen sıkıştırma oranı eğim grafiğinden tespit edilebilir.

12

10

8

Blok-1 Blok-2 6 Blok-3

Sigma Değerleri 4

2

0 0 10 20 40 80 Sıkıştırma Oranları

ġekil 4.10. Blok-1, 2 ve 3’ün triangülasyon sonuç değerleri eğim grafiği

Sıkıştırma sonrasında radyometri değerleri değişen pikseller arasındaki kontrastlık farklılıkları azalmakta, bunun neticesinde arama ve hedef çerçevesi içerisindeki korelasyon değeri artmaktadır. Benzer dokuya sahip görüntü parçalarında (çöl, göl, kumluk, çayırlık, vb.) korelasyon değerinin arttığı bilinmektedir. Ancak bu değerin yüksek çıkması doğru noktaya eşleme yapıldığı anlamına gelmemektedir. Yüksek oranlarda sıkıştırılan görüntülerdeki otomatik toplanan nokta sayısında doğru orantılı olarak azalma olmaması, görüntü parçalarındaki dokunun birbirine daha fazla yakınlaşması şeklinde açıklanabilir. Şekil 4.10’dan elde edilebilecek sonuçlardan bir tanesi de, Perko ve Gruber 2002, Gruber ve ark. 2004 ile Leberl ve Gruber 2005 tarafından belirtilen sayısal hava kameralarının görüntü sıkıştırmaya katkılarını destekleyecek niteliktedir. Kullanılan görüntü üzerinde parazitlerin veya gürültünün bulunmaması, dalgacık tabanlı sıkıştırma yönteminin kullanıldığı bu görüntü formatlarında eşleme işleminin başarıyla sonuçlanmasına neden olmuştur.

71

4.4. Doğruluk ve Kalite Üzerindeki Etkiler

Tez çalışmasının bu bölümünde doğruluk ve kaliteye etki eden hususlar irdelenecektir. Sıkıştırma sonrasında görüntülerde geometrik ve radyometrik distorsiyonlar meydana gelmektedir. Her iki bozulmanın sonucu, elde edilen görüntünün kalitesiyle doğrudan bağlantılıdır. Koordinat ölçümü yapılan noktalar gözle incelendiğinde noktalarda hem geometrik farklılıklar hem de radyometrik farklılıklar olduğu görülmüştür. Bu farklılıkların miktarını belirleyebilmek için noktaların koordinat değerleri ve gri değerleri ayrı ayrı karşılaştırılmıştır.

4.4.1. Geometrik bozulmalar

Geometrik bozulmaların seviyesini belirleyebilmek amacıyla, Blok-1 projesi içerisinde keskin hatlara ve kontrastlık farklarına sahip, kolaylıkla ölçümü yapılabilecek 76 adet detay noktası, Blok-2 ve Blok-3 projelerinin ortak alanı içerisinde de 45 adet detay noktası belirlenmiştir (Şekil 4.11). Her üç blokta da orijinal görüntüler ve sıkıştırılmış görüntüler ile oluşturulmuş 9’ar fotogrametrik blokta, bu noktaların koordinat ölçümleri gerçekleştirilmiştir. Koordinat ölçüm işlemleri, DAT/EM Summit Evolution yazılımı kullanılarak, stereo modeller üzerinde gerçekleştirilmiş ve ölçüm standartlığını sağlamak amacıyla ölçüm penceresi büyültme oranı olarak 1/4 alt piksel çözünürlüğü kullanılmıştır.

Blok-2 ve Blok-3

Blok-1

ġekil 4.11. Blok-1, 2 ve 3’de koordinat ölçümü gerçekleştirilen noktaların dağılımı

72

Sıkıştırma sonrasında mevcut detay veya şekiller bozulmaya uğramakta, bunun neticesinde geometrisi bozulan şekiller üzerinden yapılacak koordinat ölçüm sonuçları veya detay çıkarma işlemlerinde bir takım hatalar oluşacaktır. Sıkıştırma oranları sonrasında elde edilen görüntüler hakkında fikir sahibi olabilmek amacıyla, bir adet yer kontrol noktasının ve bir adet traktörün, orijinal görünümü ile sıkıştırılmış format ve oranlardaki görünümleri Çizelge 4.11’de gösterilmektedir.

Çizelge 4.11. Sıkıştırma sonrası meydana gelen değişimler

1:1 TIFF 1:1 TIFF

10:1 - JPEG2000 10:1 - MrSID 10:1 - JPEG2000 10:1 - MrSID

20:1 - JPEG2000 20:1 - MrSID 20:1 - JPEG2000 20:1 - MrSID

40:1 - JPEG2000 40:1 - MrSID 40:1 - JPEG2000 40:1 - MrSID

80:1 - JPEG2000 80:1 - MrSID 80:1 - JPEG2000 80:1 - MrSID

73

Orijinal TIFF görüntüsü ile stereo modeller üzerinden gerçekleştirilen ölçümler hatasız olarak kabul edilmiş, diğer sıkıştırılmış görüntüler ile oluşturulan projelerde gerçekleştirilen ölçüm değerleri bu veriler ile karşılaştırılmıştır. Noktaların koordinatlarına ait farklar bulunmuş ve bu farklardan yararlanılarak karesel ortalama hata ve mutlak hata ortalama değerleri hesaplanmıştır. Blok-1’e ait karşılaştırma sonrasında hatalara ilişkin elde edilen değerler Çizelge 4.12’de, Blok-2’ye ait değerler Çizelge 4.13’de ve Blok-3’e ait değerler Çizelge 4.14’de gösterilmektedir.

Çizelge 4.12. Kontrol noktası ölçüm farklarının karşılaştırılması (Blok-1)

Sıkıştırma KOH KOH KOH Mutlak Mutlak Mutlak Oranları X Y Z Hata Ort. X Hata Ort. Y Hata Ort. Z JPEG2000-10 0.038 0.059 0.108 0.030 0.044 0.085 JPEG2000-20 0.052 0.063 0.115 0.039 0.047 0.079 JPEG2000-40 0.060 0.077 0.123 0.045 0.061 0.085 JPEG2000-80 0.081 0.086 0.143 0.063 0.067 0.108 MrSID-10 0.048 0.057 0.113 0.037 0.043 0.081 MrSID-20 0.053 0.071 0.110 0.037 0.046 0.083 MrSID-40 0.112 0.096 0.197 0.084 0.069 0.149 MrSID-80 0.132 0.145 0.233 0.110 0.118 0.176 Sonuçlar metre olarak gösterilmektedir.

Çizelge 4.13. Kontrol noktası ölçüm farklarının karşılaştırılması (Blok-2)

Sıkıştırma KOH KOH KOH Mutlak Mutlak Mutlak Oranları X Y Z Hata Ort. X Hata Ort. Y Hata Ort. Z JPEG2000-10 0.226 0.241 0.611 0.167 0.176 0.471 JPEG2000-20 0.288 0.291 0.632 0.225 0.227 0.497 JPEG2000-40 0.233 0.426 0.704 0.186 0.278 0.627 JPEG2000-80 0.297 0.468 1.015 0.240 0.323 0.754 MrSID-10 0.162 0.226 0.607 0.133 0.176 0.471 MrSID-20 0.267 0.289 0.831 0.208 0.201 0.660 MrSID-40 0.341 0.356 0.848 0.264 0.264 0.615 MrSID-80 0.352 0.594 1.301 0.280 0.393 1.140 Sonuçlar metre olarak gösterilmektedir.

74

Çizelge 4.14. Kontrol noktası ölçüm farklarının karşılaştırılması (Blok-3)

Sıkıştırma KOH KOH KOH Mutlak Mutlak Mutlak Oranları X Y Z Hata Ort. X Hata Ort. Y Hata Ort. Z JPEG2000-10 0.074 0.102 0.383 0.208 0.257 0.487 JPEG2000-20 0.163 0.219 0.813 0.308 0.366 0.709 JPEG2000-40 0.340 0.514 1.347 0.410 0.524 0.941 JPEG2000-80 0.853 0.655 1.942 0.681 0.652 1.094 MrSID-10 0.124 0.208 0.662 0.284 0.361 0.642 MrSID-20 0.329 0.200 0.756 0.450 0.378 0.655 MrSID-40 0.464 0.689 1.712 0.540 0.631 1.096 MrSID-80 1.036 1.477 2.525 0.760 0.948 1.268 Sonuçlar metre olarak gösterilmektedir.

Çizelge 4.12, 4.13 ve 4.14’de yer alan değerlerin daha iyi yorumlanabilmesi için, buradaki bilgilerden yararlanılarak oluşturulan grafikler Şekil 4.12’de gösterilmektedir. JPEG2000 (X) JPEG2000 (X)MrSID (X)

0,900 0,9001,200

0,800 0,800 JPEG2000 (X) 1,000 MrSID (X) 0,700 0,700 Blok-1 koh(X) Blok-1 koh(X) Series1 0,600 0,900 0,6000,800 Blok-2 koh(X) Blok-2 koh(X) Series21,200 Blok-3 koh(X) 0,500 0,800 Blok-3 koh(X) Series3 0,500 0,600 Blok-1 mutlak hata(X) 0,400 0,700 Blok-1 mutlak hata(X)Series4 0,400 Blok-2 mutlak hata(X)Blok-1 koh(X) Blok-2 mutlak hata(X)Series51,000 0,300 0,600 Hata Miktarı (m) Hata 0,300 Hata Miktarı (m) Hata 0,400 Blok-3 mutlak hata(X)Blok-2 koh(X) Blok-3 mutlak hata(X)Series6 Miktarı (m) Hata Blok-3 koh(X)0,200 0,500 Series1 0,200 0,8000,200 Blok-1 mutlak0,100 hata(X) 0,400 Series2 0,100 Blok-2 mutlak hata(X) 0,000 0,300 Series3 Hata Miktarı (m) Hata 0,0000,0000,800 Blok-3 mutlak hata(X) 0,600 10 20 40 80 10 20 40 80 JPEG2000(Y)0,200 Series4 1 MrSID2 (Y) 3 4 Sıkıştırma Oranları SıkıştırmaSıkıştırma OranlarıOranları 0,100 Series5 0,700 0,700 0,400 Hata Miktarı (m) Hata 1,600 0,000 Series6 0,600 10 20 40 80 0,6001,400 0,200 JPEG2000(Y) Sıkıştırma Oranları MrSID (Y) Blok-1 koh 1,200 Blok-1 koh(Y) 0,500 0,500 Blok-2 koh Blok-2 koh(Y) 0,700 1,000 0,400 0,000 Blok-3 koh(Y) Blok-31,600 koh 0,4000,800 Blok-1 mutlak hata(Y) 0,600 1 2 3 4 0,300 Blok-1 mutlak hata Blok-2 mutlak hata(Y) 0,600 Sıkıştırma Oranları 0,500 Blok-21,400 mutlak hata Blok-1 koh(Y) Miktarı (m) Hata Hata Miktarı (m) Hata 0,300 Blok-3 mutlak hata(Y) 0,200 Blok-2 koh(Y) Blok-3 mutlak hata 0,400 0,400 Blok-3 koh(Y) 1,200 0,100 0,2000,200 Blok-1 mutlak hata(Y) 0,300 Blok-2 mutlak hata(Y)0,000 1,000 0,000 0,100 Blok-3 mutlak hata(Y) Miktarı (m) Hata 100,200 20 40 80 10 20 40 80 JPEG2000 (Z) MrSID (Z) Sıkıştırma Oranları 0,800 Sıkıştırma Oranları 0,100 0,000 2,500 3,000 1 2 3 4 0,000 0,600 2,500 2,000 JPEG200010 (Z) 20 40 Miktarı (m) Hata 80 MrSID (Z) Blok-1 koh(Z) Sıkıştırma Oranları 0,400 Series1 2,000 Blok-2 koh(Z) 2,500 Series2 1,500 3,000 Blok-3 koh(Z) Series3 0,200 1,500 Series4 Blok-1 mutlak hata(Z) 2,000 1,000 Series5

Blok-2 mutlak hata(Z) (m) HataMiktarı Blok-1 koh(Z) 0,000Series6 1,000 Blok-3 mutlak hata(Z) Miktarı (m) Hata 2,500 Blok-2 koh(Z) 1,500 10 20 40 80 Blok-3 koh(Z)0,500 0,500 Blok-1 mutlak hata(Z) Sıkıştırma Oranları 1,000 Blok-2 mutlak0,000 hata(Z) Series1 2,0000,000

Hata Miktarı (m) Hata 10 20 40 80 Blok-3 mutlak hata(Z) 10 20 40 80 Series2 Sıkıştırma Oranları 0,500Sıkıştırma Oranları Series3 1,500 ġekil 4.12. Blok0,000-1, 2 ve 3’deki kontrolSeries4 noktalarının ölçülerinde oluşturulan hata grafikleri 10 20 Series540 80

Sıkıştırma Oranları (m) HataMiktarı Series6 1,000

0,500

0,000 10 20 40 80 Sıkıştırma Oranları 75

Fotoğraf ölçeğinin de etkisiyle Blok-1’e ait hata miktarlarının en düşük değere sahip olduğu ve diğer iki bloğa nazaran daha kararlı bir yapıya sahip olduğu 1400 TIFF-MrSid (10) söylenebilir. Blok-1 ve Blok-2 ölçümlerinden elde edilen karesel ortalama hata ve 1200 mutlak 1000 ortalama hata değerleri birbirine yakın ve benzer bir yapıya sahipken, analog

800 fotoğraflardan oluşturulan Blok-3’de bu hata değerlerinin belirli bir20 sistematik cm yapıyı 600 4.392 takip etmediği4.391 görülmektedir. 4.83 4.39 4.82 4.389 4.81 6 4.388 4.8 Ölçümx 10 yapılan kontrol noktalarının sitematik4.79 bir bozulmanın veya5 hatanın 4.387 4.78 x 10 etkisinde olup olmadığı Blok-1 içerisindeki ölçümlerden yararlanılarak araştırılmıştır.

Koordinat1500 farklarının en az değere sahipTIFF-MrSid olduğu (80) 10:1 sıkıştırma ve en yüksek değere sahip olduğu 80:1 sıkıştırma oranında elde edilen farklardan oluşturulan vektörel hata 1000 izleme grafiği Şekil 4.13’de gösterilmektedir. Hata miktarlarına ait vektörel gösterimin 20 cm yapılabilmesi500 amacıyla, koordinat eksenlerinde ve vektörel gösterimde farklı ölçekler 4.392 4.391 4.83 4.39 4.82 kullanılarak abartı uygulan4.389mıştır. 4.81 6 4.388 4.8 x 10 4.79 5 4.387 4.78 x 10

1400 TIFF-JPEG 2000 (10)

1200

1000

800 20 cm 600 4.392 4.391 4.83 4.39 4.82 4.389 4.81 6 4.388 4.8 x 10 4.79 5 4.387 4.78 x 10

2000 TIFF-JPEG 2000 (80)

1500

1000

20 cm 500 4.392 4.391 4.83 4.39 4.82 4.81 4.389 4.8 6 4.388 4.79 x 10 4.387 5 4.78 x 10

ġekil 4.13. Hata vektör grafiği (JPEG2000 - 10:1 ve 80:1)

Fotogrametrik triangülasyon sonuçları değerlendirildiğinde sayısal hava kamerası ile oluşturulan fotogrametrik blokların (Blok-1 ve Blok-2) 80:1 sıkıştırma oranına kadar, BÖHHBÜY’de belirtilen hata kıstaslarına göre, uygulamada yeterli

76 doğruluğu sağladığı, ancak analog hava kamerası ile oluşturulan Blok-3’ün, her iki sıkıştırma formatında da 80:1 sıkıştırma oranında yeterli doğruluğu sağlamadığı, 40:1 sıkıştırma oranında ise kabul değerinin altında kalmasına rağmen, sonuçların kabul sınır değerine çok yakın olması nedeni ile uygulamalarda kullanılmasının uygun olmayacağı değerlendirilmektedir.

4.4.2. Radyometrik bozulmalar

Sıkıştırılmış görüntülere ait radyometrik bozulmaları belirleyebilmek amacıyla, farklı format ve sıkıştırma oranları ile elde edilen yeni görüntülerin, orijinal TIFF formatındaki görüntüden olan farkları belirlenmiştir. Sayısal hava kamerası ile elde edilen Blok-1 ve Blok-2 içerisinde yer alan fotoğraflarda 14,430 x 9,420 = 135,930,600 piksel, analog hava kamerası ile elde edilen ve 21 mikrometre çözünürlüğünde sayısallaştırılan fotoğraflarda da 11,122 x 11,122 = 123,698,884 piksel yer almaktadır. Her üç blokta da örnek olarak birer adet fotoğraf seçilmiş, sıkıştırma uygulanmış bütün görüntülerin piksel değerleri orijinal TIFF formatındaki görüntüdeki değerlerden çıkartılmak suretiyle fark görüntüleri oluşturulmuştur. Farkların belirlenmesi işleminde negatif değerleri de yansıtabilmek amacıyla 100 birim offset kullanılmıştır. Çalışmada kullanılan veri kümesinin boyutlarını ortaya koyabilmek amacıyla, Blok-1 içerisindeki bir görüntüye ait radyometrik fark değerleri ve piksel sayıları Çizelge 4.15’de sunulmuştur. Kullanılan bütün sıkıştırma oranlarından elde edilen fark görüntülerindeki değerler kullanılarak, radyometrik doğruluğun belirlenmesindeki en önemli ölçütlerden olan ortalama hata değerleri, karesel ortalama hata miktarı ve pik sinyal gürültü oranı (PSNR) hesaplanmıştır. Karesel ortalama hata miktarlarına ait değerler Çizelge 4.16 ve Şekil 4.14’de, Ortalama hata miktarlarına ait değerler Çizelge 4.17 ve Şekil 4.15’de ve karesel ortalama hata miktarı kullanılarak oluşturulan pik sinyal gürültü oranı (PSNR) değerleri Çizelge 4.18 ve Şekil 4.16’da gösterilmektedir.

77

Çizelge 4.15. Orijinal görüntüden 80:1 oranında MrSID formatında sıkıştırılmış görüntünün çıkarılması ile elde edilen piksel fark miktarları (F=Fark Değeri, PS=Piksel Sayısı)

F PS F PS F PS F PS F PS F PS 63 1 33 39 14 40240 -5 3877863 -24 688 -43 10 56 1 32 51 13 67728 -6 2355339 -25 507 -44 11 53 1 31 77 12 111312 -7 1417592 -26 414 -45 5 51 1 30 95 11 186392 -8 852676 -27 365 -46 4 50 3 29 114 10 309561 -9 513119 -28 287 -47 5 48 1 28 150 9 511845 -10 308183 -29 202 -48 6 46 5 27 207 8 846781 -11 184911 -30 177 -49 2 45 1 26 271 7 1399801 -12 109795 -31 118 -50 2 44 2 25 344 6 2317640 -13 65739 -32 104 -51 1 43 6 24 505 5 3826562 -14 39330 -33 85 -52 4 42 9 23 656 4 6228432 -15 23507 -34 54 -53 2 41 10 22 991 3 9757146 -16 14489 -35 55 -54 1 40 10 21 1427 2 14225720 -17 8801 -36 46 -55 2 39 7 20 2160 1 18301050 -18 5573 -37 41 -56 1 38 11 19 3436 0 20144499 -19 3699 -38 22 -58 3 37 16 18 5547 -1 17969812 -20 2496 -39 21 -59 2 36 19 17 8723 -2 13924536 -21 1768 -40 19 -60 2 35 27 16 14510 -3 9651062 -22 1297 -41 15 -62 1 34 31 15 23642 -4 6257016 -23 887 -42 9 -65 1

Çizelge 4.16. Blok-1, 2 ve 3’ün radyometrik farklarının karesel ortalama hata miktarları

Sıkıştırma Blok-1 Blok-2 Blok-3 Oranları R G B Gri R G B Gri Gri JPEG2000-10 0,99 0,81 0,98 0,76 2,89 2,40 3,96 2,04 4,95 JPEG2000-20 1,64 1,37 1,55 1,25 4,44 4,20 6,68 3,60 7,53 JPEG2000-40 2,38 2,03 2,17 1,85 6,28 6,37 9,70 5,65 10,74 JPEG2000-80 3,07 2,65 2,75 2,42 8,21 9,07 12,92 8,21 14,14 MrSID-10 1,26 1,15 1,38 1,04 3,94 2,74 5,77 2,47 6,23 MrSID-20 2,21 2,04 2,20 1,84 5,81 5,22 7,87 4,82 9,27 MrSID-40 2,84 2,58 2,70 2,34 7,57 7,35 10,61 6,85 13,00 MrSID-80 3,89 3,58 3,66 3,24 10,70 11,06 14,28 10,36 16,26

JPEG2000 MrSID

18 16 16 14 JPEG2000 14 MrSID 12 12 Blok-1 10 10 18 Blok-2 16 8 8 16 14 6 6 Blok-3 KOH(piksel) 12 14 (piksel) KOH 4 4 Blok-1 10 2 12 2 Blok-2 8 0 10 0 6 10 20 40 80 Blok-3 10 20 40 8 80

KOH (piksel) KOH 4 Sıkıştırma Oranı Sıkıştırma Oranı 6 2 KOH(piksel) 0 4 ġekil 4.14. Blok10-1, 2 ve 203’ün radyometrik40 farklarının802 karesel ortalama hata miktar grafiği Sıkıştırma Oranı 0 10 20 40 80 Sıkıştırma Oranı

78

Çizelge 4.17. Blok-1, 2 ve 3’ün radyometrik farklarının ortalama hata miktarları

Sıkıştırma Blok-1 Blok-2 Blok-3 Oranları R G B Gri R G B Gri Gri JPEG2000-10 0,15 0,01 0,18 0,05 0,14 0,01 0,20 0,03 0,09 JPEG2000-20 0,15 0,01 0,18 0,05 0,14 0,01 0,19 0,00 0,09 JPEG2000-40 0,14 0,01 0,17 0,04 0,13 0,01 0,15 -0,05 0,10 JPEG2000-80 0,13 0,01 0,16 0,03 0,12 0,01 0,14 -0,12 0,12 MrSID-10 0,00 0,00 0,00 0,00 0,00 0,00 0,02 -0,02 0,04 MrSID-20 0,00 0,00 -0,01 0,00 -0,01 0,00 0,03 0,00 0,10 MrSID-40 0,01 0,00 -0,01 0,00 -0,02 0,01 0,00 -0,04 0,16 MrSID-80 0,03 0,00 -0,02 0,00 -0,04 0,04 -0,01 -0,02 0,21 JPEG2000 MrSID 0,15 0,25

0,1 0,2 MrSID Blok-1 0,05 0,15 Series1 Blok-2 0 Series2 0,10,25 10 20 40 80 Blok-3 -0,05 Series3 0,050,2

OrtalamaHata OrtalamaHata 0,15 -0,1 JPEG2000 Series1 0 0,1 -0,15 Series2 -0,05 10 20 40 80 0,15 Series3 Sıkıştırma Oranı 0,05 Sıkıştırma Oranı 0,1 OrtalamaHata 0 10 20 40 80 Blok-1 ġekil0,05 4.15. Blok-1, 2 ve 3’ün radyometrik farklarının-0,05 ortalama hata miktar grafiği Blok-2 0 Sıkıştırma Oranı 10 20 40 80

Blok-3 -0,05 OrtalamaHata -0,1Çizelge 4.18. Blok-1, 2 ve 3’ün radyometrik farklarının PSNR miktarları

-0,15 Sıkıştırma SıkıştırmaBlok Oranı-1 Blok-2 Blok-3 Oranları R G B Gri R G B Gri Gri JPEG2000-10 48,174 49,046 48,219 49,323 43,522 44,329 42,154 45,035 41,185 JPEG2000-20 45,982 46,764 46,227 47,162 41,657 41,898 39,883 42,568 39,363 JPEG2000-40 44,365 45,056 44,766 45,459 40,151 40,089 38,263 40,610 37,821 JPEG2000-80 43,259 43,898 43,737 44,293 38,987 38,555 37,018 38,987 36,626 MrSID-10 47,127 47,524 46,732 47,960 42,176 43,753 40,519 44,204 40,186 MrSID-20 44,687 45,035 44,707 45,483 40,489 40,954 39,171 41,300 38,460 MrSID-40 43,598 44,015 43,817 44,439 39,340 39,468 37,874 39,774 36,991 MrSID-80 42,231 42,592 42,496 43,025 37,837 37,693 36,584 37,977 36,020

JPEG2000 MrSID

60 60 50 50 Blok-1 40 Series1 40

Blok-2 30 Series2 30 PSNR PSNR Blok-3 20 JPEG2000 Series3 20 MrSID 10 10 0 60 0 60 1050 20 40 80 10 50 20 40 80 Blok-1 40 Sıkıştırma Oranı Series1 40 SıkıştırmaOranı

Blok-2 30 Series2 30 PSNR ġekilBlok-3 4.16. PSNR Blok20 -1, 2 ve 3’ün radyometrik farklarındanSeries3 elde20 edilen PSNR grafiği 10 10 0 0 10 20 40 80 10 20 40 80 Sıkıştırma Oranı SıkıştırmaOranı 79

Çizelge 4.17’de gösterilen ortalama hata miktarları incelendiğinde, MrSID formatında sıkıştırılmış görüntülerin JPEG2000 formatında sıkıştırılmış görüntülerden daha iyi sonuç vermektedir. MrSID formatında bütün renk kanallarındaki ortalama değerler sıfıra yakın değerlere sahipken, JPEG2000 formatında ise sadece yeşil renk kanalında bütün sıkıştırma oranlarında sıfıra yakın ortalama değer çıkmaktadır. Renkli görüntülerde insan gözünün en iyi algıladığı rengin yeşil olduğundan hareketle (mathworks.com), JPEG2000 sıkıştırma yönteminin sıkıştırmada en büyük ağırlığı yeşil kanala uyguladığı elde edilen sonuçlardan görülmektedir. Ancak radyometrik bozulmaların belirlenmesinde en fazla kullanılan ölçüt karesel ortalama hatadır. KOH değerleri dikkate alındığında ise JPEG2000 formatında sıkıştırılmış görüntülerin, MrSID formatında sıkıştırılan görüntülere oranla daha iyi sonuç verdiği, aradaki farkın yer yer iki kata kadar çıktığı, her üç fotogrametrik blokta elde edilen sonuçlardan görülmektedir. Her iki sıkıştırma formatında da kullanılan sıkıştırma oranlarına göre, çalışmadaki her üç blokta KOH değerleri doğrusal bir yapı sergilemiş, ancak ortalama hata miktarları ise değişken bir yapı göstermiştir. Sıkıştırılmış görüntülerdeki radyometrik distorsiyonun belirlenmesine sıklıkla kullanılan PSNR değer aralıkları ile ilgili kesin sınırların bulunmadığı belirtilmişti. Bu konuda Liu ve ark. (2005) tarafından 42 ve üzeri değerlerin yaklaşık kayıpsız sıkıştırma olarak nitelendirilebileceği, bir diğer kaynakta 30 ile 50 arasındaki PSNR değerlerinin kayıplı sıkıştırma olarak kabul edilebileceği ve ERDAS Imagine yazılımının MrSID format dönüşümü bölümünde ise 12:1 sıkıştırma oranına kadar olan sıkıştırmaların kayıpsız sıkıştırma olarak kabul edildiği görülmektedir. Çalışmada kullanılan bütün bloklarda kullanılan sıkıştırma oranları ile elde edilen değerleri, Liu ve ark. (2005) tarafından sunulan PSNR değeri ile sınıflandıracak olursak, Blok-1 içerisindeki tüm format ve oranlar ile elde edilen görüntülerin yaklaşık kayıpsız sayılabileceği, Blok-2 içerisinde 20:1’e kadar olan JPEG2000 ve 10:1’e kadar olan MrSID görüntülerinin yaklaşık kayıpsız sayılabileceği, Blok-3 içerisindeki bütün oranların ise bu değeri geçemediği görülmektedir. Diğer değerlerin tamamı 30’dan büyük olduğu için kayıplı sıkıştırma olarak değerlendirebiliriz. Radyometrik bozulmanın, sürekli tonlamaya sahip hava fotoğrafları dışında ayrık tonlamalı görüntülerde vereceği sonuçları da görebilmek amacıyla, renk skalası kullanılarak bir alt çalışma gerçekleştirilmiştir. Çalışmada; matbaacılıkta sonuç ürüne ait renk değerlerinin ölçümünde kullanılan renk tablosu kullanılmıştır. Orijinal TIFF formatındaki renk tablosu; 10:1, 15:1, 20:1, 30:1, 40:1, 60:1 ve 80:1 sıkıştırma

80 oranlarında MrSID ve JPEG2000 formatlarında sıkıştırılmıştır. Sürekli tonlamalı hava fotoğraflarında yapılan çalışmada olduğu gibi, sıkıştırma sonrasında elde edilen görüntülerin, orijinal görüntüden olan farkları oluşturulmuş ve bu farklara ait ortalama hata ve karesel ortalama hata değerleri hesaplanmıştır. Orijinal görüntü, sıkıştırılmış görüntü ve fark görüntülerine ait bir örnek Şekil 4.17’de gösterilmektedir. Herhangi bir matematiksel karşılaştırma yapılmadan, görsel olarak yapılan bir incelemede, ayrık tonlamalı görüntülerde, JPEG2000 formatının MrSID formatından çok daha iyi sonuç verdiği söylenebilir.

ç)

b)

a)

c)

d)

ġekil 4.17. Sıkıştırma sonrası radyometrik bozulma (a) Orijinal görüntü. b) 80:1 oranında sıkıştırılmış JPEG2000 görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID görüntüsü. ç) JPEG2000 fark görüntüsü. d) MrSID fark görüntüsü.)

Fark değerlerine ait elde edilen ortalama hata miktarları Çizelge 4.19’da, ortalama hata grafiği Şekil 4.18’de, karesel ortalama hata miktarları Çizelge 4.20’de ve karesel ortalama hata grafiği Şekil 4.19’da gösterilmiştir.

Çizelge 4.19. Renk skalası farklarına ait ortalama hata miktarları

Sıkıştırma Ortalama Hata - JPEG2000 Ortalama Hata - MrSID Oranı R G B R G B 10 100,01 100,01 100,02 99,98 99,98 99,97 15 100,01 100,01 100,03 99,95 99,95 99,80 20 100,02 100,01 100,03 99,53 100,12 99,72 30 100,02 100,01 100,01 99,54 99,90 101,04 40 100,02 99,99 100,01 99,94 99,91 99,81 60 99,96 99,98 99,96 100,49 99,49 101,49 80 99,95 99,92 99,94 98,87 99,87 103,52

81

Ortalama Hata Miktarları

104

103 Ort.Hata-jpeg2-red 102 Ort.Hata-mrsid-red 101 Ort.Hata-jpeg2-green 100 Ort.Hata-mrsid-green 99

Ortalama Hata Ortalama Ort.Hata-jpeg2-blue 98 Ort.Hata-mrsid-blue 97 96 10 15 20 30 40 60 80 Sıkıştırma Oranı

ġekil 4.18. Renk skalası farklarına ait ortalama hata grafiği

Ortalama hata miktarları incelendiğinde, JPEG2000 sıkıştırma formatının bütün sıkıştırma oranlarında ve renk bantlarında, ortalama hata miktarını sıfıra yakın tutacak şekilde bir yöntem izlediği, MrSID formatının ise sıkıştırma kararsız bir yapıda olduğu ve %2 oranına varan bozulmalara sebep olacak şekilde renk değerlerini değiştirdiği tespit edilmiştir.

Çizelge 4.20. Renk skalası farklarına ait karesel ortalama hata miktarları

Sıkıştırma Karesel Ortalama Hata - JPEG2000 Karesel Ortalama Hata - MrSID Oranı R G B R G B 10 0,17 0,09 0,23 2,63 1,45 3,54 15 0,17 0,09 0,24 2,94 1,93 3,89 20 0,19 0,11 0,25 3,58 2,76 4,30 30 0,26 0,19 0,32 4,79 3,81 6,01 40 0,43 0,36 0,47 5,32 4,46 7,10 60 0,84 0,73 0,90 7,16 5,66 9,21 80 1,53 1,48 1,60 9,18 7,58 15,13

Karesel Ortalama Hata Miktarları

16 14 12 koh-jpeg2-red

10 koh-mrsid-red koh-jpeg2-green 8

KOH koh-mrsid-green 6 koh-jpeg2-blue 4 koh-mrsid-blue 2

0 10 15 20 30 40 60 80 Sıkıştırma Oranları

ġekil 4.19. Renk skalası farklarına ait karesel ortalama hata grafiği

82

Karesel ortalama hata miktarları incelendiğinde, JPEG2000 formatındaki KOH miktarlarının MrSID formatında elde edilen KOH miktarından çok düşük seviyede olduğu, en düşük oranda (80:1) sıkıştırılmış JPEG2000 formatındaki hata miktarının bile en yüksek oranda (10:1) sıkıştırılmış MrSID formatındaki hata miktarından daha düşük olduğu tespit edilmiştir. Orijinal görüntünün ve 80:1 oranında sıkıştırılmış görüntülerin histogramlarına ait grafikler Şekil 4.20’de gösterilmiştir. JPEG2000 formatının 80:1 sıkıştırma oranında bile, orijinal görüntüdeki yapıyı korumaya çalıştığı, ancak MrSID formatının ise çok daha fazla miktarda bozulmaya uğrayarak orijinal görüntüden tamamen farklı bir yapı sergilediği görülmektedir.

a)

b)

c)

ġekil 4.20. Histogram grafikleri (a) Orijinal görüntü. b) 80:1 oranında sıkıştırılmış JPEG2000 görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID görüntüsü.)

Gerçekleştirilen alt çalışma sonrası elde edilen sonuç ise; JPEG2000 görüntüleri hem sürekli hem de ayrık tonlamalı görüntülerde başarılı sıkıştırma neticeleri verirken, MrSID görüntüleri sürekli tonlamalı görüntülerde ayrık tonlamalılara oranla daha iyi sonuç vermektedir. Bununla birlikte JPEG2000 formatı her iki durumda da MrSID formatına üstünlük sağlamıştır. Sıkıştırma sonrasında meydana gelen radyometrik bozulmalar, bozulma miktarının büyüklüğü nispetinde geometrik bozulmaların tetikleyicisi olmaktadır. Tez çalışmasında kullanılan görüntüler içerisinden çeşitli örnekler alınarak bu bozulmalar hakkında daha detaylı bilgiler edinilmeye çalışılacaktır. Hem geometrik hem de radyometrik açıdan yaklaşık kayıpsız sıkıştırma olarak nitelendirmede bulunulması

83 nedeniyle, Blok-1 içerisindeki orijinal görüntüler ile 80:1 oranında sıkıştırılmış görüntülerin mukayesesi yapılacaktır. Şekil 4.21’de radyometrik bozulmalar neticesinde meydana gelen geometrik bozulmalara bir örnek gösterilmektedir. Bina şekli kısmen değişmiş, çatı üzerindeki renk tonları dışarı doğru taşma göstererek, bina boyutunun olduğundan daha büyükmüş izlenimi vermektedir. Yolun sol tarafında yer alan daire şeklindeki rogar ise teşhis edilemeyecek şekilde bozulmaya uğramıştır. Elde edilen fark görüntüsünde meydana gelen geometrik bozulma açıkça görülmektedir.

a) b)

c) d)

ġekil 4.21. Geometrik bozulma örneği (rogar) (a) Orijinal görüntü. b) Fark görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID. d) 80:1 oranında sıkıştırılmış JPEG2000)

84

Radyometrik bozulma sonrasında meydana gelen parazit oluşumu ve doku değişimi Şekil 4.22’de gösterilmektedir. Solda yer alan bina çatısı üzerinde mevcut olan patternlerin sıkıştırılmış görüntüde kaybolmaya başladığı görülmekte, bununla birlikte sağda yer alan ve üzerinde herhangi bir tonlama değişimi bulunmayan binanın çatısında, yan yüzeyinde ve beton üzerinde sıkıştırma sonrasında gürültü veya parazitlerin oluştuğu net bir şekilde gözlenmektedir.

a) b)

c) d)

ġekil 4.22. Gürültü/parazit oluşması örneği (fabrika) (a) Orijinal görüntü. b) Fark görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID. d) 80:1 oranında sıkıştırılmış JPEG2000)

85

Radyometrik bozulma sonrasında oluşan doku değişimi ve patern kayıpları Şekil 4.23’da gösterilmektedir. Binanın güney tarafında yer alan çatı üzerindeki kiremitlerin paterni orijinal görüntüde net bir şekilde yer alırken, bu patern sıkıştırılmış görüntüde kaybolmaktadır ve bu kaybolmanın boyutu fark görüntüsünde açıkça görülebilmektedir.

a) b)

c) d)

ġekil 4.23. Doku değişimi örneği (çiftlik) (a) Orijinal görüntü. b) Fark görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID. d) 80:1 oranında sıkıştırılmış JPEG2000)

86

Görüntü içerisinde komşu pikseller arasında kontrastlık farkının fazla olduğu alanlarda, radyometrideki bozulma ve parazitlenme daha fazla olmakta, bunun sonucunda keskin kenarlara sahip detaylarda geometrik bozulmalar meydana gelebilmektedir. Şekil 4.24’de gösterilen farklara ait örnekte bu bozulmalar rahatlıkla görülmektedir.

a) b)

c) d)

ġekil 4.24. Yüksek kontrastlık farklarının meydana getirdiği bozulmalar (çatı kenarı ve duvar) (a) Orijinal görüntü. b) Fark görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID. d) 80:1 oranında sıkıştırılmış JPEG2000)

87

Fazla genişliğe sahip olmayan çizgisel detaylarda veri kayıpları meydana gelebilmektedir. Örneğin bir yüksek gerilim hattına ait elektrik telleri 80:1 oranındaki sıkıştırılmış görüntülerde teşhis edilebilirken, mono görüntüler üzerinde zor teşhis edilebilmektedir. Şekil 4.25’de mono görüntü üzerindeki kayıp gösterilmektedir. Orijinal görüntüde havadaki elektrik teli ve zemindeki gölgesi rahatlıkla teşhis edilebilirken, sıkıştırma sonrasında havadaki tel teşhis edilemez hale gelmiş, zemindeki gölgesinin izi üzerinde bozulmalar neticesinde dağılmalar oluşmuştur. Hangi verinin kaybolduğu bilgisi, yine Şekil 4.21 c)’de gösterilen farklara ait verilerden oluşturulan görüntüde görülebilmektedir.

a) b)

c) d)

ġekil 4.25. Monoskopik veri kayıpları (pilon ve elektrik hattı) (a) Orijinal görüntü. b) Fark görüntüsü. c) 80:1 oranında sıkıştırılmış MrSID. d) 80:1 oranında sıkıştırılmış JPEG2000)

88

4.5. TartıĢma

Raad (1996) tarafından sıkıştırılmış görüntülerin fotogrametrik işlemlerin başlangıcından sonuna kadar tüm aşamaları etkileyeceğinin bildirilmesinden hareket ederek, sıkıştırılmış görüntülerin doğruluk ve kalite üzerinde meydana getirdiği etkilerin incelenmesi ve fotogrametrik uygulamalarda kullanıma uygun sıkıştırma format ve oranının tesbit edilebilmesi amacıyla tez çalışması gerçekleştirilmiştir. İç yöneltme, bağlama noktalarının ölçülmesi ve sayısal yükseklik modellerinin oluşturulması aşamasında otomasyon sıklıkla kullanılmaktadır. Seçimi yapılan iki fotogrametrik bloktaki fotoğrafların sayısal hava kamerası ile elde edilmiş olması nedeniyle, otomatik iç yöneltme işlemi sadece analog hava kamerasıyla çekilen fotoğraflardan oluşan üçüncü blok için kullanılmıştır. Sıkıştırılmış görüntüler için oluşturulan fotogrametrik projeler içerisindeki YKN koordinatları olarak, orijinal görüntülerde ölçümü yapılan YKN değerleri kullanılmıştır. Klasik hava kameralarının yerini sayısal hava kameralarının alması ve uygulamalarda kullanımının oldukça artması nedeniyle, gerçekleştirilen çalışma sonuçlarının günümüz kullanıcılarının yararlanabileceği bir kaynak olabilmesi açısından önemlidir. Geometrik ve radyometrik doğruluk ile ilgili gerçekleştirilen bütün çalışmalarda, elde edilen çizelge ve grafiklerde, sayısal hava kamerası ile elde edilen görüntülerin, analog hava kamerası ile elde edilenlerden daha iyi sonuçlar verdiği görülmektedir. Burada elde edilen sonuçlar, Perko ve Gruber (2002), Gruber ve ark. (2004) ile Leberl ve Gruber (2005) tarafından belirtilen sayısal hava kameralarının getirdiği avantajları desteklemektedir. Radyometrik distorsiyon miktarının belirlenmesi aşamasında kullanılmakta olan PSNR sonuçları incelendiğinde, Blok-1’deki bütün sıkıştırma format ve oranları ile, Blok-2’deki 20:1’e (dâhil) kadar JPEG2000 formatı ve 10:1’e kadar (dâhil) MrSID formatının, Liu ve ark. (2005) tarafından belirtilen değere (PSNR>42) göre, yaklaşık kayıpsız sıkıştırma olarak adlandırılabilecektir. Ancak sıkıştırma çeşitlerinin PSNR değerleri ile sınıflandırılmalarına yönelik, netlik kazanmış bir değer aralığı kümesine de henüz rastlanılmamıştır. Konu ile ilgili yapılacak test çalışmalarının artmasını müteakip sınır değer aralıklarının netlik kazanacağı düşünülmektedir. Grgic ve ark. (2001) tarafından gerçekleştirilen JPEG ve JPEG2000 formatlarının karşılaştırılmasına yönelik benzer bir çalışma sonrasında, JPEG2000 görüntülerinin JPEG görüntülerinden daha iyi görüntü kalitesi sunduğu elde edilen

89

PSNR değerlerinin karşılaştırılması neticesinde ortaya konulmaktadır. Tez çalışmasında kullanılan her üç bloktaki bütün sıkıştırma oranlarında, JPEG2000 görüntülerinin PSNR değerlerinin MrSID görüntülerinden yüksek olduğu görülmektedir (Çizelge 4.18 ve Şekil 4.16). PSNR sonuçlarına göre JPEG2000 ile elde edilen sıkıştırılmış görüntülerin MrSID ile elde edilenlerden daha iyi görüntü kalitesi verdiğini ve daha iyi sıkıştırma performansına sahip olduğunu söyleyebiliriz. Sıkıştırılmış görüntülerdeki distorsiyon etkileri her ne kadar geometrik ve radyometrik olarak iki gruba ayrılsa da, ikisini birbirinden ayrı düşünmemek gerekmektedir. Geometrik bozulmalar radyometrik değişim sonrasında ortaya çıkmakta ve radyometrik bozulma miktarına bağlı olarak artmaktadır. Tez çalışmasında kullanılan her iki format sıkıştırma yöntemi olarak dalgacık tabanlı algoritmaları kullanmaktadır. MrSID formatı sıkıştırma işleminde bilgisayar işlemci ve hafızasının sabit bir bölümünü kullanmakta, JPEG2000 formatı ise görüntünün büyüklüğüne ve sıkıştırma oranına bağlı olarak değişken bir yapıda bu iki kaynağı kullanmaktadır. Bunun sonucu olarak da JPEG2000 formatı ile gerçekleştirilen sıkıştırma işlemi MrSID yöntemine göre daha kısa sürede tamamlanmaktadır (Çizelge 4.2 ve 4.4).

90

5. SONUÇLAR VE ÖNERĠLER

Görüntü sıkıştırma veya veri sıkıştırma farkında bile olmadan kullandığımız ve günlük yaşantımızın ayrılmaz bir parçası haline gelmiştir. Veri depolama ve veri iletim sistemlerinin kapasitelerindeki artışa paralel olarak, insan beklentileri de artmaktadır. Bu nedenle her veri grubunda sıkıştırma kaçınılmaz bir ihtiyaçtır. Dijital fotogrametrik harita üretim akışında da, sıkıştırılmış verilerin meydana getirdiği etkilerin ortaya konulabilmesi amacıyla, farklı fotoğraf ölçeklerine sahip üç fotogrametrik blok içerisinde yer alan hava fotoğrafları, dört farklı sıkıştırma oranında (10:1, 20:1, 40:1, 80:1) ve iki farklı görüntü formatında (JPEG2000, MrSID) sıkıştırılarak, fotogrametrik işlem aşamaları gerçekleştirilmiştir. Oluşturulan fotogrametrik bloklardan bir tanesi analog hava kamerası ile çekilen 1:26.000 ölçekli hava fotoğraflarından, diğer ikisi ise sayısal hava kamerası ile elde edilen 1:20.000 ve 1:65.000 ölçekli hava fotoğraflarından oluşturulmuştur. Görüntü sıkıştırma sonrasında meydana gelen geometrik, radyometrik ve kalite ile ilgili elde edilen sonuçlar, çalışmadaki iş akışındaki sırasına göre aşağıda belirtilmektedir:  Her iki görüntü formatında da kullanılan sıkıştırma oranları nispetinde dosya boyutları küçülerek (Çizelge 4.1), genel olarak sıkıştırma probleminin temelini teşkil eden veri depolama ve veri iletimi kapsamında çözümlerin elde edilebileceği görülmektedir.  Sayısal hava kameralarının kullanılmaya başlanılması ile birlikte fotogrametrik blok oluşturma iş akış sürecindeki manuel veya otomatik iç yöneltme işlemleri artık yapılmamakta, bunun neticesinde sıkıştırılmış görüntülerde otomatik veya manuel iç yöneltme işleminden kaynaklanabilecek ölçme hata kaynakları da ortadan kalkmaktadır.  Klasik hava kamerasıyla elde edilmiş ve filmlerin grenli yapısından veya banyo işlemlerinden kaynaklanan gürültü/parazit olarak adlandırılan bozuklukların sayısal kamera kamerası ile elde edilen görüntülerde bulunmaması, görüntü eşleme üzerinde önemli iyileştirmeler sağlamış, bu parazitlerin mevcut olmaması, dolaylı olarak sıkıştırılmış görüntülerde de etkisini göstermiştir. Tez çalışmasında kullanılan fotogrametrik bloklarda, 10:1 ile 80:1 sıkıştırma oranları ile elde edilen görüntüler üzerinden gerçekleştirilen fotogrametrik triangülasyondaki otomatik bağlama noktası ölçüm sonuçları incelendiğinde, eşlenen nokta sayılarında analog hava kamerası ile elde edilen fotoğraflarda sıkıştırma oranına bağlı olarak azalma gözlenirken, sayısal hava

91 kamerası ile elde edilen fotoğraflardan oluşturulan bloklar içerisinde sıkıştırma oranına bağlı olarak herhangi bir azalma olmadığı ve nokta sayılarının değişken yapıda olduğu tespit edilmiştir. Eşlenen nokta sayıları arasındaki bu farkın, analog ve sayısal kamera ile elde edilen fotoğraf yapısına ve kalitesine bağlı olduğu söylenebilir. Eşlenik nokta sayılarında azalma olsun veya olmasın fotogrametrik blok oluşturabilme ve fotogrametrik triangülasyon açısından klasik yöntemler ile manuel ölçülen bağlama nokta sayısından fazla sayıda ölçüm sonucunu içermektedir. Klasik yöntemler ile bağlama noktası ölçmünüde bir hava fotoğrafında en fazla 22 adet bağlama noktası (9 adet Gruber noktası, 2 adet kolon bağlama noktası ve yedekleri) bulunurken, oluşturulan fotogrametrik blok içerisinde bir fotoğrafdaki en düşük nokta sayısı 226 olarak belirlenmiştir (Çizelge 4.7).  MrSID ve JPEG2000 formatlarının sıkıştırma ve yeniden oluşturma aşamalarındaki bilgisayar kaynaklarının kullanımı açısından ölçüm ve inceleme çalışması yapılmıştır. Elde edilen sonuçlar ışığında MrSID format dönüşümünün bütün sıkıştırma oranlarında ve görüntü büyüklüklerinde işlemcinin sabit bir yüzdesini (%13) kullandığı, hafıza kullanımında ise bütün sıkıştırma oranlarında yine sabit bir oranı kullandığı, ancak görüntünün büyüklüğüne bağlı olarak bu sabit kullanım büyüklüğünün değiştiği (Blok-2 için 14.000 Kbyte, Blok-3 için 41.000 Kbyte) tespit edilmiştir. JPEG2000 formatının ise, sıkıştırma aşamasında MrSID gibi aynı sabit işlemci yüzdesini kullandığı, ancak hafıza kullanımında ise sıkıştırmanın oranına ve görüntünün büyüklüğüne bağlı olarak MrSID formatından daha fazla (En düşüğü MrSID’de kullanılan olacak şekilde ve yaklaşık 2,5 katına kadar değişen aralıklarda) hafıza kullandığı tespit edilmiştir. Sıkıştırma işleminde aynı işlemci yüzdesinin ancak daha fazla hafıza kullanımının getirdiği avantaj ile, JPEG2000 formatında sıkıştırma işlemi MrSID formatından daha hızlı bir şekilde gerçekleştrilmektedir (Çizelge 4.2 ve 4.4). Farklı donanım yapısına sahip bilgisayarlarda, tespit edilen ölçümlerden daha farklı sonuçların elde edileceği, ancak sonuçların benzer yapıda olacağı tahmin edilmektedir. Çalışmada kullanılan Erdas Imagine programından farklı format dönüşüm programlarının kullanılması durumunda, elde edilecek sonuçlar ile ilgili herhangi bir test çalışması yapılmadan kestirim yapmak mümkün değildir.  Bir diğer husus ise sıkıştırma oranının artması ile birlikte orijinal görüntüdeki doku yapılarının, komşu pikseller ile gerçekleştirilen görüntü dengelemesi sonrasında yavaş yavaş kaybolduğudur. Piksel değerlerinin birbirine yaklaşması sonrasında görüntü eşlemede kullanılan çapraz korelasyon katsayısı beklenen kriteri sağlayacak, ancak

92 eşlenen nokta konum doğrulukları yanlış olabilecektir. Özellikle otomatik SYM verisi oluşturma aşamasında bu problem net bir şekilde ortaya çıkmaktadır. Çöl, çayırlık, kumluk, göl, deniz vb. detaylardaki benzer dokuya sahip alanlarda eşlenen noktalardaki korelasyon katsayısının yüksek çıktığı, ancak konum doğruluklarının yanlış olabileceği bilinmektedir. Yüksek sıkıştırma oranları neticesinde oluşacak radyometrik bozulmaların benzer problemleri oluşturacağı değerlendirilmekte, ancak farklı sıkıştırma oranlarının doku değişimine etkileri konusunda detaylı bir çalışma yapılmasına ihtiyaç duyulmaktadır.  Tez çalışmasında kullanılan sayısal hava kamerası ile elde edilen fotoğraflar 1:20.000 ve 1:65.000 ölçeğinde ve 7.2 mikrometre çözünürlüğünde, analog hava kamerası ile elde edilen fotoğraflar 1:26.000 ölçeğinde ve 21 mikrometre çözünürlüğünde sayısallaştırılmıştır. Dörder adet YKN ve orijinal görüntüler kullanılarak fotogrametrik bloklar oluşturulmuştur. YKN noktalarının resim koordinatları sıkıştırılmış görüntüler ile oluşturulan blokların içerisine alınarak, triangülasyon işlemleri gerçekleştirilmiştir. Fotogrametrik triangülasyon neticesinde, analog hava kamerası ile oluşturulan ve 80:1 sıkıştırma oranındaki JPEG2000 ve MrSID formatlarının, BÖHHBÜY’de belirtilen (8 mikrometre) yeterli doğruluğu sağlamadığı, yine analog hava kamerası ile oluşturulan 40:1 sıkıştırma oranındaki JPEG2000 ve MrSID formatlarının kabul değerine çok yakın olduğu, ancak diğer bütün fotogrametrik blokların yeterli dengeleme doğruluğunu sağladığı tespit edilmiştir (Çizelge 4.10).  1:20.000 ölçekli fotogrametrik blok içerisinde 76 adet kontrol noktası, 1:26.000 ve 1:65.000 ölçekli fotogrametrik blokların ortak alanı içerisinde de 45 adet kontrol noktası tespit edilerek, bütün projelerde stereo modeller üzerinden bu noktaların üç boyutlu koordinat ölçümleri gerçekleştirilmiştir. Orijinal fotoğraflar ile oluşturulan fotogrametrik blok içerisindeki nokta koordinat değerleri ile sıkıştırılmış fotoğraflar ile oluşturulan fotogrametrik bloklardaki nokta koordinat değerleri kullanılarak farklar hesaplanmış, bu farklardan yararlanılarak KOH değerleri bulunmuştur (Çizelge 4.12, 4.13 ve 4.14 ve Şekil 4.12). Aynı oranda sıkıştırılmış JPEG2000 görüntülerinin MrSID görüntülerinden daha iyi sonuç verdiği belirlenmiştir. Şekil 4.12 içerisindeki KOH eğim grafikleri incelendiğinde; sıkıştırma oranı yükseldikçe, analog hava kamerası ile elde edilen görüntülerdeki eğim katsayısının sayısal hava kamerası ile elde edilenlerden daha yüksek olduğu görülmekte, yani sıkıştırma oranı arttıkça analog görüntülerdeki karesel ortalama hata miktarı sayısala göre daha fazla artmaktadır.

93

 Radyometrik bozulmaların tespiti amacıyla sıkıştırma sonrasında elde edilen görüntüler orijinal görüntüden çıkarılmak suretiyle, piksel değerleri üzerinde meydana gelen değişimler belirlenmiştir. Her iki görüntü formatı da benzer algoritmalara göre daha iyi performansa sahip olan dalgacık tabanlı sıkıştırma algoritmasını kullanmaktadır. Piksellere ait renk farklarından KOH değerleri hesaplanmıştır. Her üç blokta ve sıkıştırma oranlarında, JPEG2000 görüntü formatının MrSID görüntü formatından daha iyi sıkıştırma kalitesi elde etmesi şeklindedir. Örneğin Blok-1 içerisindeki 40:1 ve 80:1 oranındaki sıkıştırılmış JPEG2000 görüntüleri, 20:1 ve 40:1 oranında sıkıştırılmış MrSID görüntüleri ile yaklaşık aynı radyometrik doğruluğu verdiği tespit edilmiştir.  Radyometrik distorsiyonun başka bir ölçütü olan PSNR değerleri, tez çalışmasında kullanılan format ve sıkıştırma oranlarının tamamında hesaplanmıştır. Blok-1’deki bütün sıkıştırma format ve oranları ile Blok-2’deki 20:1’e (dâhil) kadar JPEG2000 formatı ve 10:1’e kadar (dâhil) MrSID formatının, Liu ve ark. (2005) tarafından belirtilen değere (PSNR>42) göre, yaklaşık kayıpsız sıkıştırma olarak adlandırılabilecektir. KOH değerlerinden elde edilen PSNR sonuçları incelendiğinde (Çizelge 4.18), aynı sıkıştırma oranı uygulandığında, JPEG2000 görüntülerinin MrSID görüntülerinden daha iyi görüntü kalitesi sağlamaktadır.  Ayrık tonlamaya sahip renk skalası kullanılarak gerçekleştirilen alt çalışma sonrası elde edilen sonuç ise; JPEG2000 görüntüleri hem sürekli hem de ayrık tonlamalı görüntülerde başarılı sıkıştırma neticeleri verirken, MrSID görüntüleri sürekli tonlamalı görüntülerde ayrık tonlamalılara oranla daha iyi sonuç vermektedir. Bununla birlikte JPEG2000 formatı her iki durumda da MrSID formatına üstünlük sağlamaktadır.  Elde edilen bir diğer sonuç ise geometrik bozulmaların radyometrik bozulmalardan ayrı olarak ele alınmaması şeklindedir. Çünkü radyometrik bozulmadan kaynaklanan değişimler geometrik bozulmaların kaynağını oluşturmaktadır. Aradaki bağlantıyı ortaya koyabilmek amacıyla farklı detay karakteristiklerine sahip görüntüler üzerinde inceleme çalışması gerçekleştirilmiş ve bunun neticesinde; komşu pikseller arasında tonlama farkının olmadığı veya çok az olduğu görüntülerde sıkıştırma sonrasında gürültülerin oluştuğu, bunun tam aksine orijinal görüntü içerisinde belirli paterne sahip bölgelerde gürültülerin oluşması ile birlikte paternlerin kaybolmaya başladığı, komşu pikseller arasında kontrastlık farkının fazla olduğu detaylarda sıkıştırma sonrasında ton değişiminin fazla olması nedeniyle detay üzerinde geometrik

94 bozulmaların başladığı, renk tonlaması farkının fazla olduğu görüntü parçalarında sıkıştırma sonrasında özellikle detay kenarlarında renk dağılmalarının fazla olduğu şeklinde bir takım çıkarımlar gerçekleştirilmiştir.  Geometrik ve radyometrik olarak elde edilen neticeler çerçevesinde; sayısal hava kamerası ile çekilen fotoğraflardan elde edilen, 80:1 sıkıştırma oranı dâhil olmak üzere JPEG2000 ve MrSID görüntülerinin ve analog hava kamerası ile çekilen fotoğraflardan elde edilen, 40:1 sıkıştırma oranına kadar JPEG2000 ve MrSID görüntülerinin fotogrametrik uygulamalar için yeterli olmaktadır. Bununla birlikte sıkıştırma sonrası meydana gelebilecek detay teşhisindeki kayıplar konusunda, detay toplamayı da içerine alacak şekilde fotogrametrik üretimlerde kullanılan diğer görüntü ölçekleri ile birlikte bir çalışma yapılmasının, fotogrametrik değerlendirme uygulamalarına yönelik çok önemli sonuçlar vereceği değerlendirilmektedir.

95

KAYNAKLAR

Açıkgöz, R., Doğan, S., Banger, G., 1999, Raster görüntülerinin yapısı, görüntüleme tekniklerinin temelleri ve bitmap formatı, Harita ve Kadastro Mühendisliği Dergisi,, Sayı 86, Ankara.

Aksan, E. ve Doğan, S., 2004, Dalgacık tabanlı görüntü sıkıştırma tekniği, Havacılık ve Uzay Teknolojileri Dergisi, 1(4), 47-54.

Anonymous, 1994, Variable to fixed length source coding-tunstall codes, Suplemantary Notes-1, www.rle.mit.edu/rgallager/documents/notes1.pdf, 1-8, [Ziyaret Tarihi: Haziran 2010].

Anonymous, 2009, JPEG2000 compression for global ASTER DEM, MicroImages Inc., www.microimages.com/documentation/TechGuides/75jp2AsterDEM.pdf, [Ziyaret Tarihi: Mayıs 2010].

Anonymous, 2011, Simulation and evalueation, http://nccur.lib.nccu.edu.tw/bitstream/ 140.119/32688/8/303608.pdf, [Ziyaret Tarihi: Şubat 2011].

Anonymous, Match-AT, http://www.inpho.de/products/georeferencing/MATCH-AT, [Ziyaret Tarihi: Şubat 2010].

Anonymous, Microsoft Windows bitmap file format summary, www.fileformat.info/ format/bmp/egff.htm [Ziyaret Tarihi: Mart 2009].

Anonymous, MrSID image format, Generation 2, www.digitalpreservation.gov/ formats/fdd/fdd000031.shtml [Ziyaret Tarihi: Nisan 2009].

Anonymous, TIFF Revision 6.0 Final, Adobe Developers Association, www.partners.adobe.com/public/developer/tiff/index.html [Ziyaret Tarihi: Kasım 2009].

Anonymous, UltraCamX large format digital aerial camera, Vexcel Imaging, www.aerial-survey-base.com/site_HTML/pdfs/Cameras_PDF/UCX/UltracamX_ UCX_brochure.pdf [Ziyaret Tarihi: Ocak 2010].

Avcıbaş, İ., Memon, N., Sankur, B., Sayood, K., 2002, A progressive lossless/near- lossless image compression , IEEE Signal Processing Letters, 9(10), 312-314.

BÖHHBÜY, 23 Haziran 2005, Büyük ölçekli harita ve harita bilgileri üretim yönetmeliği, Karar Nu:2005/9070.

Christophe, E., Leger, D., Mailhes, C., 2008, New quality representation for hyperspectral images, Commission VII/3, ISPRS Congress, Beijing, China.

Christophe, E., Thiebaut, C., Latry, C., 2008, Compression specification for efficient use of high resolution satellite data, Commission IV/9, ISPRS Congress, Beijing, China.

96

Cormack, G.V. ve Horspool, R.N.S., 1987, using dynamic Markov modelling, The Computer Journal, 30(6), 541-550.

DeVore, R.A., Jawert, B., Lucier, B.J., 1992, Image compression through wavelet , IEEE Transactions on , 38(2), 719-746.

Elias, P., 1975, Universal codeword sets and representations of the integers, IEEE Transactions on Information Theory, 21(2), 194-203.

Erdem, N., 2006, Vektör kuantalama ile görüntü sıkıştırma, Yüksek Lisans Tezi, Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü, İstanbul.

Fisher, Y., 1995, Fractal image compression: theory and application, Springer-Verlag, New York, USA.

Gersho, A. ve Gray, R.M., 1992, Vector quantization and signal compression, Kluwer Academic Publishers, Boston, USA.

Gray, K.L., 2002, The JPEG2000 standard, Technishe Universitat München, http://omen.cs.uni-agdeburg.de/itiamsl/cms/upload/lehre/winter04_05/content.pdf.

Grgic, S., Mrak, M., Grgic, M., 2001, Comparision of JPEG image coders, Proceedings of the 3rd International Symposium on Video Processing and Multimedia Communications, Zadar, Croatia, 79-85.

Gruber, M., Perko, P., Ponticelli, M., 2004, The all digital photogrammetric workflow: redundancy and robustness, Commission I, W/G I/6, ISPRS Congress, İstanbul, Türkiye.

Günlü, G., Bilge, H.S., 2006, Global ayrık kosinüs dönüşümü ile görüntü sıkıştırmada başarımın iyileştirilmesi, Conference for Computer-Aided Engineering and System Modeling, Gazi Üniversitesi, Ankara.

Jacobsen, K., 2010, Dvelopment of digital aerial cameras, ISPRS Istanbul Workshop 2010 on Modeling of optical airborne and spaceborne Sensors, WG I/4, IAPRS Vol. XXXVIII, part 1/W4.

Jie, Y., Zhongshan, Z., Huiling, Q., Peihuang, G., Guoning, Z., 2008, An improved method of remote sensing image compression based on fractal and wavelet domain, Commission VI, WG VI/4, ISPRS Congress, Beijing, China.

Kidner, D.B. ve Smith, D.H., 2003, Advances in the data compression of digital elevation models, Computers & Geosciences, 28(8), 985-1002.

Kiefner, M. ve Hahn, M., 2000, Image compression versus matching accuracy, International Archives of Photogrammetry and Remote Sensing, 33(B2), Amsterdam, Netherland.

97

Lam, K.W., Li, Z., Yuan, X., 2001, Effects of jpeg compression on the accuracy of digital terrain models automatically derived from digital aerial images, The Photogrammetric Record, 17(98), 331-342.

Leberl, F. ve Gruber, M., 2005, ULTRACAM-D: understanding some noteworthy capabilities, Photogrammetric Week 2005, Dieter Fritsch, Ed,, Wichmann Verlag, Heidelberg, 57-68.

Liu, J.K., Wu, H.C., Shih, T.Y., 2005, Effects of JPEG2000 on the information and geometry content of aerial photo compression, Photogrammetric Engineering & Remote Sensing, Journal of the American Society for Photogrammetry and Remote Sensing, 71(2), 157-167.

Mahoney, M.V., 2005, Adaptive weighing of context models for lossless data compression, Florida Institute of Technology CS Dept., www.cs.fit.edu/ ~mmahoney/compression/cs200516.pdf [Ziyaret Tarihi: Şubat 2010].

Marcellin, M.W., Gormish, M.J., Bilgin, A., Boliek, M.P., 2000, An overview of JPEG- 2000, IEEE data compression conference, 523-541.

Martin, M.B. ve Bell, A.E., 2001, New image compression techniques using multiwavelets and multiwavelet packets, IEEE Transactions on Image Processing, 10(4), 500-510.

Mathworks.com, 2011, PSNR, http://www.mathworks.com/help/toolbox/vipblks/ref/ psnr.html, [Ziyaret Tarihi: Şubat 2011].

Mesut, A. ve Carus, A., 2005, Kayıpsız görüntü sıkıştırma yöntemlerinin karşılaştırılması, II. Mühendislik Bilimleri Genç Araştırmacılar Kongresi, İstanbul, 93-100.

Murty, S., ECW (Wavelet compression for digital imagery and image web server from earth resource mapping), www.gisdevelopment.net/technology/ic/techip0003.htm [Ziyaret Tarihi: Ocak 2010].

Novak, K. ve Shahin, F.S., 1996, A comparision of two image compression techniques for softcopy photogrammetry, Photogrammetric Engineering & Remote Sensing, Journal of the American Society for Photogrammetry and Remote Sensing, 62(6), 695-701.

Oimoen, M.J., 2004, The effects of wavelet copression on digital elevation models (DEMs), http://proceedings.esri.com/library/userconf/proc04/docs/pap1748.pdf>.

Pan, Z., Rust, A.G., Bolouri, H., 2000, Image redundancy reduction for neural network classification using discrete cosine transforms, Neural Networks 2000, Proceedings of the IEEE-INNS-ENNS International Joint Conference on, 6, 149- 154.

98

Perko, R., Gruber, M., 2002, Comparison of quality and information content of digital and film-based images, ISPRS Commission III, Symposium 2002, Graz, Austria.

Raad, A.S., 1996, Special issue on softcopy photogrammetry, Photogrammetric Engineering & Remote Sensing, Journal of the American Society for Photogrammetry and Remote Sensing, 62(6).

Said, A. ve Pearlman, W.A., 1993, An image multiresolution representation for lossless and lossy compression, SPIE Symposium on Visual Communications and Image Processing, Cambridge, MA.

Salomon, D., 2004, Data compression: the complete reference, 3rd ed., Springer, New York, USA.

Salomon, D., 2008, A concise introduction to data compression, Springer, London, England.

Sayood, K., 2005, Introduction to data compression, 3rd ed., Morgan Kaufmann Publishers, San Diego, USA.

Schieve, J., 1998, Efeect of lossy data compression techniques on geometry and information content of satellite imagery, IAPRS, GIS-Between Visions and Applications, 32(4), Stuttgart, Germany, 540-544.

Seroussi, G. ve Weinberger, M.J., 1997, On adaptive strategies for an extended family of golomb-type codes, Data Compression Conference, Utah, USA.

Skodras, A., Christopoulas, C., Ebrahimi, T., 2001, The JPEG2000 still image compression standard, IEEE Signal Processing Magazine, 36-58.

Skopal, T., 2002, ACB compression method and query preprocessing in text retrieval systems, Technical University of Ostrava, Computer Science Dept,, www.siret.ms.mff.cuni.cz/skopal/pub/acb.pdf [Ziyaret Tarihi: Şubat 2009].

Uçar, E., 2001, Uydu görüntülerinden elde edilen sayısal yükseklik modellerinde doğruluk araştırması, Yüksek Lisans Tezi, İstanbul Teknik Üniversitesi Fen Bilimleri Enstitüsü, İstanbul.

Wallace, G.K., 1992, The JPEG still picture compression standard, IEEE Transactions on Consumer Electronics, 38.

Wang, Z. ve Bovik, A.C., 2002, A universal image quality index, IEEE Signal Processing Letters, 9(3), 81-84.

Weinberger, M.J., Seroussi, G., Sapiro, G., 2000, The LOCO-I lossless image compression algoritm: principles and standardization into JPEG-LS, IEEE Transactions on Image Processing, 9(8), 1309-1324.

99

Wolf, J.K. ve Kurkoski B.M., 2008, Slepian-Wolf coding, www.scholarpedia.org/ article/Slepian-Wolf_coding [Ziyaret Tarihi: Mayıs 2010].

Wu, X. ve Memon, N., 1997, Context-based, adaptive, lossless image codec, IEEE Transactions on Communications, 45(4), 437-444.

Xing, S., Xu, Q., Ma, D., 2008, Speckle denoising based on bivariate shrinkage functions and dual-tree complex , Commission I, W/G I/2, ISPRS Congress, Beijing, China.

Yılmaztürk, F. ve Akçay, Ö., 2005, JPEG görüntü sıkıştırmanın yakın mesafe fotogrametri üzerindeki etkileri, 10. Türkiye Harita Bilimsel ve Teknik Kurultayı, Ankara, Türkiye, 918-925.

Zhang, J., 2001, Wavelet compression and MrSID, 20th International Cartographic Conference, Beijing, China.

Zheng, J., Fang, J., Han, C., 2008, The selection of reversible integer-to-integer wavelet transforms for DEM multi-scale representation and progressive compresion, Commission IV, W/G IV/5, ISPRS Congress, Beijing, China.

100

ÖZGEÇMĠġ

KĠġĠSEL BĠLGĠLER

Adı Soyadı : Ekrem UÇAR Uyruğu : T.C. Doğum Yeri ve Tarihi : Polatlı – 1971 Telefon : 0 542 485 6029 Faks : - e-mail : [email protected]

EĞĠTĠM

Derece Adı. Ġlçe. Ġl Bitirme Yılı Lise : Maltepe Askeri Lisesi, Güzelbahçe, İzmir 1989 Kara Harp Okulu, Çankaya, Ankara 1993 Üniversite : Harita Yüksek Teknik Okulu, Çankaya, Ankara 1995 Yüksek Lisans : İstanbul Teknik Üniversitesi, Maslak, İstanbul 2001 Doktora : Selçuk Üniversitesi, Konya 2011

Ġġ DENEYĠMLERĠ

Yıl Kurum Görevi Harita Genel Komutanlığı, Fotogrametri Proje Subayı ve 1995-2006 D.Bşk.lığı Kısım Amiri Harita Genel Komutanlığı, Plan ve Üretim. Yönetim 2006-2010 Prensipler D.Bşk.lığı Kısım Amiri Harita Genel Komutanlığı, Kartografya Küçük Ölçekli Harita 2010- D.Bşk.lığı Üretim Kısım Amiri

UZMANLIK ALANI

Harita Genel Komutanlığı içerisinde harita üretim birimlerinde görev yapması nedeniyle aşağıda belirtilen konularda deneyim sahibidir; - Analog fotogrametrik kıymetlendirme sistemlerinde yöneltme, fotogrametrik değerlendirme, kontrol ile büyük ve orta ölçekli çizgisel harita üretimi, - Yarı analitik ve analitik fotogrametrik sistemler ile harita üretimi, - MicroStation CAD programı ile sayısal harita üretim sisteminin kurulması, - Digital fotogrametrik sistemlerin kurulması, yönetilmesi ve üretim sisteminin oluşturulması, - Harita üretiminin bütün aşamalarını içerecek şekilde kısa ve uzun vadeli planların oluşturulması ve kontrolü, - Coğrafi Bilgi Sistemleri konusunda çalışma tecrübesi, topolojik yapıda veri oluşturma ve sorgulama, - Küçük ölçekli kara ve hava serisi harita üretimi, - Sivil havacılıkta kullanılmakta olan mania ve hassas yaklaşma planlarının oluşturulması.

101

YABANCI DĠLLER

İngilizce.

BELĠRTMEK ĠSTEĞĠNĠZ DĠĞER ÖZELLĠKLER

1997 yılında Toulouse-Fransa’da “Uydu Haritacılığı” konusunda 2 ay süre ile eğitim almış, 1998 yılında Orta Doğu Teknik Üniversitesi Bilgisayar Mühendisliği bölümünde 11 ay sure ile “Bilgisayar Programcılığı ve İşletimi” konularında öğrenim görmüş, 2002-2003 yılları arasında Madrid-İspanya’da Avrupa Birliği Uydu Merkezinde altı ay süre ile ve 2005 yılında Bakü-Azerbaycan’da iki ay süre ile görev yapmıştır. Evli ve iki çocuk babasıdır.

YAYINLAR

- - Uydu görüntülerinden elde edilen sayısal yükseklik modellerinde doğruluk araştırması. Yüksek Lisans Tezi. İstanbul Teknik Üniversitesi Fen Bilimleri Enstitüsü. 2001. İstanbul.

- B.Ergün. E.Uçar. 2004. Fotogrametride Üç Boyutlu Şehir Modelleme Teknikleri ve CBS Kullanımı. Harita Dergisi. Sayı 132. Sayfa 48-56.