Сжатие с потерями данных




Вышеназванный процесс означает, что после распаковки архива мы получим документ, несколько отличающийся от первоначального. Логически можно понять, что чем выше степень сжатия, тем больше величина потери и наоборот. Сжатие с потерями используется в основном для архивации трех видов данных. Это: полноцветная графика; звук; видеоинформация. Процесс сжатия с потерями обычно проходит в два этапа. Во время первого этапа исходная информация приведется (с потерями) к виду, в котором ее можно эффективно сжимать алгоритмами второго этапа сжатия без потерь. Основное достоинство алгоритмов сжатия с потерями - это простота их реализации. Кроме того, эти алгоритмы обеспечивают очень высокую степень сжатия, при этом сохраняют необходимое для восстановления количество информации. Использование подобных алгоритмов, как правило, выгодно использовать для сжатия аналоговых величин, например, звуков или изображений. В подобных случаях конечный результат, вероятнее всего, будет очень отличаться от оригинала. Однако человек, который не снабжен специальным оборудованием, эту разницу может совсем не заметить. Эти алгоритмы не станут применять для архивации текстов, баз данных и особенно для программ. Так как малейшие искажения в простом неформатированном тексте не несут никакой опасности и их еще как-то можно исправить, но если искажение произошло хотя бы в одном бите какой-либо программы, то это приведет ее в нерабочее состояние.
В то же время, имеются различные материалы, которые могут позволить рискнуть несколькими процентами информации, чтобы получить высокий коэффициент сжатия информации. Сюда можно отнести фотографии, видеоматериалы и музыкальные вариации. Потеря информации при сжатии и последующей распаковке в таких материалах воспринимается не так остро, просто как появление некоторого дополнительного «шума». Но так как при создании материалов подобный «шум» в определенной степени все равно присутствует, его небольшое повышение не всегда выглядит так страшно, а выигрыш при этом в размерах файлов дает огромный (в 10−15 раз на музыке, в 20−30 раз на фото- и видеоматериалах). К алгоритмам сжатия с потерей информации относят, как правило, такие распространенные алгоритмы, как JPEG и MPEG. Первый можем использовать для сжатия фотоизображений. Полученные в итоге графические файлы будут иметь расширение.jpg. Алгоритмы MPEG будем использовать для сжатия видеоинформации и музыки. Эти файлы могут иметь различные расширения, что зависит от программы, в которой они сжимались, но наиболее распространенные из них:.mpg (для видео) и.мрз (для музыки). Алгоритмы сжатия с потерей информации применяют лишь для решения каких-либо задач пользователя. Например, если фото нужно передать для просмотра, а музыку - для воспроизведения. Если же фото и музыку необходимо передать для дальнейшей обработки, например для редактирования, то даже минимальная потеря информации в исходном материале приведет к удручающим последствиям. Величиной допустимой потери при сжатии обычно можно управлять. Это позволяет экспериментировать и добиваться оптимального соотношения размера и качества.
JPEG
Алгоритм JPEG разработала группа фирм под названием Joint Photographic Experts Group. Целью данной разработки стало создание высокоэффективного стандарта сжатия как черно-белых, так и цветных изображений. С помощью этого формата можно регулировать степень сжатия информации, если задавать при этом степень потери качества. В настоящее время JPEG широко применяется там, где необходима высокая степень сжатия информации, например, в Интернете.
Представьте себе принцип действия алгоритма, при котором изображение нужно разбить на квадраты размером х 8х8 пикселей, после этого каждый квадрат, в свою очередь, преобразовать в последовательную цепочку, состоящую из 64 пикселей. Каждую такую цепочку снова преобразовать, при этом входная последовательность пикселей будет представлена в виде суммы синусоидальных и косинусоидальных составляющих с кратными частотами. Эти составляющие называют гармониками. В данном случае нужно знать лишь амплитуду этих гармоник, чтобы восстановить входную последовательность с достаточной степенью точности. Чем больше количество известных нам гармонических составляющих, тем меньше будет расхождение между оригиналом и сжатым изображением. Большинство кодеров JPEG разрешают регулировать степень сжатия. Достигается это очень просто: чем выше степень сжатия устанавливаем, тем меньшее количество гармоник будет определять каждый блок из 64 пикселей. Конечно же, достоинством этого кодирования является высокий коэффициент сжатия и сохранение при этом исходной глубины цвета. Именно это свойство способствует его широкому использованию в сети Интернет, где уменьшение размеров файлов имеет наиважнейшее значение, в мультимедийных энциклопедиях, где хранится максимальное количество графики в ограниченном объеме. Недостатком данного формата является внутреннее ухудшение качества изображения. Именно это не позволяет применять его в полиграфии, где качество ценится превыше всего. Однако формат JPEG не является единственным в своем роде, способным уменьшить размер конечного файла. В последнее время стал разрабатываться и использоваться алгоритм вейвлет-преобразования (или всплеск-преобразования). Основанные на сложнейших математических принципах вейвлет-кодеры способствуют получению большего сжатия, чем JPEG, при меньших потерях информации. Несмотря на сложность математики вейвлет-преобразования в программной реализации гораздо проще, чем JPEG. Хотя алгоритмы вейвлет-сжатия только начинают развиваться, им уготовано большое будущее. Фрактальное сжатие Идея данного метода сжатия информации состоит в представлении изображений в более компактной форме - с помощью коэффициентов системы итерируемых функций (Iterated Function System - далее IFS). Давайте разберемся, как же с помощью IFS строится изображение, т.е. происходит процесс декомпрессии. IFS представляют собой набор трехмерных аффинных преобразований, с помощью которых можно перевести одно изображение в другое. Преобразованию подвергаются точки в трехмерном пространстве (x - координата, y - ордината, яркость).
Очень наглядно этот процесс продемонстрировал Барнсли, который описал принцип построения фотокопировальной машины, состоящей, в свою очередь, из экрана, на котором изображена исходная картинка, и системы линз, которая способна проецировать это изображение на другой экран. Причем линзы проецируют часть изображения произвольной формы в любое место нового изображения, при этом области с новыми изображениями не пересекаются. Линза может менять яркость, контрастность, зеркально отражать и поворачивать свой фрагмент изображения. Она может масштабировать (уменьшать) свой фрагмент изображения. Расставляя линзы и меняя их характеристики, можно управлять получаемым изображением. Одна итерация работы машины заключается в том, что согласно исходному изображению с помощью проектирования строится новое, после чего новое берется в качестве исходного. Утверждают, что в процессе итераций можно получить изображение, которое не станет больше изменяться. Оно станет зависеть лишь от расположения и характеристик линз, и не станет зависеть от исходной картинки. Такое изображение называют "неподвижной точкой" или аттрактором данной IFS. Соответствующая теория гарантирует наличие ровно одной неподвижной точки для каждой IFS. Так как отображение линз является сжимающим, то каждая из них, в свою очередь, в явном виде задает самоподобные области в изображении. Благодаря этому подобию самой себе образуется довольно сложная структура изображения при любом увеличении. Таким образом, интуитивно мы понимаем, что система итерируемых функций задает фрактал (самоподобный математический объект).
Из вышесказанного становится понятным, как работает архиватор, и почему ему требуется так много времени для работы. То есть фрактальная компрессия – это, ничто иное, как поиск подобных самой себе областей в изображении и определение для них параметров.

Сравнение с JPEG

В настоящее время наиболее распространен алгоритм архивации графики JPEG. Давайте попробуем сравнить его с фрактальной компрессией. Для начала можно отметить, что оба алгоритма работают с 8-битными (в градациях серого) и 24-битными полноцветными изображениями. Оба принадлежат к классу алгоритмов сжатия с потерями и способны обеспечивать близкие коэффициенты архивации. И фрактальный алгоритм, и JPEG могут увеличивать степень сжатия за счет увеличения потерь. Помимо этого, оба довольно таки хорошо распараллеливаются.

Различия начинаются, когда мы начинаем рассматривать время, затраченное алгоритмами на процессы архивации и разархивации. Фрактальный алгоритм сжимает в сотни и даже в тысячи раз дольше, чем JPEG. Распаковку изображения, наоборот, данный алгоритм выполняет в 5−10 раз быстрее. Исходя из этого, можно сделать вывод, что фрактальный алгоритм выгоднее применять в том случае, когда изображение будет сжато только 1 раз, а передавать его будут по сети и распаковывать много раз.

В алгоритме JPEG используют принцип разложения изображения по косинусоидальным функциям, в связи с этим потери могут проявляться в волнах и ореолах на границах резких переходов цветов. Этот эффект, как правило, сразу заметен при качественной печати. Фрактальный алгоритм не обладает этим недостатком. Кроме того, при печати изображения всякий раз приходится выполнять масштабирование, так как растр печатающего устройства никак не может совпасть с растром изображения. При преобразовании также могут возникнуть другие достаточно неприятные эффекты, которые легко можно устранить при программном масштабировании изображения или же нужно укомплектовать устройство печати своими процессором, винчестером и набором программ обработки изображений (для дорогих фотонаборных автоматов). При использовании фрактального алгоритма подобные проблемы не возникают. И, все-таки, методы сжатия с потерями имеют свои недостатки. Один из них состоит в том, что компрессия с потерями информации может применяться не во всех случаях анализа графики. К примеру, если в процессе сжатия изображения на лице вдруг изменится форма родинки (лицо же при этом все равно останется узнаваемым), то эта фотография окажется вполне пригодной, чтобы выслать ее почтой друзьям или же родственникам. Но в случае, когда пересылается снимок, например, какого-либо органа человека на медицинскую экспертизу для анализа, в этом случае искажения просто нельзя допускать. Другой недостаток заключается в том, что с каждой повторной компрессией и декомпрессией погрешности будут накапливаться все больше и больше.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2017-07-13 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: