Аддитивные методы в фотографии




 

Методы получения цветных изображений, основанные на аддитивном синтезе цветов. Методы цветной фотографии#Аддитивные методы

 

Аддитивные величины в быту и в экономике

 

Примером аддитивной величины можно считать деньги и другие материальные ценности, подлежащие количественному учету, а также рабочее время итд (хотя эффект их применения вообще говоря не аддитивен).

 

 

Теорема Котельникова

Теорема Котельникова (в англоязычной литературе — теорема Найквиста — Шеннона или теорема отсчётов) гласит, что, если аналоговый сигнал имеет финитный (ограниченный по ширине) спектр, то он может быть восстановлен однозначно и без потерь по своим дискретным отсчётам, взятым с частотой строго большей удвоенной верхней частоты :

Такая трактовка рассматривает идеальный случай, когда сигнал начался бесконечно давно и никогда не закончится, а также не имеет во временно́й характеристике точек разрыва. Именно это подразумевает понятие «спектр, ограниченный частотой ».

Разумеется, реальные сигналы (например, звук на цифровом носителе) не обладают такими свойствами, так как они конечны по времени и, обычно, имеют во временно́й характеристике разрывы. Соответственно, их спектр бесконечен. В таком случае полное восстановление сигнала невозможно и из теоремы Котельникова вытекают 2 следствия:

· Любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным отсчётам, взятым с частотой , где — максимальная частота, которой ограничен спектр реального сигнала.

· Если максимальная частота в сигнале превышает половину частоты дискретизации, то способа восстановить сигнал из дискретного в аналоговый без искажений не существует.

Говоря шире, теорема Котельникова утверждает, что непрерывный сигнал можно представить в виде интерполяционного ряда

 

Где — функция sinc. Интервал дискретизации удовлетворяет ограничениям Мгновенные значения данного ряда есть дискретные отсчёты сигнала

 

История открытия

Хотя в западной литературе теорема часто называется теоремой Найквиста со ссылкой на работу 1928 года «Certain topics in telegraph transmission theory», в этой работе речь идёт лишь о требуемой полосе линии связи для передачи импульсного сигнала (частота следования должна быть меньше удвоенной полосы). Таким образом, в контексте теоремы отсчётов справедливо говорить лишь о частоте Найквиста. Примерно в это же время Карл Купфмюллер получил тот же результат.[1] О возможности полной реконструкции исходного сигнала по дискретным отсчётам в этих работах речь не идёт. Теорема была предложена и доказана В. А. Котельниковым в 1933 году в работе «О пропускной способности эфира и проволоки в электросвязи», в которой, в частности, была сформулирована одна из теорем следующим образом[2][3]: «Любую функцию , состоящую из частот от 0 до , можно непрерывно передавать с любой точностью при помощи чисел, следующих друг за другом через секунд».

Независимо от него эту теорему в 1949 (через 16 лет) году доказал Клод Шеннон[4], поэтому в западной литературе эту теорему часто называют теоремой Шеннона. В 1999 году Международный научный фонд Эдуарда Рейна (Германия) признал приоритет В. А. Котельникова, наградив его премией в номинации «за фундаментальные исследования» за впервые математически точно сформулированную и доказанную в аспекте коммуникационных технологий теорему отсчётов.[5] Исторические разыскания показывают, однако, что теорема отсчётов как в части утверждения возможности реконструкции аналогового сигнала по дискретным отсчётам, так и в части способа реконструкции, рассматривалась в математическом плане многими учеными и ранее. В частности, первая часть была сформулирована ещё в 1897 году Борелем.[6]

 

Развитие теоремы

Впоследствии было предложено большое число различных способов аппроксимации сигналов с ограниченным спектром, обобщающих теорему отсчётов.[7][8] Так, вместо кардинального ряда по функциям sinc, являющимся характеристическими функциями прямоугольных импульсов, можно использовать ряды по конечно- или бесконечнократным свёрткам функций sinc. Например, справедливо следующее обобщение ряда Котельникова непрерывной функции с финитным спектром на основе преобразований Фурье атомарных функций[9]:

 

 

где параметры удовлетворяют неравенству а интервал дискретизации

 

Теорема Шеннона

Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или мощностью спектральной плотности. Закон назван в честь Клода Шеннона и Ральфа Хартли

 

Утверждение теоремы

 

Рассматривая все возможные многоуровневые и многофазные методы шифрования, теорема Шеннона — Хартли утверждает, что пропускная способность канала , означающая теоретическую верхнюю границу скорости передачи данных, которые можно передать с данной средней мощностью сигнала через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности равна:

 

Где:

 

— пропускная способность канала, бит/с;

— полоса пропускания канала, Гц;

— полная мощность сигнала над полосой пропускания, Вт или В²;

— полная шумовая мощность над полосой пропускания, Вт или В²;

— частное от деления отношения сигнала к его шуму (SNR) на гауссовский шум, выраженное как отношение мощностей.

 

История развития

 

В течение конца 1920-х гг. Гарри Найквист и Ральф Хартли разработали фундаментальные идеи, связанные с передачей информации, с помощью телеграфа как системы коммуникаций. В то время, это был прорыв, но науки как таковой не существовало. В 1940-х гг., Клод Шеннон ввёл понятие способности канала, которое базировалось на идеях Найквиста и Хартли, а затем сформулировал полную теорию передачи информации.

 

Критерий Найквиста

 

В символьном виде:

Где — частота импульса (имп/с), и — полоса пропускания (Гц).

 



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-02-12 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: