Показатели качества информации
Качество информации - это совокупность свойств информации, характеризующих степень её соответствия целям пользователя.
Показатели качества информации:
1) Доступность – обеспечивается выполнением соответствующих процедур и преобразованием.
2) Актуальность – определяется ценностью информации в момент её использования. Зависит от динамики изменения её характеристик и от интервала времени, прошедшего с момента возникновения информации.
3) Своевременность – означает её поступление заранее назначенного времени, которое согласовано со временем решения поставленной задачи.
4) Точность – определяется степенью близости получаемой информации к реальному состоянию процесса двух явлений.
5) Достоверность – определяется свойством информации отображать реально существующие объекты с необходимой точностью.
6) Устойчивость – отражает особенности информации реагировать на получаемую информацию без необходимой точности.
Объем информации исчисляется в битах.
Четырех разрядное десятичное число имеет объем данных 4 бита. а 8 разрядный двоичный - 8 бит.
Инфа и энтропия
Для измерения количества информации в качестве меры неопределенности вводиться энтропия. Она обозначается (H) I=H опреольная – H опостериольная.
Энтропия дискретной случайной величины - это минимум среднего количества бит, которое нужно передать по каналу связи о текущем значении данной дискретной случайной величины
Энтропия - это мера неопределенности или беспорядка, и, следовательно, информативности. Количественно выражается как средняя функция множества вероятностей каждого из возможных исходов. Чем больше неопределенность, тем больше энтропия.
Свойства энтропии:
1) Энтропия всегда не отрицательна, т. к. значения вероятности обозначаются величинами не больше 1, а их логи отрицательными числами или нулем
2) Энтропия равна 0 в том крайнем случае, когда одна из вероятности равна 1, а остальные равны 0. Это тот случай, когда об опыте или величине все известно заранее и результат не дает новой информации.
3) Энтропия имеет наибольшее значение, когда все вероятности равны между собой.
(Смотреть формулу 1)
4) Энтропия объекта a b, состояние которого образуется совместной реализацией состояния a b, равна сумме энтропий исходных объектов. (Смотреть формулу 2)
Если все события равновероятны и статистически независимы, то оценка количества информации, высчитываемая по формулам Хартли или Шеннону, совпадает. Это свидетельствует о полном использовании информационной емкости системы.
Если вероятности наступления событий разные, то энтропия вычисляется по формуле Шеннона.Это свидетельствует о меньшем использовании емкости системы.(Смотреть формулу 3)
Свойства информации:
1) Можно классифицировать по признакам:
Признаки Виды
a) Сфера возникновения Элементарная, биологическая, социальная
b) Способ передачи и восприятия Визуальный, тактильный, аудио
c) Сфера общественного назначения Массовая, социальная, личная
2) 3 категории свойств:
a) Абитурное –необходимое свойство, без которого информация не может существовать.
b) Прогматические – характеризуют степень полезности информации для практики.
c) Динамические – характеризуют изменения информации по времени.
Сообщение сигналов
Сообщение - это форма представление информации в виде речи, жестов, изображений и т.д.
Одно и то же информационное сообщение может содержать разное количество информации для разных людей. В зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.
Сигнал – это изменяющийся во времени физический процесс, т.е. обмен информацией между системой и окружающей средой.
Сигнал можно определить, как средство перенесения информации в пространстве и времени. В качестве носителя сигнала может выступать звук, свет и т.п.
Кодирование и квантование сигналов
Кодирование сигнала -это представление в определенной форме, удобной или пригодной для последующего использования сигнала, т.е. это правило описывающее один набор знаков к другому. Для преобразования непрерывного сигнала в дискретный используется квантование.
Различают два вида квантования:
1) Квантование по времени - это замена непрерывной по времени функции x(t) некоторого множества по уровню y(t).
2) Квантование по уровню - это преобразование непрерывных по уровню сигналов x(t), полученных в результате квантования по времени в моменты отсчета.
Информационные технологии как составная часть информатики
Информационное общество - это общество, в котором большинство работников занято производством и переработкой информации.
Особенно в высшей форме (знаний) информация зафиксирована на материальных носителях и хранится в информационных системах образуя информационные ресурсы.
Информационные ресурсы:
1) Сектор деловой информации (биржевая, финансовая, статическая, коммерческая, деловые новости в области экономики и бизнеса)
2) Сектор научно-технической и специальной информации (документальная, библиографическая, реферативная, о документальных и прикладных исследованиях, а также профессиональную информацию для юристов, врачей и т.д.)
3) Сектор массовой потребительской информации (новостная, справочная, потребительская, развлекательная)
Особенность информационных ресурсов в том, что по мере потребления информации их запасы не убывают, а растут.
Выделяют пассивные(книги) и активные(алгоритмы) информационные ресурсы.
Информационная технология - это процесс, использующий совокупность средств и методов сбора, обработки и передачи данных. Получение информации нового качества о состоянии процесса или явления.
Цель информационной технологии - это производство информации для анализа и принятия на ее основе решения по выполнению какого-либо действия.
Информационная культура – это совокупность знаний, умений и навыков, связанных с пониманием закономерности информационных процессов в природе, обществе и технике.
Существует понятие новой информационной технологии с дружественным интерфейсом работы пользователя.
Основные принципы НИТ:
1) Интерактивный режим работы с компьютером.
2) Интегрированность с другими программами и продуктами.
3) Гибкость процесса изменения данных и постановок задач.
История развития ИТ
Этапы обработки инфы:
1) 1960-e - обработка в центрах в режиме коллективного пользования. Основное направление автоматизация рутинных действий.
2) Начло 1970 – создание информационных технологий направленных на решение стратегических задач.
Этапы информатизации общества:
1) До конца 1960-х проблема обработки больших объемов данных в условиях ограниченных возможностях аппаратных средств.
2) До конца 1970-х распространения ЭВМ IBM 360 проблема отставания программного обеспечения от уровня развития аппаратных средств.
3) Начало 1980-х компы становятся инструментом непрофессионального пользователя. Проблема не состыковки пользователя и возможностей интерфейса и ПО.
4) Начло 90тыз создание современной технологии. Первая проблема- выработка стандартов для компьютерной связи. Вторая проблема - организация доступа к стратегической инфе. Третья – организация защиты и безопасности.
Этапы развития инструментария информационных технологий:
1) Вторая половина 19 века - коммуникации осуществлялись письмами. Основная цель - представление инфы в нужной форме.
2) Конец 19 века - появилась механическая технология. Основная цель – представление инфы в нужной форме более удобными средствами.
3) 40 – 60 электрическая технологи. Основная цель – акцент перемещается с формы представления инфы на формирования ее содержания.
4) С начала 70-х начинается электронная технология появляется АСУ. Основная цель – формирование содержательной стороны инфы организация аналитической работы
5) С середины 80-х - компьютерная технологи.