Информационные технологии как составная часть информатики




Показатели качества информации

Качество информации - это совокупность свойств информации, характеризующих степень её соответствия целям пользователя.

Показатели качества информации:

1) Доступность – обеспечивается выполнением соответствующих процедур и преобразованием.

2) Актуальность – определяется ценностью информации в момент её использования. Зависит от динамики изменения её характеристик и от интервала времени, прошедшего с момента возникновения информации.

3) Своевременность – означает её поступление заранее назначенного времени, которое согласовано со временем решения поставленной задачи.

4) Точность – определяется степенью близости получаемой информации к реальному состоянию процесса двух явлений.

5) Достоверность – определяется свойством информации отображать реально существующие объекты с необходимой точностью.

6) Устойчивость – отражает особенности информации реагировать на получаемую информацию без необходимой точности.

Объем информации исчисляется в битах.

Четырех разрядное десятичное число имеет объем данных 4 бита. а 8 разрядный двоичный - 8 бит.

Инфа и энтропия

Для измерения количества информации в качестве меры неопределенности вводиться энтропия. Она обозначается (H) I=H опреольная – H опостериольная.

Энтропия дискретной случайной величины - это минимум среднего количества бит, которое нужно передать по каналу связи о текущем значении данной дискретной случайной величины

Энтропия - это мера неопределенности или беспорядка, и, следовательно, информативности. Количественно выражается как средняя функция множества вероятностей каждого из возможных исходов. Чем больше неопределенность, тем больше энтропия.

Свойства энтропии:

1) Энтропия всегда не отрицательна, т. к. значения вероятности обозначаются величинами не больше 1, а их логи отрицательными числами или нулем

2) Энтропия равна 0 в том крайнем случае, когда одна из вероятности равна 1, а остальные равны 0. Это тот случай, когда об опыте или величине все известно заранее и результат не дает новой информации.

3) Энтропия имеет наибольшее значение, когда все вероятности равны между собой.

(Смотреть формулу 1)

4) Энтропия объекта a b, состояние которого образуется совместной реализацией состояния a b, равна сумме энтропий исходных объектов. (Смотреть формулу 2)

Если все события равновероятны и статистически независимы, то оценка количества информации, высчитываемая по формулам Хартли или Шеннону, совпадает. Это свидетельствует о полном использовании информационной емкости системы.

Если вероятности наступления событий разные, то энтропия вычисляется по формуле Шеннона.Это свидетельствует о меньшем использовании емкости системы.(Смотреть формулу 3)

Свойства информации:

1) Можно классифицировать по признакам:

Признаки Виды

a) Сфера возникновения Элементарная, биологическая, социальная

b) Способ передачи и восприятия Визуальный, тактильный, аудио

c) Сфера общественного назначения Массовая, социальная, личная

2) 3 категории свойств:

a) Абитурное –необходимое свойство, без которого информация не может существовать.

b) Прогматические – характеризуют степень полезности информации для практики.

c) Динамические – характеризуют изменения информации по времени.

Сообщение сигналов

Сообщение - это форма представление информации в виде речи, жестов, изображений и т.д.

Одно и то же информационное сообщение может содержать разное количество информации для разных людей. В зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Сигнал – это изменяющийся во времени физический процесс, т.е. обмен информацией между системой и окружающей средой.

Сигнал можно определить, как средство перенесения информации в пространстве и времени. В качестве носителя сигнала может выступать звук, свет и т.п.

Кодирование и квантование сигналов

Кодирование сигнала -это представление в определенной форме, удобной или пригодной для последующего использования сигнала, т.е. это правило описывающее один набор знаков к другому. Для преобразования непрерывного сигнала в дискретный используется квантование.

Различают два вида квантования:

1) Квантование по времени - это замена непрерывной по времени функции x(t) некоторого множества по уровню y(t).

2) Квантование по уровню - это преобразование непрерывных по уровню сигналов x(t), полученных в результате квантования по времени в моменты отсчета.

Информационные технологии как составная часть информатики

Информационное общество - это общество, в котором большинство работников занято производством и переработкой информации.

Особенно в высшей форме (знаний) информация зафиксирована на материальных носителях и хранится в информационных системах образуя информационные ресурсы.

Информационные ресурсы:

1) Сектор деловой информации (биржевая, финансовая, статическая, коммерческая, деловые новости в области экономики и бизнеса)

2) Сектор научно-технической и специальной информации (документальная, библиографическая, реферативная, о документальных и прикладных исследованиях, а также профессиональную информацию для юристов, врачей и т.д.)

3) Сектор массовой потребительской информации (новостная, справочная, потребительская, развлекательная)

Особенность информационных ресурсов в том, что по мере потребления информации их запасы не убывают, а растут.

Выделяют пассивные(книги) и активные(алгоритмы) информационные ресурсы.

Информационная технология - это процесс, использующий совокупность средств и методов сбора, обработки и передачи данных. Получение информации нового качества о состоянии процесса или явления.

Цель информационной технологии - это производство информации для анализа и принятия на ее основе решения по выполнению какого-либо действия.

Информационная культура – это совокупность знаний, умений и навыков, связанных с пониманием закономерности информационных процессов в природе, обществе и технике.

Существует понятие новой информационной технологии с дружественным интерфейсом работы пользователя.

Основные принципы НИТ:

1) Интерактивный режим работы с компьютером.

2) Интегрированность с другими программами и продуктами.

3) Гибкость процесса изменения данных и постановок задач.

История развития ИТ

Этапы обработки инфы:

1) 1960-e - обработка в центрах в режиме коллективного пользования. Основное направление автоматизация рутинных действий.

2) Начло 1970 – создание информационных технологий направленных на решение стратегических задач.

Этапы информатизации общества:

1) До конца 1960-х проблема обработки больших объемов данных в условиях ограниченных возможностях аппаратных средств.

2) До конца 1970-х распространения ЭВМ IBM 360 проблема отставания программного обеспечения от уровня развития аппаратных средств.

3) Начало 1980-х компы становятся инструментом непрофессионального пользователя. Проблема не состыковки пользователя и возможностей интерфейса и ПО.

4) Начло 90тыз создание современной технологии. Первая проблема- выработка стандартов для компьютерной связи. Вторая проблема - организация доступа к стратегической инфе. Третья – организация защиты и безопасности.

Этапы развития инструментария информационных технологий:

1) Вторая половина 19 века - коммуникации осуществлялись письмами. Основная цель - представление инфы в нужной форме.

2) Конец 19 века - появилась механическая технология. Основная цель – представление инфы в нужной форме более удобными средствами.

3) 40 – 60 электрическая технологи. Основная цель – акцент перемещается с формы представления инфы на формирования ее содержания.

4) С начала 70-х начинается электронная технология появляется АСУ. Основная цель – формирование содержательной стороны инфы организация аналитической работы

5) С середины 80-х - компьютерная технологи.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2020-11-01 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: