БЕЛОРУССКИЙ ГОСУДАРСТВЕНЫЙ УНИВЕРСИТЕТ




БЕЛОРУССКИЙ ГОСУДАРСТВЕНЫЙ УНИВЕРСИТЕТ

КАФЕДРА ТЕОРЕТИЧЕСКОЙ И ИНСТИТУЦИОНАЛЬНОЙ ЭКОНОМИКИ

 

Реферат

По компьютерным информационным технологиям

Тема: «Предмет и основные понятия КИТ»

 

Выполнил студент:

Ясевич Дмитрий Сергеевич

 

Минск 2009

Содержание

Содержание....................................................................................................................... 2

Предмет и основные понятия информатики........................................... 4

Данные....................................................................................................................................................................................... 5

Информация............................................................................................................................................................................ 6

Знание........................................................................................................................................................................................ 7

Информационная система................................................................................................................................................. 7

Информационные технологии......................................................................................................................................... 8

Основные представления теории информации. Понятие об информации и ее свойствах............................................................................................................. 10

Подход Р. Хартли................................................................................................................................................................. 10

Подход К. Шеннона............................................................................................................................................................ 12

СВЯЗЬ ФОРМУЛ К. ШЕННОНА И Р. ХАРТЛИ...................................................................................................... 12

Сравнение подходов Р. Хартли и К. Шеннона......................................................................................................... 12

Кодирование информации.............................................................................................................................................. 13

Кодировка чисел.................................................................................................................................................................. 13

Кодировка символов.......................................................................................................................................................... 14

Кодировка изображений.................................................................................................................................................. 14

Сжатие данных............................................................................................................. 16

Программное обеспечение.................................................................................. 18

Базовый уровень................................................................................................................................................................. 18

Системный уровень............................................................................................................................................................ 19

Служебный уровень........................................................................................................................................................... 19

Прикладной уровень......................................................................................................................................................... 19

Классификация прикладного программного обеспечения............................................................................... 20

Список рекомендованной литературы...................................................... 24

Предмет и основные понятия информатики

Информатика — это комплексная, техническая наука, которая изучает и систематизирует законы и приемы создания, сохранения, воспроизведения, получения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ними. Термин "информатика" происходит от французского слова Informatique и образован из двух слов: информация и автоматика. Термин информация произошел от латинского слова informatio — разъяснение, осведомление. Этот термин введен во Франции в середине 60—х лет XX ст., когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошел в употребление термин "Computer Science" для обозначения науки о преобразовании информации, которая базируется на использовании вычислительной техники. Теперь эти термины являются синонимами.

Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях. Предмет информатики как науки составляют:

• аппаратное обеспечение средств вычислительной техники;

• программное обеспечение средств вычислительной техники;

• средства взаимодействия аппаратного и программного обеспечения;

• средства взаимодействия человека с аппаратными и программными средствами.

Средства взаимодействия в информатике принято называть интерфейсом. Поэтому средства взаимодействия аппаратного и программного обеспечения иногда называют также программно- аппаратным интерфейсом, а средства взаимодействия человека с аппаратными и программными средствами — интерфейсом пользователя.

Задачи информатики как науки составляют:

• изучить структуру, общие свойства информации, исследовать законы и методы создания,

преобразования, накопления, передачи и использования информации.

• систематизация приемов и методов работы с аппаратными и программными средствами

вычислительной техники. Цель систематизации состоит в том, чтобы выделять, внедрять и

развивать передовые, более эффективные технологии автоматизации этапов работы с данными, а

также методически обеспечивать новые технологические исследования.

В составе основной задачи сегодня можно выделить такие основные направления информатики для практического применения:

• архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);

• интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным

обеспечением);

• программирование (приемы, методы и средства разработки комплексных задач);

• преобразование данных (приемы и методы преобразования структур данных);

• защита информации (обобщение приемов, разработка методов и средств защиты данных);

• автоматизация (функционирование программно—аппаратных средств без участия человека);

• стандартизация (обеспечение совместимости между аппаратными и программными средствами,

между форматами представления данных, относящихся к разным типам вычислительных систем).

На всех этапах технического обеспечения информационных процессов для информатики ключевым вопросом есть эффективность. Для аппаратных средств под эффективностью понимают соотношение производительности оснащение к его стоимости. Для программного обеспечения под эффективностью принято понимать производительность работающих с ним пользователей. В программировании под эффективностью понимают объем программного кода, созданного программистами за единицу времени. В информатике все жестко ориентированно на эффективность. Вопрос как осуществить ту или другую операцию, для информатики важный, но не основной. Основным есть вопрос — как совершить данную операцию эффективно.

В рамках информатики, как технической науки можно сформулировать понятия информации,

информационной системы и информационной технологии.

 

 

Данные

Данные (data)— это такое же первоначальное понятие, как, скажем, в математике "точка": попытка дать определение начальным понятиям приводит к необходимости дополнительно определять использованные термины. Итак, будем считать, что данные — это те или иные сведения (необязательно несущие смысловую нагрузку).

Во время информационного процесса данные преобразовываются из одного вида в другого с

помощью методов. Обработка данных включает в себя множество разных операций. Основными

операциями есть:

• сбор данных — накопление информации с целью обеспечения достаточной полноты для принятия решения;

• формализация данных — приведение данных, которые поступают из разных источников к единой форме;

• фильтрация данных — устранение лишних данных, которые не нужны для принятия решений;

• сортировка данных — приведение в порядок данных за заданным признаком с целью удобства

использования;

• архивация данных — сохранение данных в удобной и доступной форме;

• защита данных — комплекс мер, направленных на предотвращение потерь, воспроизведения и

модификации данных;

• транспортирование данных — прием и передача данных между отдаленными пользователями информационного процесса. Источник данных принят называть сервером, а потребителя — клиентом;

• преобразование данных — преобразование данных с одной формы в другую, или с одной структуры в другую, или изменение типа носителя.

Информация

Информация (information)— это данные, сопровождающиеся смысловой нагрузкой.

При этом, очевидно, то, что для одних является данными, для других вполне может быть

информацией. Но всегда можно точно сказать, что нужно предпринять для того, чтобы те или иные данные стали информативными для наибольшей аудитории: их нужно снабдить смысловым содержанием. Чем более полным будет это содержание, тем более информативной будет соответствующее сообщение.

Информация которая:

воспринимается из окружающей среды называется входной информацией,

выдается в окружающую среду называется исходная информацией.

Информация существует в виде документов, чертежей, рисунков, текстов, звуковых и световых сигналов, электрических и нервных импульсов и т.п..

Важнейшие свойства информации:

• объективность и субъективность;

• полнота;

• достоверность;

• адекватность;

• доступность;

• актуальность.

Знание

Знание — есть переживание, сравнённое с другими переживаниями это определение, которое дал Лосский Н. О. в своей работе "Обоснование интуитивизма", является наиболее точным.

Сравнительная информация (знание) обладает теми качествами, на которые как раз указывалипроцитированные мною авторы. В частности, она позволяет принимать решения. Причём, если это покупатель, то он может принять решение о покупке товара по более подходящей для него цене (при этом могут подключаться знания о качестве сервиса — сравнение информации; знания о надёжности торговой компании — сравнение информации о том, где могут продавать качественную, а где — поддельную продукцию и т. д.). Если решение принимает представитель торговой компании, то знания о конкурентах могут ему позволить более выгодно вести бизнес. Важно подчеркнуть, что каждый раз знание получается именно на основе сравнения информации.

Информационная система

В информатике понятие "система" чаще используют относительно набора технических средств и программ. Системой называют также аппаратную часть компьютера. Дополнение понятия "система" словом "информационная" отображает цель ее создания и функционирования.

Информационная система— взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

Современное понимание информационной системы предусматривает использование компьютера как основного технического средства обработки информации. Компьютеры, оснащенные специализированными программными средствами, являются технической базой и инструментом информационной системы.

В работе информационной системы можно выделить слудующие этапы:

1. Зарождение данных — формирование первичных сообщений, которые фиксируют результаты

определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п..

2. Накопление и систематизация данных — организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, методическое обновление данных, защита их от искажений, потери, деформирование целостности и др.

3. Обработка данных — процессы, вследствие которых на основании прежде накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные. Производные данные тоже можно обрабатывать, получая более обобщенные сведения.

4. Отображение данных — представление их в форме, пригодной для восприятия человеком. Прежде всего — это вывод на печать, то есть создание документов на так называемых твердых (бумажных)

носителях. Широко используют построение графических иллюстративных материалов (графиков, диаграмм) и формирование звуковых сигналов.

Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением в "машинном виде" или тем и другим одновременно. В современных информационных системах сообщения массового характера большей частью имеют "машинный вид". Аппаратура, которая используется при этом, имеет название средства регистрации первичной информации. Потребности второго и третьего этапов удовлетворяются в современных информационных системах в основном средствами вычислительной техники. Средства, которые обеспечивают доступность информации для человека, то есть средства отображения данных, являются компонентами вычислительной техники. Подавляющее большинство информационных систем работает в режиме диалога с пользователем.

Типичные программные компоненты информационных систем включают: диалоговую подсистему ввода — вывода, подсистему, которая реализует логику диалога, подсистему прикладной логики обработки данных, подсистему логики управления данными. Для сетевых информационных систем важным элементом является коммуникационный сервис, обеспечивающий взаимодействие узлов сети при общем решении задачи. Значительная часть функциональных возможностей информационных систем закладывается в системном программном обеспечении: операционных системах, системных библиотеках и конструкциях инструментальных средств разработки. Кроме программной составной информационных систем важную роль играет информационная составная, которая задает структуру, атрибутику и типы данных, а также тесно связана с логикой управления данными.

Информационные технологии

В широком смысле слово технология — это способ освоения человеком материального мира с помощью социально организованной деятельности, которая включает три компоненты: информационную (научные принципы и обоснование), материальную (орудие работы) и социальную (специалисты, имеющие профессиональные навыки). Эта триада составляет сущность современного понимания понятия технологии.

Понятие информационной технологии появилось с возникновением информационного общества, основой социальной динамики в котором являются не традиционные материальные, а информационные ресурсы: знания, наука, организационные факторы, интеллектуальные способности, инициатива, творчество и т.д. К сожалению, это понятие настолько общее и всеохватывающее, что до сих пор специалисты не пришли к четкой, формализованной формулировке. Наиболее удачным определением понятия информационной технологии дано академиком Глушковым В.М., который трактовал ее как человеко-машинную технологию сбора, обработки и передачи информации, которая основывается на использовании вычислительной техники.

Эта технология быстро развивается, охватывая все виды общественной деятельности: производство, управление, науку, образование, финансово—банковские операции, медицину, быт и др.

Основные представления теории информации.
Понятие об информации и ее свойствах

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Рассмотрим смысл понятия информация на примере двух подходов к измерению количества информации: подходов Хартли и Шеннона. Первый базируется на принципах теории множеств и комбинаторики, а для второго фундаментом служит теория вероятностей.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. К. Шеннон в 1948 году придал этой теории завершенность. Большой вклад в дальнейшее развитие и обобщение теории информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, Р.Л. Стратанович. Сравнительно недавно исследователи советских архивов сообщили о том, что теория, известная сегодня как теория Шеннона, была создана А.Н. Колмогоровым еще в 1938 году, но была засекречена, так как использовалась в военных разработках.

Подход Р. Хартли

Подход Р. Хартли базируется на фундаментальных теоретико-множественных, по существу комбинаторных основаниях, а также некоторых интуитивно очевидных предположениях.

Итак, будем считать, что если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.

Найдем вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, иначе говоря — с мощностью множества.

Если множество элементов, из которых осуществляется выбор, состоит из одного единственного элемента, то его выбор предопределен, т.е. никакой неопределенности выбора нет. Таким образом, если мы узнаем, что выбран этот единственный элемент, то, очевидно, при этом мы не получаем никакой новой информации, т.е. получаем нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора существует, но ее значение минимально. В этом случае минимально и количество информации, которое мы получаем, узнав, что совершен выбор одного из элементов.

Чем больше элементов содержит множество, тем больше неопределенность выбора, т.е. тем больше информации мы получаем, узнав о том, какой выбран элемент.

Из этих очевидных соображений следует первое требование: информация есть монотонная функция мощности исходного множества — чем больше элементов содержит множество, тем больше заключено в нем информации.

Обычно мы представляем числа в десятичной системе счисления, или системе счисления с основанием 10.

В компьютерных технологиях опираются на представления чисел в двоичной (цифры 0 и 1) и шестнадцатеричной системах, в последней к цифрам 0123456789 добавлены "цифры" ABCDEF (10 11 12 13

14 15)

В двоичной системе целое число представляется как сумма степеней числа 2 с соответствующими коэффициентами от 0 до 1, а в шестнадцатеричной — как сумма степеней числа 16 с соответствующими коэффициентами от 0 до 15 (но вместо чисел от 10 до 15 используются буквы A — F).

Рассмотрим процесс выбора чисел из рассмотренного множества. До выбора вероятность выбрать любое число одинакова. Существует объективная неопределенность в вопросе о том, какое число будет выбрано. Эта неопределенность тем больше, чем больше N — количество чисел, а чисел тем больше — чем больше разрядность i этих чисел.

Примем, что выбор одного числа дает нам следующее количество информации:

i = Log2(N).

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.

Это выражение и представляет собой формулу Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел во множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если

N2=(N1)2,

то

I2 = 2 * I1,

F(N1*N1)= F(N1) + F(N1).

Это невозможно, если количество информации выражается линейной функцией от количества

элементов во множестве. Но известна функция, обладающая именно таким свойством: это Log:

Log 2 (N2) = Log 2 (N1)2= 2 * Log 2 (N1).

Это второе требование называется требованием аддитивности.

Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к такому представлению меры информации на основе эвристических соображений, подобных только что изложенным. Но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий. Минимальное количество информации получается при выборе одного из двух равновероятных вариантов. Это количество информации принято за единицу измерения и называется бит (от англ. Binary digit — двоичная цифра, то есть два возможных значения).

Подход К. Шеннона

Клод Шеннон основывается на теоретико–вероятностном подходе. Это связано с тем, что исторически шенноновская теория информации выросла из потребностей теории связи, имеющей дело со статистическими характеристиками передаваемых сообщений и каналов связи.

Пусть существует некоторое конечное множество событий (состояний системы): X={x1, x2, …, xN},

которые могут наступать с вероятностями: p(xi), соответственно, причем множество вероятностей удовлетворяет естественному условию нормировки:

Исходное множество событий характеризуется некоторой неопределенностью, т.е. энтропией Хартли, зависящей, как мы видели выше, только от мощности множества. Но Шеннон обобщает это понятие, учитывая, что различные события в общем случае не равновероятны. Например, неопределенность системы событий: {монета упала "орлом", монета упала "решкой"}, значительно выше, чем неопределенность событий: {монета упала "орлом", монета упала "ребром"}, так как в первом случае варианты равновероятны, а во втором случае вероятности вариантов сильно отличаются.

Если измерять количество информации изменением степени неопределенности, то шенноновское количество информации численно совпадает с энтропией исходного множества



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2019-12-28 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: