История ИИ.
Можно выделить несколько этапов становления науки о ИИ:
- XIII век. Решение задач на основе всеобщей классификации понятий.
- XVIII век. Попытка создания машины для символьных вычислений (Декарт и Лейбниц независимо). Была предложена классификация всех наук.
- 40ые г.г. XX века. Появление кибернетики (Норберт Винер).
1956 г. - Появление термина AI (artificial intelligence) на конференции, посвящённой решению логических задач.
Выделяют 2 направления развития теории ИИ:
- Моделирование деятельности человеческого мозга или нейрокибернетика. Используются психологические, нейрофизиологические исследования.
- Кибернетика чёрного ящика.
Кибернетика проходит следующие этапы:
- 50-е гг. XX века.
a) Решение задач выхода из лабиринта.
b) Оптимизации пути на графе.
c) Пятнашки.
d) Ханойская башня.
e) Шашки, шахматы.
f) Сочинение стихов, музыки.
g) Переводы с одного языка на другой.
- 60ые гг. Появление эвристического программирования.
- Конец 60ых гг. Появление методов логического программирования.
a) Метод резолюций – решение задач от обратного.
b) Метод обратного вывода
Появление первых языков ИИ на основе предложенных методов (Lisp, Prolog).
Появление моделей представления знаний: семантической сети (Кулиан), Фреймовая модель (Минский).
- 1973 г. Конгресс в Великобритании о результатах вложение в исследования, на котором финансирование было сокращено, т.к. особых результатов не было.
- 70ые гг. Финансирование в США работ по созданию ИИ.
Появление экспертных систем: по нефтеразведке, медицинская система (диагностика заболеваний и создание лекарств).
Использование нейронных сетей в военной промышленности
- 80ые гг. ЕС начинает усиленное финансирование программы ESPRIT, в которую включена проблематика ИИ
- Проект по созданию компьютеров 5го поколения в Японии.
Были созданы Lisp- и Prolog-процессоры и машины баз дынных и баз знаний.
Появление большого количества специалистов в области ИИ.
С конца 80ых гг. происходит коммерциализация систем ИИ.
Основные направления развития ИИ.
- Фундаментальные исследования. Изучения деятельности мозга (институт мозга, психологии, лингвистики). Работы по совершенствованию шахматного процессора.
- Внешняя интеллектуализация компьютеров существующей архитектуры (распознавание текста, изображений, синтез речи, мультимедиа).
- Внутренняя интеллектуализация. Разработка новых компьютеров, построенных на принципах ИИ.
a) Ориентация на символьную обработку.
b) Распараллеливание процессов, т.е. решение задач на нескольких процессорах, создание распределённых приложений.
c) Аппаратная поддержка операций.
- Новые технологии в различных областях:
a) Автоматизация программирования.
b) Автоматизация научных исследований.
c) Когнитивная компьютерная графика, которая автоматизирует процессы в различных системах.
d) Производство.
- Создание роботов.
a) Специализированные вычислители
b) Сенсорные датчики.
c) Задачи движения.
d) Принятие решений.
В настоящее время выделяют следующие системы ИИ:
- Информационно-поисковые (вопросно-ответные).
- Расчётно-логические системы с ППП (MathCAD, MathLab, MathView).
- Экспертные системы. Работают по принципу “причинаàследствие” и “если àто”.
- Нейросистемы = программы + нейрочипы. Принцип обучения на примерах.
- Гибридные системы ИИ – используют комбинацию различных систем методов.
Проблемы ИИ.
- Центральная проблема – представление знаний.
Данные (синтаксис) – интерпретация (семантика)
Модели представления знаний носят декларативно-процедурный характер, т.е. в одной модели объединяются синтаксическая и семантическая модели:
· Семантические сети.
· Фреймовые модели.
· Продукционные системы.
· Логические (добавляется нечёткая логика).
- Компьютерная лингвистика:
· Естественное языковое общение.
· Автоматический перевод.
- Компьютерная логика. Моделирование человеческих рассуждений и принятия решений.
- Адаптация и гибкость в решении задач. Возможность автоматического выбора подходящей модели, метода и алгоритма решения задачи предметной области.
Нейронные сети.
Выделяют особенности мозга:
· Массовый параллелизм.
· Высокая организация связей.
· Распределённые вычисления.
· Толерантность к ошибкам в информации.
· Контекстуальная обработка информации.
· Низкое энергопотребление (используются электрохимические сигналы с низким потенциалом и тд).
· Адаптивность.
· Обучаемость.
Искусственные нейронные сети – это обобщенное название нескольких групп алгоритмов и моделей, способных обучаться на примерах, извлекая скрытые закономерности из потока данных. Данные, поступающие на нейронную сеть, могут быть неполны и зашумлены.
Нейронная сеть способна автоматически настроиться на существующую взаимосвязь между данными.
Исторические этапы развития этой теории:
- 1943 год – Был предложен искусственный нейрон (Макколокс, Питс).
- Начало 60-х годов – многослойная нейронная сеть – перцепртрон (персепптрон) Розенблата. Основная идея: преобразование входного пространства признаков в пространство признаков соответствующих выходных сигналам.
Развитие работ пошло по направлению увеличения слоёв нейронной сети и организации связей между слоями. Основная проблема была в сходимости процесса обучения.
В конце 60-х ученым Минским доказана теорема об ограниченных возможностях обучения перцептрона.
3. Начало 80-х годов, модель Хопфилда – это сеть специальной архитектуры с набором ограничений, что позволило разработать алгоритм обучения на основе минимизации энергии сети. Для многослойного перцептрона Минским разработан алгоритм обратного распространения ошибки для обучения сети.
4. Конец 80-х годов и по нынешний день применение нейронных сетей для различных приложений, поскольку была доказана сходимость основных моделей, а также получена приемлемая точность решения задач.
Применение нейронных сетей.
- Распознавание образов.
- Классификация, т. е. отнесение образа к одному из известных классов.
- Кластеризация. Происходит при обучении без учителя. Происходит формирование кластера, основанное на объективном подобии образов.
- Аппроксимация функций. Есть обучающая выборка, которая генерируется неизвестной функцией, возможно искаженной шумом. Необходимо найти оценку этой функции. Данная функция минимизирует среднеквадратическую ошибку во входных данных.
- Прогнозирование. Есть набор значений в последовательные моменты времени, необходимо найти (предсказать) значение в некоторый момент времени.
- Задачи оптимизации. Оптимизация заключается в максимизации или минимизации целевой функции, которая удовлетворяет заданным ограничениям.
- Ассоциативная память, то есть память, адресуемая по содержанию. Данная память позволяет получить информацию по неформальному описанию близкому к естественному восприятию, к примеру визуальный запрос.
- Решение задач управления (u(t), y(t)). Необходимо в моменты времени вырабатывать такую последовательность управляющих сигналов, чтобы выходные сигналы соответствовали заданной модели.
Особенности:
- Нейронные сети позволяют также оценивать важность различных видов информации для целевого поведения.
- Кроме того, позволяют уменьшать объём входной информации без потери существенных данных.
- Система может реагировать на нестандартные ситуации с учетом выделенных факторов.