Закон исключенного третьего устанавливает, что для всех суждений p, или p или не p должно быть истинным: не существует никакого среднего истинного суждения между ними. Другими словами, p не может быть и p и не p одновременно. Это не надо путать с принципом двузначности, который заявляет, что p должно быть истинным или ложным. Платон заложил основу того, что теперь известно как нечёткая логика, указав, что есть третья область за пределами истинного и ложного. Ян Лукасевич был первым, кто впервые предложил систематическую альтернативу двузначной логике Аристотеля и описал 3-значную логику, третьим значением в которой является возможность. Почти одновременно с Лукасевичем Эмиль Пост ввел многозначную логику. Лотфи Заде в его теории нечёткой логики, предложил ввести функцию принадлежности, значениями которой служат реальные числа из [0,1]; он также предложил новые операции для логических исчислений и показал, что нечёткая логика служит обобщением классической логики.
Нейронные сети, история развития. Определение нейрона.
Наверно, можно считать, что история нейронных сетей начинается с тех времен, когда людей начало интересовать их собственное мышление. Это «думание» мозга о себе самом является, возможно, отличительной чертой человека. Нейробиологи и нейроанатомы достигли значительного прогресса. Усердно изучая структуру и функции нервной системы человека, они многое поняли в «электропроводке» мозга, но мало узнали о его функционировании. В процессе накопления ими знаний выяснилось, что мозг имеет ошеломляющую сложность. Сотни миллиардов нейронов, каждый из которых соединен с сотнями или тысячами других, образуют систему, далеко превосходящую самые смелые мечты о суперкомпьютерах.Лучшее понимание функционирования нейрона и картины его связей позволило исследователям создать математические модели для проверки своих теорий. В первых же работах выяснилось, что эти модели не только повторяют функции мозга, но и способны выполнять функции, имеющие свою собственную ценностьПараллельно с прогрессом в нейроанатомии и нейрофизиологии психологами были созданы модели человеческого обучения. Одной из таких моделей, оказавшейся наиболее плодотворной, была модель Д. Хэбба, который в 1949г. предложил закон обучения, явившийся стартовой точкой для алгоритмов обучения искусственных нейронных сетей. В пятидесятые и шестидесятые годы группа исследователей, объединив эти биологические и физиологические подходы, создала первые искусственные нейронные сети.
|
Персептрон-устройство, вычисляющее следующую систему функций:
Строение нейрона.
Биологические нейронные системы.
Рекуррентная нейронная сеть.
Рекуррентные нейронные сети — это наиболее сложный вид нейронных сетей, в которых имеется обратная связь. При этом под обратной связью подразумевается связь от логически более удалённого элемента к менее удалённому. Наличие обратных связей позволяет запоминать и воспроизводить целые последовательности реакций на один стимул. С точки зрения программирования в таких сетях появляется аналог циклического выполнения, а с точки зрения систем — такая сеть эквивалентна конечному автомату. Такие особенности потенциально предоставляют множество возможностей для моделирования биологических нейронных сетей. Однако большинство возможностей на данный момент плохо изучены в связи с возможностью построения разнообразных архитектур и сложностью их анализа.
|
Виды задач, решаемые с помощью нейронных сетей.
Определение персептрона, обучающей выборки, обученной нейронной сети.
Персептрон должен решать задачу классификации по входным сигналам. Задача обучения нейронной сети является задачей поиска минимума функции ошибки в пространстве состояний, и, следовательно, для ее решения могут применяться стандартные методы теории оптимизации. Эта задача относится к классу многофакторных задач.
Алгоритм обучения однослойного персептрона, шаги обучения.
Шаг1:начальные значения весов всех нейронов полагаются случайными W(t=0);
Шаг2:сети предъявляется входной образ Хᴮ, в результате формируется выходной образ Ũᴮ≠Uᴮ;
Шаг3:векторы весов модифицируются по формуле
W(t+Δt)=W(t)+ Uᴮ* Хᴮ*(βᴮ)^T;
Шаг4:шаги 1-3 повторяются для всех обучающих векторов.
Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечении нескольких эпох, когда итерации сойдутся.