Нечеткие множества. Принцип обобщения Лотфи Заде.




Закон исключенного третьего устанавливает, что для всех суждений p, или p или не p должно быть истинным: не существует никакого среднего истинного суждения между ними. Другими словами, p не может быть и p и не p одновременно. Это не надо путать с принципом двузначности, который заявляет, что p должно быть истинным или ложным. Платон заложил основу того, что теперь известно как нечёткая логика, указав, что есть третья область за пределами истинного и ложного. Ян Лукасевич был первым, кто впервые предложил систематическую альтернативу двузначной логике Аристотеля и описал 3-значную логику, третьим значением в которой является возможность. Почти одновременно с Лукасевичем Эмиль Пост ввел многозначную логику. Лотфи Заде в его теории нечёткой логики, предложил ввести функцию принадлежности, значениями которой служат реальные числа из [0,1]; он также предложил новые операции для логических исчислений и показал, что нечёткая логика служит обобщением классической логики.

 

Нейронные сети, история развития. Определение нейрона.

Наверно, можно считать, что история нейронных сетей начинается с тех времен, когда людей начало интересовать их собственное мышление. Это «думание» мозга о себе самом является, возможно, отличительной чертой человека. Нейробиологи и нейроанатомы достигли значительного прогресса. Усердно изучая структуру и функции нервной системы человека, они многое поняли в «электропроводке» мозга, но мало узнали о его функционировании. В процессе накопления ими знаний выяснилось, что мозг имеет ошеломляющую сложность. Сотни миллиардов нейронов, каждый из которых соединен с сотнями или тысячами других, образуют систему, далеко превосходящую самые смелые мечты о суперкомпьютерах.Лучшее понимание функционирования нейрона и картины его связей позволило исследователям создать математические модели для проверки своих теорий. В первых же работах выяснилось, что эти модели не только повторяют функции мозга, но и способны выполнять функции, имеющие свою собственную ценностьПараллельно с прогрессом в нейроанатомии и нейрофизиологии психологами были созданы модели человеческого обучения. Одной из таких моделей, оказавшейся наиболее плодотворной, была модель Д. Хэбба, который в 1949г. предложил закон обучения, явившийся стартовой точкой для алгоритмов обучения искусственных нейронных сетей. В пятидесятые и шестидесятые годы группа исследователей, объединив эти биологические и физиологические подходы, создала первые искусственные нейронные сети.

Персептрон-устройство, вычисляющее следующую систему функций:

 

Строение нейрона.

Биологические нейронные системы.

Рекуррентная нейронная сеть.

Рекуррентные нейронные сети — это наиболее сложный вид нейронных сетей, в которых имеется обратная связь. При этом под обратной связью подразумевается связь от логически более удалённого элемента к менее удалённому. Наличие обратных связей позволяет запоминать и воспроизводить целые последовательности реакций на один стимул. С точки зрения программирования в таких сетях появляется аналог циклического выполнения, а с точки зрения систем — такая сеть эквивалентна конечному автомату. Такие особенности потенциально предоставляют множество возможностей для моделирования биологических нейронных сетей. Однако большинство возможностей на данный момент плохо изучены в связи с возможностью построения разнообразных архитектур и сложностью их анализа.

 

Виды задач, решаемые с помощью нейронных сетей.

 

Определение персептрона, обучающей выборки, обученной нейронной сети.

Персептрон должен решать задачу классификации по входным сигналам. Задача обучения нейронной сети является задачей поиска минимума функции ошибки в пространстве состояний, и, следовательно, для ее решения могут применяться стандартные методы теории оптимизации. Эта задача относится к классу многофакторных задач.

 

 

Алгоритм обучения однослойного персептрона, шаги обучения.

Шаг1:начальные значения весов всех нейронов полагаются случайными W(t=0);

Шаг2:сети предъявляется входной образ Хᴮ, в результате формируется выходной образ Ũᴮ≠Uᴮ;

Шаг3:векторы весов модифицируются по формуле

W(t+Δt)=W(t)+ Uᴮ* Хᴮ*(βᴮ)^T;

Шаг4:шаги 1-3 повторяются для всех обучающих векторов.

Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечении нескольких эпох, когда итерации сойдутся.

 



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-02-13 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: