и технологических процессов




 

6.1. Постановка задач параметрической оптимизации

 

Оптимальное проектирование – это процесс принятия наилучших (оптимальных в некотором смысле) решений с помощью ЭВМ. Данная проблема возникает и требует решения на всех этапах проектирования и во многом определяет технико-экономическую эффективность и технологичность проектируемых изделий.

На каждом этапе проектирования конструкции или технологии РЭС в начале работы приходится принимать решения в условиях неопределенности. Чаще всего это относится к построению или выбору варианта структуры объекта проектирования при в рамках блочно-иерархического подхода, то есть к задачам структурной оптимизации.

Выбор варианта структуры во многом снимает неопределeнность, что позволяет строить математическую модель и проводить на ее основе параметрическую оптимизацию, то есть подбор наилучшего набора значений управляемых параметров (например, номиналов индуктивностей, емкостей, резисторов, параметров активных элементов, координат компонентов на плате и др.), при которых выполняются ограничения (технические требования технического задания) и достигают своих экстремальных значений (максимума или минимума) критерии качества объекта проектирования (наиболее важные с точки зрения проектировщика схемные и конструктивные выходные параметры объекта проектирования, по которым оценивается его качество), например, частотные характеристики, коэффициент передачи, потребляемая и выходная мощности, габариты, длина соединительных проводников, перегрев, температура и т. п.). Если параметрическая оптимизация проходит достаточно с небольшими временными затратами (несложные устройства, использование упрощенных математических моделей, отсутствие жестrих требований на точность результатов и т. д.), может быть выполнен некоторый перебор различных структур построения проектируемого объекта, т.е. осуществлена структурная оптимизация устройства.

Решение задачи проектирования радиоэлектронного устройства с оптимальными характеристиками с использованием методов параметрической оптимизации включает три этапа:

1 – компьютерное моделирование устройства;

2 – составление целевой функции с выбором критериев оптимальности;

3 – поиск экстремума полученной целевой функции и определение оптимальных внутренних параметров устройства.

Моделирование (анализ) РЭС требует наличия соответствующих математических моделей и проводится в основном численными методами. Главным критерием моделирования наряду с необходимой точностью и адекватностью модели является быстродействие, скорость расчета на ЭВМ выходных параметров устройства.

Этап составления целевой функции при оптимизации устройства является самым творческим и неформальным. Целевая функция строится на основе выходных параметров устройства (характеристик), которые необходимо оптимизировать.

Таким образом, оптимальное проектирование РЭС сводится к составлению или выбору целевой функции, многократному анализу характеристик (выходных параметров) устройств и затем минимизации или максимизации целевой функции с применением в различных методов оптимизации, выбор конкретного из которых обусловлен спецификой данной решаемой задачи.

Критерии качества и ограничения задачи параметрической оптимизации прямо либо опосредованно зависят от выходных параметров объекта проектирования Y = (y1 ,y2., …, ym).

В простейшем случае в качестве критериев качества могут быть выбраны наиболее существенные с точки зрения проектировщика выходные параметры. Все остальные выходные параметры при этом необходимо учесть в виде ограничений. Критерии качества в литературе принято называть также целевыми функциями, критериями оптимальности, частными критериями качества, функциями цели и т.п.

Обозначим критерии качества Ki ,= Ki(x1, x2.,…, xn), i= 1,…, s, где s – количество критериев качества, а Ki(X) – либо один из выходных параметров Y = (y1, y2.,…, ym), либо Ki(X) = f(X), где зависимость f(X) задана.

Все ограничения задачи параметрической оптимизации получаются на основе анализа технических требований к параметрам объекта проектирования, содержащихся в ТЗ. Рассмотрим формализацию ограничений на примере выходных параметров Y (для внутренних параметров Х справедливы аналогичные рассуждения).

Технические требования имеют вид yj = TTj + Dj, где TTj – желаемое значение параметра yj, а D j – его допустимый разброс (j = 1, …, m).

Математическая постановка задачи параметрической оптимизации как задачи математического программирования имеет вид

 

 
 


Ki=Ki(X) → extr,

gl(X) £ , (6.1)

i = 1, …, s, l = 1, …, L.

 

Множество наборов значений управляемых параметров Х, удовлетворяющих ограничениям g1(X) £ , l = 1, …, L называют областью работоспособности, или областью допустимых значений управляемых параметров.

Если функция Ki(X) имеет один минимум или максимум в заданной области работоспособности, то ее называют одноэкстремальной (унимодальной), если несколько, то -многоэкстремальной.

Каждый минимум (максимум) многоэкстремальной функции называют локальным, наименьший (наибольший) из них – глобальным.

Если ограничения на внутренние параметры gl(X) отсутствуют, то задача оптимизации называетсябезусловной, в противном случае – условной.

При практическом проектировании РЭС встают задачи поиска как безусловных, так и условных экстремумов унимодальных и многоэкстремальных функций.

Рассмотрим в качестве примера типичное ТЗ на разработку аналогового устройства – усилителя: «Коэффициент усиления К0 на средних частотах должен быть не менее 10000, входное сопротивление Rвх не менее 1 МОм, выходное сопротивление Rвых не более 200 кОм, верхняя граничная частота fв не менее 100 кГц, температурный дрейф нуля Uдр не более 50 мкВ/град; усилитель должен нормально функционировать в диапазоне температур от –50 до +60 0С, напряжения источников питания +5 и –5 В, предельные отклонения напряжений не более + 0,5 %, усилитель эксплуатируется в стационарной установке, габариты платы 60х40 мм». В данном случае выходными параметрами являются Y = { Кo,Rвх, Rвых, fв, Uдр }.

К внешним воздействиям относятся температура окружающей среды и напряжения источников питания. Управляемыми параметрами являются параметры элементов схемы.

Область работоспособности

= { X ô10000 - Кo Ð 0,1- Rвх Ð 0, Rвых -200 Ð 0,100- Ð 0, 50 - Uдр Ð 0}.

 

Особенность технического задания для дискретных объектов (например, цифровых устройств) заключается в форме записи ограничений (условий работоспособности), которые могут иметь вид логических уравнений, таблиц истинности или даже текстовую форму.

Целью решения задачи параметрической оптимизации является определение такого набора значений параметров, при котором критерии качества достигают своих наилучших (минимальных или максимальных) значений.

Задача параметрической оптимизации (6.1) является многопараметрической, многокритериальной и содержит ограничения, все эти факторы определяют проблемы, возникающие в процессе ее решения. В зависимости от вида критериев качества и ограничений, проводят классификацию задач параметрической оптимизации (задач математического программирования). Если целевая функция и ограничения – линейные функции вида С0 + С1Х1+ С2Х2+…+ СnХn, то задача оптимизации называется задачей линейного программирования, в противном случае – задачей нелинейного программирования.

Если целевая функция квадратичная, а ограничения – линейные функции, то задача (6.1) называется задачей квадратичного программирования.

Если целевая функция и ограничения имеют произведения Х1 Х2 … Хn, то задачу (6.1) называют задачей геометрического программирования.

Если целевую функцию можно представить в виде суперпозиции функций f1 (f2 (f3 …(fk (Х))…)), то задача (6.1) – это задача динамического программирования.

Если целевая функция и ограничения целочисленные функции то задача (6.1) – это задача целочисленного программирования

В зависимости от вида используемых математических моделей, задача оптимизации может быть детерминированной или стохастической, непрерывной или дискретной, аналитической или алгоритмической, при этом для каждого класса задач имеется свой, в достаточной степени апробированный, математический аппарат. Так, для задач линейного программирования успешно применяется симплекс-метод.

Характерной особенностью задач оптимизации в САПР является тот факт, что классические методы нахождения экстремума практически неприменимы, так как в большинстве случаев используются алгоритмические модели. В связи с этим вычисление значений критериев качества и их производных производится численными методами. Поэтому наиболее универсальными и эффективными для задач нелинейного программирования являются методы поисковой оптимизации.

Для обеспечения возможности применения методов поиска к решению задачи оптимизации необходимо некоторым образом упростить математическую постановку задачи: перейти от многокритериальной задачи оптимизации к однокритериальной и от задачи с ограничениями – к задаче безусловной оптимизации.

Как правило, при проектировании сложных систем задача параметрической оптимизации является многокритериальной, в этом случае для построения целевой функции используются специальные методы перехода к однокритериальной задаче оптимизации, а именно: вероятностный, аддитивный, мультипликативный, минимаксный методы и метод выделения главного критерия.

Для того, чтобы оценить, насколько хорошо удовлетворяют требованиям ТЗ значения частных критериев качества при заданном наборе значений внутренних параметров X = (x1, x2.,…,xn), нужно построить обобщенный критерий качества (обобщенную целевую функцию) f(Х), которая одновременно учитывает требования ко всем частным критериям.

Иными словами, от многокритериальной задачи параметрической оптимизации в виде:

 

K1(X)®extr

.. (6.2)

Ks(X) ® extr,

gl(X)≤ , l = 1,…, L,

 

необходимо перейти к однокритериальной задаче:

 

 
 


f (X)® extr,

gl(X) ≤ , l =1,…, L, (6.3)

X=(x1, x2.,…,xn).

 

Наиболее часто на практике используются следующие методы построения целевой функции (методы векторной свертки частных критериев): метод главного критерия, аддитивный, мультипликативный, минимаксный и вероятностный.

В методе выделения главного критерия проектировщик выбирает один, наиболее важный с его точки зрения частный критерий качества, который и принимается за обобщенную целевую функцию. Требования к остальным частным критериям учитывают в виде ограничений F(Х) = Kt(X), где t – номер наиболее важного частного критерия.

В аддитивном методе каждому из частных критериев качества ставится в соответствие весовой коэффициент характеризующий важность данного критерия с точки зрения проектировщика.

При построении целевой функции в аддитивном методе используется соотношение: если f (X) ® max, то – f (X) ® min.

Чтобы построить минимизируемую целевую функцию f ¯(X) ® min, все минимизируемые частные критерии K¯i (X) () включают в аддитивную функцию со знаком плюс, то есть прибавляют к целевой функции, а все максимизируемые критерии K+i(X) () включают в аддитивную функцию со знаком минус, то есть вычитают из целевой функции:

 

(6.4)

 

или, для максимизируемой целевой функции:

(6.5)

 

где s – общее число частных критериев,

t – количество минимизируемых критериев.

В нашем примере четыре частных критерия, то есть s = 4,

t = 2:

K1(X) ® max,

K2(X) ® max,

K3(X) ® min,

K4(X) ® min.

 

Пусть l1 = l2 = l3 = l4 = 0,25, тогда

 

f(X) = 0,25×K1(X)+0,25×K2(X)-0,25×K3(X)-0,25×K4(X) ® max,

 

или

 

f(X) = -0,25×K1(X)-0,25×K2(X)+ 0,25×K3(X)+ 0,25×K4(X) ® min.

 

Каждый частный критерий включаетcя в аддитивную целевую функцию по правилу: умножается на весовой коэффициент и входит в целевую функцию со знаком плюс или минус.

В мультипликативном методе используется правило: если f(X) ® max, то 1/ f(X) ® min при условии, что f(X) ¹ 0. В отличие от аддитивного метода, частные критерии не складывают, а перемножают.

В отличие от аддитивного метода, частные критерии не складывают, а перемножают. Кроме того, в мультипликативном методе не используют весовые коэффициенты. Целевая функция строится в виде дроби.

Если f(X) ® min, то в числитель дроби включают произведение всех минимизируемых критериев, а в знаменатель – произведение всех максимизируемых критериев:

(6.6)

 

или, если целевую функцию нужно максимизировать:

(6.7)

 

В нашем примере с применением мультипликативного метода свертки критериев целевые функции:

 

, (6.8)

. (6.9)

 

Кроме того, в мультипликативном методе не используют весовые коэффициенты. Целевая функция строится в виде дроби.

Минимаксный метод построенияобобщенной целевой функции получил свое название потому, что в нем минимизируется максимальное отклонение частного критерия качества от его наилучшего, желаемого значения (технического требования, оговоренного в ТЗ).

 

, (6.10)

 

где X = (x1, x2.,…,xn), то есть

 

 

(6.11)

 

Логика минимаксного построения целевой функции заключается в том, что в каждый момент времени в качестве главного выбирается тот из частных критериев качества Ki(X), который в наибольшей степени удален от своего желаемого (оптимального) значения Ki*. В нашем примере (s = 4) при желаемых значениях K1* = 0,2; K2* = 1000; K3* = 25; K4* = 1 по минимаксному методу получим:

 

Другими словами, минимизируется “самый плохой” из частных критериев.

Рассмотрим три ситуации, изображенных на рис. 6.1.

 

Рис. 6.1

 

На оси у откладывается величина ôKi(X)-Ki*ô/Ki* для всех частных критериев (i = 1, 2, 3, 4 для нашего примера). В случае а) хуже всего удовлетворяет требованиям ТЗ критерий K3(Х), поэтому f(X)=ôK3(X)- K3*ô/ K3*, то есть в течение некоторого времени усилия оптимизации будут направлены на приближение критерия K3(X) к его желаемому значению K3*. При этом могут ухудшиться значения других критериев. Например, в случае б) для дальнейшей оптимизации будет выбран критерий K1(X).

Процесс продолжают до тех пор, пока все частные критерии не будут достаточно (с требуемой точностью) близки к своим желаемым значениям (случай в), изображенный на рис. 6.1. При этом приведение критериев к нормированному виду ô Ki(X)-Ki* ô/ Ki* необходимо, чтобы в равной степени учитывать изменение критериев независимо от их абсолютных величин (как слишком больших, так и слишком малых, возможно различающихся на несколько порядков).

В случае вероятностного (статистического) метода построения обобщенной целевой функции выбирают f(X) = P(X) ® max, где P(X) – вероятность выполнения условий работоспособности, то есть вероятность того, что при наборе значений внутренних параметров X = (x1, x2.,…,xn) выходные параметры объекта проектирования будут удовлетворять требованиям ТЗ. Для определения вероятности Р(Х) на практике обычно используют метод статистических испытаний (метод Монте-Карло).

Для перехода от задачи параметрической оптимизации с ограничениями к задаче без ограничений, или задаче безусловной оптимизации

 

Ф(Х) ® extr (6.12)

 

используется один из следующих методов: метод неопределенных множителей Лагранжа; метод штрафных функций; метод барьерных функций.

В методе неопределенных множителей Лагранжа вводятся дополнительные переменные y1, y2.,…, yL, которые называют неопределенными множителями Лагранжа. Их количество равно числу ограничений L в задаче оптимизации. Целевая функция (функция Лагранжа) с учетом ограничений строится по формуле:

 

(6.13)

 

где X = (x1, x2.,…, xn), Y = (y1, y2.,…, ym), yl > 0, l = 1, …, L.

Формула (6.14) применима, если задача параметрической оптимизации ставится как задача максимизации, при этом для полученной целевой функции Ф(X, Y) необходимо найти седловую точку, то есть по переменным X = (x1, x2.,…,xn) проводится поиск максимума, а по переменным Y = (y1, y2.,…, ym) – поиск минимума, то есть

 

(6.14)

 

Основной проблемой при использовании метода Лагранжа является значительное увеличение размерности задачи параметрической оптимизации.

В методе штрафных функций целевую функцию задачи безусловной оптимизации получают по формуле:

 

Ф(Х) = f(X)+ q k(X) ® extr, (6.15)

 

где X = (x1, x2.,…, xn) – набор управляемых параметров,

q k(X) - штрафная функция,

k - номер итерации (шага) в методе поисковой оптимизации.

На практике задачи параметрической оптимизации решаются в основном итерационными (пошаговыми) методами, которые называют методами поисковой оптимизации. При этом на каждом шаге поиска значение штрафной функции q k(X) уточняется (рассчитывается заново) по формуле:

(6.16)

 

где rk = 10k. Формула (6.16) применима, если задача параметрической оптимизации ставилась как задача минимизации.

Логика построения штрафной функции заключается в следующем: внутри области работоспособности ХР g l(X) < 0, l = 1, …, L, на границе – gl(X) = 0, а вне ХР gl (X) > 0 (рис. 6.2).

 

Рис. 6.2. Построение штрафной функции

 

Целевая функция задачи безусловной оптимизации Ф(Х) должна быть максимально близкой к целевой функции f(Х) задачи с ограничениями внутри области работоспособности XР = {X = (x1, x2, …, xn)ôgl(X) Ð 0, l = 1,…,L } и быть значительно хуже (больше) функции f(Х) вне области работоспособности, то есть при gl(X) > 0.

Действительно, внутри области работоспособности ХР gl(X) Ð 0, l = 1,…,L, поэтому max{0, gl(X)} = 0 для всех ограничений, то есть внутри области работоспособности Ф(Х) = f(Х). Если ограничения выполнены, то никакого штрафа на целевую функцию не накладывается. В противном случае, если имеются нарушения одного или нескольких ограничений gt(X) > 0, 1 Ð t Ð L, то каждое из них дает свой вклад в штрафную функцию qk(X) в виде квадрата слагаемого [ max{0,gt(Х)} ], где max{0,gt(Х)}=gt(Х). Метод штрафных функций часто называют методом внешней точки, потому что при проведении дальнейшей оптимизации поисковыми методами для метода штрафных функций не важно, принадлежит ли начальная точка поиска области работоспособности ХР.

В методе барьерных функций на границе области работоспособности ХР ставится непреодолимый барьер (целевая функция задачи безусловной оптимизации Ф(Х) возрастает до бесконечности на границе области ХР). Поэтому начальная точка поиска обязательно должна принадлежать области работоспособности, если при построении целевой функции задачи безусловной оптимизации был применен метод штрафных функций, или метод внутренней точки. Целевую функцию Ф(Х) в методе барьерных функций получают по формуле

 

Ф(Х)=f(X)+ q k(X) ® extr, (6.17)

 

где k - номер итерации поискового метода, весовой коэффициент rk =10- k, а барьерная функция q k(X) вычисляется по формуле

(6.18)

 

Действительно, при приближении к границе ХР gl(Х) 0, так как Х Î ХР (метод внутренней точки) gl (X) < 0, l = 1, …, L, поэтому gl(Х) → –¥. Именно поэтому в формуле (2.56) используется знак минус: qk(X) возрастает до бесконечности при приближении к границе области работоспособности.

Главный недостаток метода барьерных функций заключается в том, что начальную точку поиска приходится выбирать внутри области работоспособности ХР, что представляет собой сложную задачу при малых размерах области ХР.

Таким образом, при небольшом количестве управляемых параметров Х и ограничений gl(X), целесообразно применять метод неопределенных множителей Лагранжа, если проверка принадлежности начальной точки поиска области ХР не слишком трудоемкая задача, то применяем метод барьерных функций, в противном случае – метод штрафных функций, который, хотя и является более универсальным, но впоследствии, в ходе поисковой оптимизации требует большего числа итераций по сравнению с методом барьерных функций.

 

6.2. Методы поисковой оптимизации

 

В связи со сложностью и малой изученностью объектов проектирования и критерии качества, и ограничения задачи параметрической оптимизации, как правило, слишком сложны для применения классических методов поиска экстремума. Поэтому на практике предпочтение отдается методам поисковой оптимизации. Рассмотрим основные этапы любого метода поиска.

Исходными данными в методах поиска являются требуемая точность метода e и начальная точка поиска Х0.

Затем выбирается величина шага поиска h, и по некоторому правилу происходит получение новых точек Хk+1 по предыдущей точке Хk при k = 0, 1, 2, … Получение новых точек продолжают до тех пор, пока не будет выполнено условие прекращения поиска. Последняя точка поиска считается решением задачи оптимизации. Все точки поиска составляют траекторию поиска.

Методы поиска отличаются друг от друга процедурой выбора величины шага h (шаг может быть одинаковым на всех итерациях метода или рассчитываться на каждой итерации), алгоритмом получения новой точки и условием прекращения поиска.

Для методов, использующих постоянную величину шага, h следует выбирать значительно меньше точности e. Если при выбранной величине шага h не удается получить решение с требуемой точностью, то нужно уменьшить величину шага и продолжить поиск из последней точки имеющейся траектории.

В качестве условий прекращения поиска принято использовать следующие:

1) все соседние точки поиска хуже, чем предыдущая;

2) ç Ф(Xk+1)–Ф(X k) ç £ e, то есть значения целевой функции Ф(Х) в соседних точках (новой и предыдущей) отличаются друг от друга на величину не больше, чем требуемая точность e;

3) , i = 1, …, n, то есть все частные производные в новой точке поиска практически равны 0, то есть отличаются от 0 на величину, не превышающую точности e.

Алгоритм получения новой точки поиска Хk +1 по предыдущей точке Хk свой для каждого из методов поиска, но всякая новая точка поиска должна быть не хуже предыдущей: если задача оптимизации является задачей поиска минимума, то Ф(Хk+1) £ Ф(Хk).

Методы поисковой оптимизации принято классифицировать по порядку производной целевой функции, используемой для получения новых точек. Так, в методах поиска нулевого порядка не требуется вычисления производных, а достаточно самой функции Ф(Х). Методы поиска первого порядка используют первые частные производные, а методы второго порядка используют матрицу вторых производных (матрицу Гессе).

Чем выше порядок производных, тем более обоснованным является выбор новой точки поиска и тем меньше число итераций метода. Но при этом трудоемкость каждой итерации из-за необходимости численного расчета производных.

Эффективность поискового метода определяют по числу итераций и по количеству вычислений целевой функции Ф(Х) на каждой итерации метода.

Рассмотрим наиболее распространенные методы поиска, расположив их в порядке уменьшения числа итераций.

Для методов поиска нулевого порядка справедливо следующее: в методе случайного поиска нельзя заранее предсказать количество вычислений Ф(Х) на одной итерации N, а в методе покоординатного спуска N £ 2× n, где n - количество управляемых параметров X = (x1, x2.,…,xn).

Для методов поиска первого порядка справедливы следующие оценки: в градиентном методе с постоянным шагом N = 2×n; в градиентном методе с дроблением шага N=2× n + n 1, где n1 – число вычислений Ф(Х), необходимых для проверки условия дробления шага; в методе наискорейшего спуска N = 2×n + n2, где n2 – число вычислений Ф(Х), необходимых для расчета оптимальной величины шага; а в методе Давидона - Флетчера - Пауэлла (ДФП) N = 2× n + n3, где n3 – число вычислений Ф(Х), необходимых для расчета матрицы, приближающей матрицу Гессе (для величин n1, n2, n3 справедливо соотношение n1< n2 < n3).

И, наконец, в методе второго порядка - методе Ньютона N = 3×n2.

При получении данных оценок предполагается приближенное вычисление производных по формулам конечных разностей, то есть для вычисления производной первого порядка нужно два значения целевой функции Ф(Х), а для второй производной – значения функции в трех точках.

На практике широкое применение нашли метод наискорейшего спуска и метод ДФП, как методы с оптимальным соотношением числа итераций и их трудоемкости.

Начнём рассмотрение методов поиска нулевого порядка. В методе случайного поиска исходными данными являются требуемая точность метода e, начальная точка поиска Х0 = (x10, x20, …, xn0) и величина шага поиска h.

Поиск новых точек производится в случайном направлении, на котором и откладывается заданный шаг h, таким образом получают пробную точку и проверяют, является ли пробная точка лучшей, чем предыдущая точка поиска. Для задачи поиска минимума это означает, что:

 

(6.19)

 

Если данное условие выполнено, то пробную точку включают в траекторию поиска (). В противном случае, пробную точку исключают из рассмотрения и производят выбор нового случайного направления из точки Хk, k = 0, 1, 2, … (рис. 6.3).

Несмотря на простоту данного метода, его главным недостатком является тот факт, что заранее неизвестно, сколько случайных направлений потребуется для получения новой точки траектории поиска Хk+1, что делает затраты на проведение одной итерации слишком большими.

Кроме того, поскольку при выборе направления поиска не используется информация о целевой функции Ф(Х), число итераций в методе случайного поиска очень велико.

Несмотря на простоту данного метода, его главным недостатком является тот факт, что заранее неизвестно, сколько случайных направлений потребуется для получения новой точки траектории поиска Хk+1, что делает затраты на проведение одной итерации слишком большими.

 
 

 


Рис. 6.3. К методу случайного поиска

 

Кроме того, поскольку при выборе направления поиска не используется информация о целевой функции Ф(Х), число итераций в методе случайного поиска очень велико.

В связи с этим метод случайного поиска используется для исследования малоизученных объектов проектирования и для выхода из зоны притяжения локального минимума при поиске глобального экстремума целевой функции.

В отличие от метода случайного поиска, в методе покоординатного спуска в качестве возможных направлений поиска выбирают направления, параллельные осям координат, причем движение возможно как в сторону увеличения, так и уменьшения значения координаты.

Исходными данными в методе покоординатного спуска являются величина шага h и начальная точка поиска Х0 = (x10, x2. 0,…, xn0). Движение начинаем из точки Х0 вдоль оси x1 в сторону увеличения координаты. Получим пробную точку (x1k+h, x2k,…, xnk), k = 0. Сравним значение функции Ф(Х) с значением функции в предыдущей точке поиска Хk.

Если (мы предполагаем, что требуется решить задачу минимизации Ф(Х), то пробную точку включают в траекторию поиска ().

В противном случае, пробную точку исключаем из рассмотрения и получаем новую пробную точку, двигаясь вдоль оси x1 в сторону уменьшения координаты. Получим пробную точку (x1k–h, x2k,…, xnk). Проверяем, если , то продолжаем движение вдоль оси x2 в сторону увеличения координаты. Получим пробную точку (x1k+h, x2k,…, xnk), и т.д.

При построении траектории поиска повторное движение по точкам, вошедшим в траекторию поиска, запрещено.

Получение новых точек в методе покоординатного спуска продолжается до тех пор, пока не будет получена точка Хk, для которой все соседние 2× n пробных точек (по всем направлениям x1, x2, …, xn в сторону увеличения и уменьшения значения координаты) будут хуже, то есть . Тогда поиск прекращается и в качестве точки минимума выбирается последняя точка траектории поиска Х*= Хk.

Рассмотрим работу метода покоординатного спуска на примере (рис. 2.21): n = 2, X = (x1, x2), Ф (x1, x2) ® min, Ф(x1, x2) = (x1 – 1)2 + (x2 – 2)2, h = 1, Х0 = (0, 1).

  1. Начинаем движение вдоль оси x1 в сторону увеличения

координаты. Получим первую пробную точку

 

(x10+h, x20) = (1, 1), Ф () = (1-1)2 + (1-2)2 = 1,

 

Ф(Х0) = (0-1)2 + (1-2)2 = 2,

 

то есть

 

Ф() < Ф(Х0) ® Х1 = (1, 1).

 

 

Рис. 6.4

 

2. Продолжаем движение вдоль оси x1 от точки Х1 в сторону увеличения координаты. Получим пробную точку

 

=(x11+h, x21) = (2, 1), Ф() = (2-1)2 + (1-2)2 = 2,

 

Ф(Х1) = (1-1)2 + (1-2)2 = 1,

 

то есть Ф() > Ф(Х1) – пробная точка с координатами (2, 1) исключается из рассмотрения, а поиск минимума продолжается из точки Х1.

3. Продолжаем движение вдоль оси x2 от точки Х1 в сторону увеличения координаты. Получим пробную точку

 

= (x11, x21+h) = (1, 2), Ф() = (1-1)2 + (2-2)2 = 0,

 

Ф(Х1) = (1-1)2 + (1-2)2 = 1,

 

то есть

 

Ф() < Ф(Х1) ® Х2 = (1, 2).

 

4. Продолжаем движение вдоль оси x2 от точки Х2 в сторону увеличения координаты. Получим пробную точку

 

= (x12, x22 +h) = (1, 3), Ф() = (1-1)2 + (3-2)2 = 1,

 

Ф(Х2) = (1-1)2 + (2-2)2 = 0,

 

то есть Ф() > Ф(Х2) – пробная точка с координатами (1, 3) исключается из рассмотрения, а поиск минимума продолжается из точки Х2.

5. Продолжаем движение вдоль оси x1 от точки Х2 в сторону увеличения координаты. Получим пробную точку

 

= (x12 + h, x22) = (2, 2), Ф() = (2-1)2 + (2-2)2 =1,

 

Ф(Х2) = (1-1)2 + (2 - 2)2 = 0,

 

то есть Ф(Х^) > Ф(Х2) – пробная точка с координатами (2, 2) исключается из рассмотрения, а поиск минимума продолжается из точки Х2.

6. Продолжаем движение вдоль оси x1 от точки Х2 в сторону уменьшения координаты. Получим пробную точку

 

= (x12 - h, x22) = (0, 2), Ф() = (0-1)2+(2-2)2 = 1,

 

Ф(Х2) = (1-1)2 + (2 - 2)2 = 0,

 

то есть Ф() > Ф(Х2) – пробная точка с координатами (0, 2) исключается из рассмотрения, а поиск минимума закончен, так как для точки Х2 выполнено условие прекращения поиска. Точкой минимума функции Ф(x1, x2) = (x1 – 1)2 + (x2 – 2)2 является Х* = Х2.

В методах поиска первого порядка в качестве направления поиска максимума целевой функции Ф(Х) выбирается вектор градиент целевой функции grad (Ф(Хk)), для поиска минимума – вектор антиградиент -grad (Ф(Хk)). При этом используется свойство вектора градиента указывать направление наискорейшего изменения функции:

 

.

 

Для изучения методов поиска первого порядка важно так



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-02-16 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: