Xreferat.com » Рефераты по математике » Математические основы теории систем

Математические основы теории систем

распределения: Fn(x1,...,xn; t1,..,tn), которые зависят от n переменных х1,...,хn и значений t1,...,tn, или плотности распределения вероятностей fn.

Важными характеристиками случайных величин являются моменты. Если известна двумерная функция распределения или плотность распределения вероятностей случайной функции, то всегда можно вычислить моменты случайной функции до второго порядка включительно, такими моментами являются математически ожидания;


(1) M[X(t)]= ⌡ xf1[x,t]dx=mx(t)

-∞


дисперсия

(2) D[X(t)]= ⌡ [x-mx(t)]2f1(x,t)dx=D1(t)

-∞

и корреляционный момент:

∞ ∞

(3) Kx(t1,t2)=M[X(t1)X(t2)]= ⌡ ⌡ (x1-mx(t1))(x2-mx(t2))

-∞ -∞

f2(x1,x2;t1,t2)dx1dx2, где

(4) X(t)=X(t)-M[X(t)], центрированная случайная функция.

Если параметру t придавать все возможные значения, то математическое ожидание (1) и дисперсия (2) случайной функции будут функциями одной переменной t, а корреляционный момент (3) функцией двух переменных t1 и t2. Корреляционный момент Кx(t1,t2) называется корреляционной функцией случайной функции Х(t).

Математическое ожидания представляет собой среднее значение случайной функции Х(t)рис 2, а дисперсия характеризует отклонение значений, принимаемых случайной функцией, от ее математического ожидания.

Корреляционная функция характеризует зависимость между случайными величинами Х(t1) и Х(t2)-сечениями случайной функции при t=t1 и t=t2.

x(t)

m(x)


t

Рис 2


Теория, изучающая случайные функции на основе знания первых двух моментов случайных функций, рис 2 называется корреляционной теорией.

Если известны математическое ожидание m(t) и корреляционная функция К(t1,t2) случайной функции Х(t), то всегда можно построить n-мерный вектор математического ожидания многомерной, случайной величины x(t1),...,x(tn) для фиксированных значений t1, t2,...,tn.

(5) mT=[m1, m2,..., mn]

и корреляционную матрицу этой случайной многомерной величины

K(t1,t1) K(t1,t2) ..... K(t1,tn)

K(t2,t1) k(t2,t2) ..... K(t2,tn)

(6) K= ........................................

........................................

K(tn,t1) K(tn,t2) K(tn,tn)

НЕКОТОРЫЕ СВОЙСТВА КОРРЕЛЯЦИОННОЙ ФУНКЦИИ.

1. Корреляционная функция при одинаковых значениях аргументов равна дисперсии случайной функции, т.е.

K(t,t)=D(t)

2. При перемене местами аргументов корреляционная функция меняется на комплексно - сопряженную, т.е.

______

K(t1; t2)=K(t1, t2)

3. Для всякой корреляционной функции справедливо неравенство:

1) K(t1, t2) ≤√ D(t1)D(t2)

4. Корреляционная функция является положительно определенной функцией. Вместо корреляционной функции может быть рассмотрена безразмерная нормированная корреляционная функция R(t1, t2) определяемая равенством;

(t1, t2)

  1. R(t1, t2)=

√ D(t1)D(t2)

Из определения свойств корреляционной функции можно показать, что для нормированной корреляционной функции справедливо состояние:

_____ ______

R(t, t)=1 , R(t2,t1)=R(t1,t2) , R(t1,t2)≤1

В теории случайных чисел большую роль играет один из видов случайной функции, математическое ожидание которой равно 0, а корреляционная функция равна дельта функции. Такую случайную функцию называют белым шумом. Для белого шума как это следует из определения, справедливы равенства:

(6) M[X(t)=0

(7) K(t1, t2)=G(t) δ(t1-t2)

Функция G(t) называется интенсивностью белого шума. Дельта-функция при значении аргумента, отличном от 0, равна 0, поэтому для белого шума случайные величины, соответствующие двум сколь угодно близким значениям, являются некоррелированными.

Рассмотри систему из n случайных функций:

(8) X1(t),X2(t),...,Xn(t)

Каждая из функций этой системы характеризуется математическим ожиданием и корреляционной функцией. Однако необходимо еще ввести характеристику связи между отдельными случайными функциями системы (8).

Такой характеристикой является взаимная корреляционная функция двух случайных функций Xi(t) и Xi(t), и определяется равенством:

(9) Kxixj(t1,t2)=M[Xi(t)Xj(t)]

Для того, чтобы отличать взаимную корреляционную функцию, от корреляционной функции, последнюю называют также автокорреляционной.

Для взаимной корреляционной функции случайных функций Хi(t) и Yj(t) справедливы свойства:

________

(10) Kxy(t1, t2)=Kxy(t1, t2)


(11) Kxy(t1, t2) ≤ √Dx(t1)Dy(t2)

Две случайные функции Х(t) и Y(t) называются некоррелированными, если их взаимная корреляционная функция тождественно равна нулю т.е.

(12) Kxy(t1, t2)=0

В ряде случаев удобно ввести безразмерную характеристику связи между случайными функциями нормированную взаимную корреляционную функцию:

Kxy(t1,t1)

(13) Rxy(t1, t2)=

√ Dx(t1)Dy(t1)

ЛИНЕЙНЫЕ ОПЕРАЦИИ НАД СЛУЧАЙНЫМИ ФУНКЦИЯМИ.

Выясним, как образуются математические ожидания и корреляционные функции случайных функций при осуществлении над ними линейных операций:

1. Сложение случайных функций.

Возьмем две случайные функции X(t), Y(t). Пусть известны моменты этих функций до второго порядка включительно:

M[X(t)],M[Y(t)], Kx(t1,t2),Ky(t1,t2) Kxy(t1,t2)

Найдем математическое ожидание случайной функции:

(15) Z(t)=X(t)+Y(t)

В силу линейности операции определения математического ожидания имеем:

(16) M[Z(t)]=M[X(t)]+M[Y(t)]

т.е. математическое ожидание суммы случайных функций равно сумме математических ожиданий этих случайных функций.

Вычитая из равенства (15) равенство (16), получим центрированную случайную функцию:

(17) Z(t)=X(t)+Y(t)

Вычислим корреляционную функцию суммы случайных функций Х(t)+Y(t). По определению корреляционной функции имеем: _____ ____________

(18) Kz(t1, t2)=M[Z(t1)Z(t2)]=M[(X(t1)+Y(t2)*(X(t1)+Y(t2))]=

=Kx(t1, t2)+Kxy(t1, t2)+Kyx(t1, t2)+Ky(t1, t2)

Таким образом, корреляционная функция суммы двух случайных функций равна сумме всех корреляционных и взаимно корреляционных функций этих случайных функций.

2. Дифференцирование случайных функций.

Случайная функция Y(t) называется производной в среднем квадратичном от случайной функции Х(t) по аргументу t, если существует предел:

X(t+h)-X(t) 2

(19) lim M -Y(t) =0

h→0 h

Случайную функцию, для которой существует производная в среднем квадратичном, будем называть дифференцируемой. Случайная функция X(t) называется непрерывной в среднем квадратическом, если существует предел:

(20) lim X(t)=X(t)

h→0

Корреляционная функция производной dX(t)/dt=Y(t) равна:


d2K(t1,t2)

(21) Ky(t1,t2)=

dt1dt2

Взаимная корреляционная функция процесса Х(t) и его производной равна:

(22) Kxy(t1,t2)=dK(t1,t2)/dt2

Из этих равенств по индукции можно показать справедливость соотношения:

dn+mKx(t1,t2)

(23) Kx(n)x(m)(t1,t2)=

dt1n dt2n

где x(n)(t) и x(m)(t)- соответственно n-я и m-я производные в среднем квадратичном случайной функции Х(t).

3. Интегрирование случайной функции.

Пусть заданы случайная функция Х(Ʈ) и неслучайная функция q(t, Ʈ), где параметр Ʈ изменяется в интервале (а, в). Разобьем интервал (а, в) точками Ʈ=а,Ʈ,...,Ʈn=в, на n частей и составим сумму:

n

(24) ∑ Xi) q(t,Ʈi)(Ʈii-1)

i=1

значение Ʈi выбрано произвольно в промежуткеƮi-1≤Ʈ≤Ʈi. Рассмотрим предел в среднем квадратическом суммы:

при n→∞ и max[Ʈii-1]→0

n

(25) lim ∑ Xi) q(t, Ʈi)(Ʈii-1)

n→∞ i=1

Если этот предел существует, то он называется

интегралом от случайной функции X(t) в среднем

квадратическом с весом q(t,Ʈ) и обозначается:


b n

(26) Y= ] X(Ʈ) q(t,Ʈ) dƮ = lim ∑ Xi) q(t,Ʈi) ΔƮi

a n→∞ i=1

Рассмотрим случайную функцию Y(t). Согласно определения интеграла от случайной функции получим:

b

(27) Y(t)= ⌡ X(Ʈ) q(t,Ʈ)dƮ

a

Математическое ожидание случайной функции Y(t):

b

(28) M[Y(t)]= ⌡ mx(Ʈ) q(t,Ʈ) dƮ, где mx=M[X(t)]

a

Из неравенства (28) следует, что если существует интеграл, то математическое ожидание интеграла от случайной функции Х(t) равно интегралу от математического ожидания этой случайной функции.

СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ.

Существуют случайные функции, не изменяющие свой характеристики с течением времени. Такие случайные функции называются стационарными.

Случайная функция, для которой все n-мерные функции распределения вероятностей не изменяются с изменением начала отсчета времени, называются стационарными в узком смысле.


1.10 ОПТИМИЗАЦИЯ В ТЕОРИИ СИСТЕМ.

Задачу управления в дальнейшем будем рассматривать как математическую. Однако в отличии от многих других математических задач она имеет ту особенность, что допускает не одно, а множество различных решений. Поэтому задачу управления можно было бы ставить как задачу нахождения хотя бы одного из возможных способов достижения поставленной цели. Если имеется множество решений какой-либо задачи, то следует вести речь о выборе такого решения, которое с какой либо точки зрения являлось наилучшим.

В тех случаях, когда цель управления может быть достигнута, несколькими различными способами, на способ управления можно наложить добавочные требования, степень выполнения которых может служить основанием для выбора способа управления.

Во многих случаях реализация процесса управления требует затрат каких-либо ресурсов: времени, материалов, топлива, электроэнергии.

Следовательно, при выборе способа управления следует говорить не только о том, какие ресурсы придется затратить на ее достижение.

Математическое выражение, дающее количественную оценку степени выполнения наложенных на способ управления требований, называют критерием качества управления.

Наиболее предпочтительным или оптимальным способом управления будет такой, при котором критерий качества управления достигает минимального (максимального) значения.

Задачу нахождения оптимального управления или управления вообще следует читать несущественной если на характер движения, не наложено ни каких ограничений.

В общем случае имеется два вида ограничений на выбор способа управления. Ограничением первого вида являются сами законы природы, всоответсвии с которыми происходит движение управляемой системы. При математической формулировки задачи управления эти ограничения представляются обычно алгебраическими дифференциальными или разностными уравнениями связи. Второй вид ограничений вызван ограниченностью ресурсов, используемых при управлении, или иных величин, которые в силу физических особенностей той или иной системы не могут или не должны превосходить некоторых пределов.

Математические ограничения этого вида выражаются обычно в виде системы алгебраических уравнений или неравенств, связывающих переменные, описывающие состояние системы.

ПОСТАНОВКА ЗАДАЧИ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ

Задачу оптимального управления можно считать сформулированной математически, если: сформулирована цель управления, определены ограничения первого вида, представляющие собой системы дифференциальных или разностных уравнений сковывающих возможные способы движения системы, определены ограничения второго вида, представляющие собой систему алгебраических уравнений или неравенств, выражающих ограниченность ресурсов или иных величин используемых при управлении.

Способ управления, который удовлетворяет всем поставленным ограничениям и обращает в минимум (максимум), критерий качества управления, называют оптимальным управлением.


КЛАССИФИКАЦИЯ ЗАДАЧ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ.

1. Одношаговые задачи принятия решения.

В одношаговых задачах определяется непосредственно значение переменной состояния системы х, которое обеспечивает наилучшее достижение или управление.

Одношаговая задача принятия решения считается заданной, если заданы пространство состояний природы Q с распределением вероятностей ℰ(U) для всех U∈Q, пространство решений Х и критерий качества принятого решения, который будем называть целевой функцией. Целевую функцию; выражающую в явном виде цели управления, можно рассматривать как выходную величину ОУ и обозначать q.

Целевую функцию, являющуюся скалярной величиной, зависящей от состояния природы U и от состояния объекта управления х можно записать в виде:

(1) q=q(х,U)

Одинаковая задача принятия решений:

(2) G=(X,Q,q)

Решение задачи (2) состоит в нахождении такого х*∈X, которое обратит в минимум функцию q, т.е. удовлетворяет условию:

(3) х*={х∈Х q(х,U)=min}

Существует ряд методов решения одношаговой задачи.

Задачу называют детерминированной, если нет неопределенности в отношении состояния природы. Пространство состояния природы Q состоит всего из одного элемента U0, вероятность которого равна 1. В этом случае целевая функция будет зависеть только от состояния ОУ.

(4) q=q(x)=q(x(1),...., x(n))

Одинаковую детерминированную задачу называют классической задачей оптимизации, если ограничения вида:

≤в ____

(5) fi(x(1),..., x(n)) =в , i=1,m

≥в

примем, среди этих ограничений нет неравенств, и нет условий не отрицательности или дискретности переменных, функции fi(x(1),...,x(n)) и q(х) непрерывны и имеют частные производные по крайней мере второго порядка.

Другим методом решения одношаговой задачи является метод математического программирования.

Математическое программирование представляет собой не аналитическую, а аморитмическую форму решения задачи, т.е. указывает вычислительную процедуру, которая приводит к решению задачи.

Простейшим примером математического программирования является задача линейного программирования. Она соответствует случаю, когда левые части ограничений (5) и целевая функция (4) представляют собой линейные функции от х(1),..., х(n). В задачах линейного программирования требуется найти неотрицательные значения переменных х(1),..., х(n), которые обращают в минимум целую функцию.

(6) q(x(1),...,x(n))= ∑ Cjx(j)

j

и удовлетворяет системе ограничений:

(7) ∑ aijx(j)≤вi, i=1,m

j

Любую задачу математического программирования, отличающуюся от сформулированной, называют задачей нелинейного программирования. В этих задачах или целевая функция или левые части ограничений, или то и другое являются нелинейными функциями от x(1),..., х(n), или когда целевая функция и ограничении имеют вид (6), (7), но предполагается, например, цело численность переменных. Эта задача получил название целочисленного программирования. Одношаговую задачу принятия решений называют стохастической, если пространство состояний природы Q состоит более чем из одного элемента, так что известным является не действительное состояние природы U, а распределение вероятностей ξ(U) на пространстве Q.

(8) q (x)= ∑ ξ(U) q(x,U)

U∈Q

Поскольку q (х) является детерминированной функцией от х, то задача нахождения переменных х(1),...,х(n), удовлетворяющих ограничениям (5) и обращающих в минимум целевую функцию (8), может быть решена методами линейного и нелинейного программирования.

В настоящее время большое внимание уделяется задачам, в которых решение принимается не одним лицом, а несколькими, причем интересы этих лиц противоположны. Подобные задачи получили название конфликтных ситуаций, а методы их решения рассматриваются в теории игр. При мат-ком описании конфликтной ситуации пространство решений следует рассматривать как прямое приведение двух множеств Х*Y, где Х={х1,..., хn} - пространство решений первого игрока; Y - пространство решений второго игрока. Целевая функция:

(9) q=q(x,y)

зависит только от элементов пространства Х*Y.

ДИНАМИЧЕСКИЕ ЗАДАЧИ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ.

Задачи, в которых ОУ находится в состоянии непрерывного движения и изменения под воздействием различных внешних и внутренних факторов называется динамическими задачами управления.

(10) q=qV[x(t),u(t)]

(10)-целевая функция, качество управления в любой момент времени может быть охарактеризовано как

(11) q(t)=u(t)/x(t)

Целевая функция вида (10) используется редко, так как она дает оценку лишь мгновенных значений управляемого процесса, тогда как в большинстве задач требуется оценить процессы в ОУ на протяжении всего времени управления от 0 до Т.

Оценку процесса ОУ можно произвести путем интегрирования целевой функции за все время управления, т.е. за критерий качества принять функционал

T

(12) J(u)= ⌡ qU[x(t),u(t)]dt

0

В динамических задачах управления наряду с ограничениями вида (5), определяющих пространство допустимых управлений V, приходится иметь дело с интегральными ограничениями вида:

T

(13) ⌡ H [x(t),u(t)]dt ≤ k = const

0

Оптимальным называют управление u*(t), выбираемого из пространства допустимых уравнений V, такое, которое для объекта описываемого дифференциальным уравнением x=qv(u, x), x(0)=C, минимизирует критерий качества (12) при заданных ограничениях на используемые ресурсы (13).

ОБЩАЯ ПОСТАНОВКА ЗАДАЧИ ОПТИМИЗАЦИИ.

В общей задаче оптимизации требуется найти вектор x=(x(1),.., x(n)) из допустимой области Х, который обращает в min целевую функцию q(х), т.е. такой вектор х*∈X, для которого выполняется условие:

(14) q(x*) ≤ q(x) для всех х∈Х

Если такой вектор х* существует, то он определяет слабый глобальный минимум q*(х) в допустимой области Х. Этот минимум называют слабым, т.к. он удовлетворяет нестрогому (слабому) неравенству, глобальным или абсолютным, потому что неравенство справедливо для любого х∈X. Минимум при х=х* называют сильным, если имеет место q(x*)

Хотя цель задачи оптимизации - получение глобального минимума целевой функции, при ее решении важное значение имеет понятие локального или относительного минимума.

Минимум в точке х=х* называется локальным (относительным), если найдется такая окрестность Qξ(х*) точки х*, что для всех х∈Qξ(x*) имеет место q(х*)≤q(х).

Если функция q(х) дифференцируема, то задача отыскания локальных минимумов сводится к нахождению стационарных точек, в которых обращаются в нуль частные производные функции q(x)

___

(15) dq(x)/dx(i)=0, i=1,n

КЛАССИЧЕСКАЯ ЗАДАЧА ОПТИМИЗАЦИИ.

Эта задача состоит в нахождении минимума целевой функции q(х), где х=(х(1),..., х(т)) - точка в пространстве R(т) при наличии ограничений типа равенств:

___

(16) fi(x)=0, i=1,m, m

Если ограничения (16) имеют место ,то минимум функции q(х) называют условным минимумом. Если ограничения (16) отсутствуют, то говорят о безусловном минимуме, нахождение которого сводится к определению и исследованию стационарных точек функции q(х).

Классический способ решения данной задачи состоит в том, что уравнение (16) используется для исключений из рассмотрения m - переменных. При этом целевая функция приводится к виду:

(17) q(x(1),...,x(т))=q1(y(1),..., y(т)),

где через у(1),..., у(т) обозначены не исключенные переменные. Задача состоит теперь в нахождении значений у(1),...,у(т) которые обращают в минимум функцию q1 и на которые не наложено ни каких ограничений, т.е. сводится к задаче на безусловный экстремум.

ВЫПУКЛЫЕ И ВОГНУТЫЕ ФУНКЦИИ.

Большинство известных методов решения задачи оптимизации сводится к исследованию характера функции q(х) в окрестности рассматриваемого значения x, т.е. к выяснению того, не является ли точка х точкой относительного минимума (максимума). При этом задача усложняется, если целевая функция может иметь в допустимой области значений Х не один, а несколько минимумов или максимумов. Поэтому значительный интерес представляют также задачи, в которых целевая функция имеет всего один максимум или минимум. Для выявления классов таких задач фундаментальную роль играют понятия выпуклости и вогнутости функций.

Пусть f(х) - некоторая функция, заданная на выпуклом множестве Х, ах1, x2 - две произвольные точки из х, х=ℷх1+(1-ℷ)х2; 0≤1≤1; - произвольная точка отрезка, соединяющая х1 и х2. Рассмотрим также отрезок z=ℷf(х1)+(1-ℷ)f(х2), соединяющий значения f(х1) и f(х2) функции f(х).

Функцию f(х) называют выпуклой, если она целиком лежит ниже отрезка, соединяющего две ее произвольные точки при любых х1 и х2 и при любом 0≤ℷ≤1 значении функции в точке х будут не больше значений z отрезка, соединяющего f(х1) и f(х2) Функцию называют вогнутой, если она целиком лежит выше отрезка соединяющего две ее произвольные точки.

ЗАДАЧИ НЕЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ.

Постановка задачи.

В этой задаче требуется найти значение многомерной переменной х=(х(1),..., х(n)), минимизирующее целевую функцию q(х) при условии, когда на переменную х наложены ограничения: ___

(20) fi(x)≤0, i=1,n

а переменные х(j), не отрицательны.

МЕТОД ШТАФНЫХ ФУНКЦИЙ.

Задача минимизации целевой функции q(х) с ограничениями (20) может, быть сведена к задаче на безусловный экстремум видоизменением целевой функции путем добавления к ней функции штафа. Общая идея метода штафных функций состоит в построении последовательности новых целевых функций.

(21) Qk(x)=q(x)+rkΨ(x), r=1,2,..

где Ψ(х)-функция штафа, принимающая по возможности малые (желательно нулевые) значения внутри допустимой области, а rk, к=1,2,....... - плоскость возрастающих положительных чисел параметров штрафа. При ограничении вида (20), функция штрафа:

m

(22) Ψ(х)= ∑ (fi+(x))2

i=1

где fi+(х) - срезка функции fi(x), равная нулю, если fi(х)≤0 и равная fi(х), если fi(х)≥0.

Алгоритм решения задачи состоит в следующем:

а) выбираем произвольное начальное приближение х0 и монотонно возрастающую последовательность чисел r→∞

б) при R=1,2,.., начиная с хk-1 решаем задачу безусловной минимизации по х функции Qk(х), в результате чего находим очередное приближение xk к решению исходной задачи.

ОГРАНИЧЕНИЯ ТИПА РАВЕНСТВ И НЕОТРИЦАТЕЛЬНОСТЬ ПЕРЕМЕННЫХ.

Простейшей задачей НЛП является задача минимизации q(x) с ограничениями типа равенств

___

(24) fj(x)=0, j=1,m ___

и с требованием не отрицательности переменных х(i), i=1,n. В точки х оптимального решения выполняются соотношения:

(25) L(x,ℷ)=q(x)

Пусть х - точка, соответствующая оптимальному решению. Она может быть или внутренней, или граничной точкой допустимой области х≥0, т.е. каждая из ее компонент, будет удовлетворять либо условию х(i)>0, либо условию х(i)=0.

Если х(i)>0, то отклонения от точки х возможны как в сторону увеличения, так в сторону уменьшения х(i). Но поскольку х - оптимальная точка, то должно быть dq(x)/dx(i)-0

Если х(i) лежит на границе допустимой области, т.е. х(i)=0, то отклонения от оптимальной точки возможны в сторону увеличения dq(x)/dx(i)>0. Необходимые условия того, что точка х - решение задачи:

dL(x,ℷ) =0, если x(i)>0; ___

dx(i) >0, если x(i)=0, i=1,n

____

(27) dL(x; ℷ)/dℷj=0, j=1,m

КВАДРАТИЧНОЕ ПРОГРАММИРОВАНИЕ (КП).

Задачей КП называют задачи НЛП, в которой минимизируется сумма линейной и квадратичной форм при ограничениях типа линейных неравенств и не отрицательности переменных. В матричной форме эта задача имеет вид:

(28) q(x)=Cx+xTdx=min,

Ax≤в, x≥0

ИНТЕРАТИВНЫЕ МЕТОДЫ ПОИСКА ОПТИМУМА.

В основе этих методов лежит понятие градиента целевой функции q(х), grad q(x), называют вектор, величина которого определяет скорость изменения функции q(х), а направление совпадает с направлением наибольшего возрастания этой функции. Вектор grad q(x), указывающий направление наибольшего убывания функции q(х), называют антиградиентом функции q(х).

ГРАДИЕНТНЫЙ МЕТОД.

Этот метод представляет собой последовательность шагов, каждый из которых содержит две операции:

  1. определение направления антиградиента функции q(х)

  2. перемещение в выбранном направлении на заданное расстояние.

МЕТОД НАИСКОРЕИШЕГО СПУСКА (ПОДЪЕМА).

В отличии от градиентного метода, в методе наискорейшего спуска градиент находят только в начальной точке, и движение в найденном направлении продолжается одинаковыми шагами до тех пор, пока уменьшается значение функции q(х).

Если на каком-то шаге q(х) возросло, то движение в данном направлении прекращается, последний шаг снимается полностью или на половину и вычисляется новый градиент функции q(х), а значит и новое направление движения.

АЛГОРИТМ НЬЮТОНА.

В тех случаях, когда поверхность отклика достаточно хорошо описывается уравнением второго порядка, резкое

Если Вам нужна помощь с академической работой (курсовая, контрольная, диплом, реферат и т.д.), обратитесь к нашим специалистам. Более 90000 специалистов готовы Вам помочь.
Бесплатные корректировки и доработки. Бесплатная оценка стоимости работы.

Поможем написать работу на аналогичную тему

Получить выполненную работу или консультацию специалиста по вашему учебному проекту
Нужна помощь в написании работы?
Мы - биржа профессиональных авторов (преподавателей и доцентов вузов). Пишем статьи РИНЦ, ВАК, Scopus. Помогаем в публикации. Правки вносим бесплатно.

Похожие рефераты: