Уровень алгоритма

Участник:Арутюнов А.В.: различия между версиями

Материал из Алговики
Перейти к навигации Перейти к поиску
Строка 14: Строка 14:
  
 
= Свойства и структура алгоритма =
 
= Свойства и структура алгоритма =
 +
 +
 +
 
== Общее описание алгоритма ==
 
== Общее описание алгоритма ==
 
Это итерационный численный метод нахождения корня (нуля) заданной функции
 
Это итерационный численный метод нахождения корня (нуля) заданной функции
Строка 67: Строка 70:
 
\left\{\begin{matrix}f_1(x_1, ..., x_n) = 0
 
\left\{\begin{matrix}f_1(x_1, ..., x_n) = 0
 
\\ f_2(x_1,...x_n)=0,
 
\\ f_2(x_1,...x_n)=0,
\\ ..., что позволяет свести исходную задачу СНУ к
+
\\ ...,
 
\\ f_n(x_1, ..., x_n) = 0,
 
\\ f_n(x_1, ..., x_n) = 0,
 
\end{matrix}\right.
 
\end{matrix}\right.
Строка 73: Строка 76:
 
<br /> <br />
 
<br /> <br />
  
 
+
что позволяет свести исходную задачу СНУ к
 
многократному решению системы линейных уравнений.
 
многократному решению системы линейных уравнений.
  
Пусть известно приближение (x_i)^k решения системы нелинейных уравнений (x_i)^*.Введем в рассмотрение поправку Δх_i как разницу между решением и его приближением:
+
Пусть известно приближение <math>(x_i)^k</math> решения системы нелинейных уравнений <math>(x_i)^*</math>.Введем в рассмотрение поправку <math>\Delta х_i</math> как разницу между решением и его приближением:
\Delta х_i=(х_i)^* — (х_i)^k => (х_i)^*=(х_i)^k + \Delta x_i, i=\overline(1,n)
+
<math>\Delta х_i=(х_i)^* — (х_i)^k => (х_i)^*=(х_i)^k + \Delta x_i, i=\overline(1,n) </math>
  
Подставим полученное выражение для (х_i)^* в исходную систему.
+
Подставим полученное выражение для <math>(х_i)^*</math> в исходную систему.
  
 
<br /> <br />
 
<br /> <br />
 
<math>
 
<math>
\left\{\begin{matrix}f_1((x_1)^k +Δx_1, (x_2)^k+Δx_2,  ..., (x_n)^k + Δx_n)=0,
+
\left\{\begin{matrix}f_1((x_1)^k +Δx_1, (x_2)^k+Δx_2,  ..., (x_n)^k + \Delta x_n)=0,
\\ f_2((x_1)^k +Δx_1, (x_2)^k+Δx_2,  ..., (x_n)^k + Δx_n)=0,
+
\\ f_2((x_1)^k +\Delta x_1, (x_2)^k+Δx_2,  ..., (x_n)^k + \Delta x_n)=0,
 
\\ ...
 
\\ ...
\\ f_n((x_1)^k +Δx_1, (x_2)^k+Δx_2,  ..., (x_n)^k + Δx_n)=0,
+
\\ f_n((x_1)^k +\Delta x_1, (x_2)^k+Δx_2,  ..., (x_n)^k + \Delta x_n)=0,
 
\end{matrix}\right.
 
\end{matrix}\right.
 
</math>
 
</math>
  
Неизвестными в этой системе нашейных уравнений являются поправки <math>\Delta х_i</math>. Для определения Δх_i нужно решить эту систему. Но решить эту задачу так же сложно, как и исходную. Однако эту систему можно линеаризовать, и, решив её, получить приближённые значения поправок Δx_i для нашего приближения, т.е. Δ(x_i)^k. Эти поправки не позволяют сразу получить точное решение (x_i)^*, но дают возможность приблизиться к решению, - получить новое приближение решения  
+
Неизвестными в этой системе нашейных уравнений являются поправки <math>\Delta х_i</math>. Для определения <math>\Delta х_i</math> нужно решить эту систему. Но решить эту задачу так же сложно, как и исходную. Однако эту систему можно линеаризовать, и, решив её, получить приближённые значения поправок <math>Δx_i</math> для нашего приближения, т.е. <math>Δ(x_i)^k</math>. Эти поправки не позволяют сразу получить точное решение <math>(x_i)^*</math>, но дают возможность приблизиться к решению, - получить новое приближение решения  
<math> ((x_i)^{k+1} = ((x_i)^k +(Δx_i)^k, i=\overline(1,n) </math>  
+
<math>((x_i)^{k+1} = ((x_i)^k +(\Delta x_i)^k, i=\overline(1,n)</math>  
  
Для линеаризации системы следует разложить функцию f_i в ряды Тейлора в окрестности (х_i)^k, ограничиваясь первыми дифференциалами. Полученная система имеет вид:  
+
Для линеаризации системы следует разложить функцию <math>f_i</math> в ряды Тейлора в окрестности <math>(х_i)^k</math>, ограничиваясь первыми дифференциалами. Полученная система имеет вид:  
 
   
 
   
 
<math>\sum_{i=1}^\n\frac{\partial f_i({x_1}^k, {x_2}^k, ..., {x_n}^k}{\partial x_i} \Delta {x_i}^k= -f_j({x_1}^k, {x_2}^k, ..., {x_n}^k), j=\overline(1,n)</math>
 
<math>\sum_{i=1}^\n\frac{\partial f_i({x_1}^k, {x_2}^k, ..., {x_n}^k}{\partial x_i} \Delta {x_i}^k= -f_j({x_1}^k, {x_2}^k, ..., {x_n}^k), j=\overline(1,n)</math>
  
Все коэффициенты этого уравнения можно вычислить, используя последнее приближение решения {х_i}^k. Для решения системы линейных уравнений при <math>\n=2,3</math> можно использовать формулы Крамера, при большей размерности системы n - метод исключения Гаусса.  
+
Все коэффициенты этого уравнения можно вычислить, используя последнее приближение решения <math>{х_i}^k</math>. Для решения системы линейных уравнений при <math>\n=2,3</math> можно использовать формулы Крамера, при большей размерности системы n - метод исключения Гаусса.  
  
 
Значения поправок используются для оценки достигнутой точности решения. Если максимальная по абсолютной величине поправка меньше заданной точности ε, расчет завершается. Таким образом, условие окончания расчета:
 
Значения поправок используются для оценки достигнутой точности решения. Если максимальная по абсолютной величине поправка меньше заданной точности ε, расчет завершается. Таким образом, условие окончания расчета:
Строка 107: Строка 110:
 
<math> δ=\frac{1}{n}\sum_{i=1}^\n\|\Delta x_i| <ε </math>
 
<math> δ=\frac{1}{n}\sum_{i=1}^\n\|\Delta x_i| <ε </math>
  
 +
В матричной форме систему можно записать как:
 +
 +
<math>W(\Delta X^k)*X^k=-F(X^k)</math>
 +
 +
где <math>W(x)</math> - матрица Якоби(производных):
  
 +
<math>W(x)=(\frac{\partial f_j}{\partial x_i})_{n,n}= \left\{\begin{matrix}(\frac{\partial f_1}{\partial x_1} \frac{\partial f_1}{\partial x_2} ... \frac{\partial f_1}{\partial x_n})
 +
\\ (... ... ... ...)
 +
\\( \frac{\partial f_n}{\partial x_1} \frac{\partial f_n}{\partial x_2} ... \frac{\partial f_n}{\partial x_n} )
 +
\end{matrix}\right. </math>
  
 
== Вычислительное ядро алгоритма ==
 
== Вычислительное ядро алгоритма ==
Строка 120: Строка 132:
 
3)Вычисляется обратная матрица <math>W^{-1} </math>
 
3)Вычисляется обратная матрица <math>W^{-1} </math>
 
4)Вычисляются вектор функция <math>F=(f_i)_n, f_i=f_i(x_1, x_2,..., x_n), i=1,...,n </math>
 
4)Вычисляются вектор функция <math>F=(f_i)_n, f_i=f_i(x_1, x_2,..., x_n), i=1,...,n </math>
5)Вычисляются вектор поправок <math>ΔX=W_{-1}*F </math>
+
5)Вычисляются вектор поправок <math>\Delta X=W_{-1}*F </math>
6)Уточняется решение <math>X_{n+1}=X_n+ΔX</math>
+
6)Уточняется решение <math>X_{n+1}=X_n+\Delta X</math>
7)Оценивается достигнутая точность <math>δ=\max_{i=1,n}Δx_i^k</math>
+
7)Оценивается достигнутая точность <math>δ=\max_{i=1,n} \Delta x_i^k</math>
8)Проверяется условияе завершения итерационного процесса δ<=ε
+
8)Проверяется условие завершения итерационного процесса δ<=ε

Версия 19:28, 26 января 2017



Решение системы нелинейных уравнений методом Ньютона
Последовательный алгоритм
Последовательная сложность [math]O(n^2 [/math] - одна итерация
Объём входных данных [math]n * m + 1[/math]
Объём выходных данных [math]n[/math]
Параллельный алгоритм
Высота ярусно-параллельной формы [math][/math]
Ширина ярусно-параллельной формы [math][/math]


Автор описания: Арутюнов А.В.

Решение системы нелинейных уравнений методом Ньютона

1 Свойства и структура алгоритма

1.1 Общее описание алгоритма

Это итерационный численный метод нахождения корня (нуля) заданной функции

Классический метод Ньютона или касательных заключается в том, что если [math]x_n[/math] — некоторое приближение к корню [math]x_*[/math] уравнения f(x) = 0, f(x) ghby [math]C^1[/math] , то следующее приближение определяется как корень касательной f(x) к функции , проведенной в точке [math]x_n[/math] .

Уравнение касательной к функции f(x) в точке имеет вид:

[math]f^(x_j)=y-f(x_n)/(x-x_n)[/math]

В уравнении касательной положим y=0 и [math]x=x_n+1[/math].

Тогда алгоритм последовательных вычислений в методе Ньютона состоит в следующем:

Метод был впервые предложен английским физиком, математиком и астрономом Исааком Ньютоном (1643—1727). Поиск решения осуществляется путём построения последовательных приближений и основан на принципах простой итерации. Метод обладает квадратичной сходимостью. Модификацией метода является метод хорд и касательных.

1.1.1 Математическое описание алгоритма

Пусть необходимо найти решение системы:

[math] \left\{\begin{matrix}f_1(x_1, ..., x_n) = 0 \\ ... \\ f_n(x_1, ..., x_n) = 0, \end{matrix}\right. [/math]

где [math]f = (f_1, ..., f_n) : \mathbb{R}^n \rightarrow \mathbb{R}^n[/math] - непрерывно дифференцируемое отображение в окрестности решения.

При начальном приближении [math]x_0[/math] и сделанных предположениях [math](k+1)[/math]-я итерация метода будет выглядеть следующим образом: [math] x_{k+1} = x_k - [f'(x_k)]^{-1}f(x_k)Δ [/math]

1.1.2 Математическое описание алгоритма

[math] x_{k+1} = x_k - [f'(x_k)]^{-1}f(x_k) [/math]

Пусть необходимо найти решение системы:

[math] \left\{\begin{matrix}f_1(x_1, x_2, ..., x_n) = 0 \\ ... \\ f_n(x_1, x_2, ..., x_n) = 0, \end{matrix}\right. [/math]

Идея метода заключается в линеаризации уравнений системы

[math] \left\{\begin{matrix}f_1(x_1, ..., x_n) = 0 \\ f_2(x_1,...x_n)=0, \\ ..., \\ f_n(x_1, ..., x_n) = 0, \end{matrix}\right. [/math]

что позволяет свести исходную задачу СНУ к

многократному решению системы линейных уравнений.

Пусть известно приближение [math](x_i)^k[/math] решения системы нелинейных уравнений [math](x_i)^*[/math].Введем в рассмотрение поправку [math]\Delta х_i[/math] как разницу между решением и его приближением: [math]\Delta х_i=(х_i)^* — (х_i)^k =\gt (х_i)^*=(х_i)^k + \Delta x_i, i=\overline(1,n) [/math]

Подставим полученное выражение для [math](х_i)^*[/math] в исходную систему.



[math] \left\{\begin{matrix}f_1((x_1)^k +Δx_1, (x_2)^k+Δx_2, ..., (x_n)^k + \Delta x_n)=0, \\ f_2((x_1)^k +\Delta x_1, (x_2)^k+Δx_2, ..., (x_n)^k + \Delta x_n)=0, \\ ... \\ f_n((x_1)^k +\Delta x_1, (x_2)^k+Δx_2, ..., (x_n)^k + \Delta x_n)=0, \end{matrix}\right. [/math]

Неизвестными в этой системе нашейных уравнений являются поправки [math]\Delta х_i[/math]. Для определения [math]\Delta х_i[/math] нужно решить эту систему. Но решить эту задачу так же сложно, как и исходную. Однако эту систему можно линеаризовать, и, решив её, получить приближённые значения поправок [math]Δx_i[/math] для нашего приближения, т.е. [math]Δ(x_i)^k[/math]. Эти поправки не позволяют сразу получить точное решение [math](x_i)^*[/math], но дают возможность приблизиться к решению, - получить новое приближение решения [math]((x_i)^{k+1} = ((x_i)^k +(\Delta x_i)^k, i=\overline(1,n)[/math]

Для линеаризации системы следует разложить функцию [math]f_i[/math] в ряды Тейлора в окрестности [math](х_i)^k[/math], ограничиваясь первыми дифференциалами. Полученная система имеет вид:

[math]\sum_{i=1}^\n\frac{\partial f_i({x_1}^k, {x_2}^k, ..., {x_n}^k}{\partial x_i} \Delta {x_i}^k= -f_j({x_1}^k, {x_2}^k, ..., {x_n}^k), j=\overline(1,n)[/math]

Все коэффициенты этого уравнения можно вычислить, используя последнее приближение решения [math]{х_i}^k[/math]. Для решения системы линейных уравнений при [math]\n=2,3[/math] можно использовать формулы Крамера, при большей размерности системы n - метод исключения Гаусса.

Значения поправок используются для оценки достигнутой точности решения. Если максимальная по абсолютной величине поправка меньше заданной точности ε, расчет завершается. Таким образом, условие окончания расчета:

[math] δ=\min_{i=\overline(1,n)|\Delta {x_i}^k|} [/math]

Можно использовать и среднее значение модулей поправок:

[math] δ=\frac{1}{n}\sum_{i=1}^\n\|\Delta x_i| \lt ε [/math]

В матричной форме систему можно записать как:

[math]W(\Delta X^k)*X^k=-F(X^k)[/math]

где [math]W(x)[/math] - матрица Якоби(производных):

[math]W(x)=(\frac{\partial f_j}{\partial x_i})_{n,n}= \left\{\begin{matrix}(\frac{\partial f_1}{\partial x_1} \frac{\partial f_1}{\partial x_2} ... \frac{\partial f_1}{\partial x_n}) \\ (... ... ... ...) \\( \frac{\partial f_n}{\partial x_1} \frac{\partial f_n}{\partial x_2} ... \frac{\partial f_n}{\partial x_n} ) \end{matrix}\right. [/math]

1.2 Вычислительное ядро алгоритма

1.3 Макроструктура алгоритма

Данный алгоритм использует два основных метода решения в каждой итерации, это нахождением матрицы Якоби и решение СЛАУ.

1.3.1 Схема реализации последовательного алгоритма

1)Задаётся размерность системы n, требуемая точность , начальное приближённое решение [math]X=(x_i)_n[/math] 2)Вычисляются элементы матрицы Якоби [math]W=\left( {f_i\over x_i} \right)_{n,n}[/math] 3)Вычисляется обратная матрица [math]W^{-1} [/math] 4)Вычисляются вектор функция [math]F=(f_i)_n, f_i=f_i(x_1, x_2,..., x_n), i=1,...,n [/math] 5)Вычисляются вектор поправок [math]\Delta X=W_{-1}*F [/math] 6)Уточняется решение [math]X_{n+1}=X_n+\Delta X[/math] 7)Оценивается достигнутая точность [math]δ=\max_{i=1,n} \Delta x_i^k[/math] 8)Проверяется условие завершения итерационного процесса δ<=ε