Макеты страниц
6. Обратные итерации.Если собственное значение известно, то собственный вектор удовлетворяет системе (1). Но любой численный метод дает вместо точного собственного значения приближенное значение так что , хотя отличается от нуля очень мало. В таком случае задача при использовании приближенного собственного значения имеет только тривиальное решение Поэтому в численных расчетах находить собственные векторы непосредственно из системы (1) нельзя. Для нахождения собственных векторов удобен метод обратной итерации, заключающийся в следующем. Выберем наудачу вектор b и рассмотрим линейную неоднородную систему Определитель этой системы отличен от нуля, так что она имеет единственное решение. Покажем, что найденный из нее вектор окажется почти равным собственному вектору соответствующему данному собственному значению V Для простоты ограничимся случаем, когда матрица порядка имеет линейно-независимых собственных векторов например, матрица нормальная (для случая произвольных матриц ниже приведен численный пример). Тогда собственные векторы образуют базис, по которому можно разложить векторы : Подставляя это разложение в систему (17), перенося все члены влево и учитывая, что получим Поскольку собственные векторы линейно-независимы, то их линейная комбинация обращается в нуль только в том случае, когда все ее коэффициенты равны нулю. Поэтому из (19) следует Видно, что если то коэффициент будет очень большим; в противном случае он невелик. Рассмотрим следствия из этого в трех основных случаях. Первый с , а — собственное значение , простое. Тогда из всех коэффициентов , только один коэффициент оказывается очень большим. Это означает, что найденный вектор почти совпадает с собственным вектором (с точностью до нормировочного множителя), что и требовалось доказать. Заметим, что поскольку найденный вектор оказывается очень большим, то его обычно нормируют. Из (20) видно, что при обратной итерации (т. е. при переходе от b к ) компонента ( - усиливается по сравнению с другими компонентами , - примерно во столько раз, во сколько погрешность данного собственного значения меньше разности соседних собственных значений. Поэтому чем точнее найдено , (очевидно, хорошая точность особенно важна при наличии близких собственных значений), тем ближе будет к Если собственные значения найдены слишком грубо, или случайно вектор b выбран неудачно, так что очень мало, то разница между может оказаться заметной. Тогда подставляют найденный вектор в правую часть уравнения (17) вместо b и организуют итерационный процесс (21) Обычно он сходится настолько быстро, что двух итераций вполне достаточно. Напомним, что на каждой итерации обязательно надо нормировать найденные чтобы не получать в расчетах слишком больших чисел, вызывающих переполнение на ЭВМ. Замечание 1. Очень эффективен один простой способ выбора b. В качестве его компонент в декартовых координатах возьмем последовательные многоразрядные псевдослучайные числа (см. § 4 главы IV). Тогда вероятность того, что окажется очень малым, будет ничтожна. Второй случай — собственное значение кратно; например, Напомним, что в этом случае собственные векторы определены неоднозначно; любая их линейная комбинация удовлетворяет уравнению и является собственным вектором. Т. е. они порождают -мерное подпространство, любой базис которого можно взять в качестве системы искомых собственных векторов. Теперь из (20) следует, что большими оказываются коэффициенты причем степень их усиления одинакова; остальные коэффициенты остаются малыми. Значит, найденный из (17) вектор будет приближенно линейной комбинацией , а тем самым — искомым собственным вектором. Если точность полученного приближения недостаточна, то обратную итерацию повторяют снова по формуле (21). Чтобы найти все собственные векторы для кратного собственного значения, возьмем столько линейно-независимых векторов какова кратность корня. Обратными итерациями получим столько же векторов которые и будут искомыми; они будут линейнонезависимыми, поскольку преобразование (17) невырожденное. Остается только ортогонализовать найденные векторы, если это требуется по условиям задачи. Напомним, что в качестве декартовых координат векторов целесообразно брать псевдослучайные числа; здесь это имеет то дополнительное преимущество, что векторы автоматически получаются линейно-независимыми. Третий случай — когда матрица имеет кратные корни, но число ее собственных векторов меньше п — выходит за рамки нашего доказательства. Однако метод обратных итераций здесь также применим в той форме, - которая описана для кратных корней. Разница лишь в том, что если -кратному собственному значению соответствуют всего q собственных векторов то из полученных обратной итерацией векторов только q будут линейно-независимыми. Это выясняется при их ортогонализации: первые q векторов ортогонализуются «без приключений», а при ортогонализации следующих векторов их компоненты обращаются почти в нуль (в пределах погрешности расчета). Каков объем расчетов в методе обратной итерации? Нахождение собственного вектора требует (при одной итерации) не более действий, так что для нахождения всех их надо около арифметических действий. Таким образом, при больших порядках матрицы метод неэкономичен, но при 10 вполне удовлетворителен. Особенно употребителен этот метод из-за своей простоты, универсальности и хорошей устойчивости алгоритма. В некоторых частных случаях расчеты существенно упрощаются и ускоряются. Наиболее важен случай трехдиагональной матрицы. При этом линейная система уравнений (17) для определения компонент собственных векторов также будет трехдиагональной, и ее решают экономичным методом прогонки по несложным формулам (5.10) — (5.12). Для вычисления одного собственного вектора в этом случае требуется а для всех — арифметических действий. Для почти треугольной матрицы в методе обратных итераций требуется решать линейную систему с почти треугольной матрицей, что делается специальным вариантом метода исключения. Если учесть, что случайный вектор в правой части (17) можно задавать уже после приведения матрицы в методе исключения Гаусса к треугольной форме, то нахождение каждого собственного вектора требует действий (тот же прием для трехдиагональной матрицы позволяет сократить число действий до ). А для нахождения всех собственных векторов требуется соответственно арифметических действий. Отметим одну существенную деталь. Поскольку , то при нахождении собственных векторов в формулах прямого хода метода исключений (прогонки) на главной диагонали появится хотя бы один очень малый элемент. Чтобы формально можно было вести расчёт, диагойальные элементы не должны обращаться в нуль; для этого надо, чтобы погрешность собственного значения была не слишком мала, т. е. составляла бы 10—15 последних двоичных разрядов числа на ЭВМ. Если корни характеристического многочлена находят методом парабол (или секущих), то такая погрешность получается естественно, ибо из-за ошибок округления эти методы перестают сходиться в очень малой окрестности корня. Но если корни определялись методом Ньютона, то при этом могли быть найдены верно все знаки собственного значения; тогда, чтобы избежать деления на нуль, приходится специально вносить в небольшие погрешности. Пример. Возьмем жорданову подматрицу четвертого порядка (3) и приближенное собственное значение . В качестве b выберем вектор с единичными декартовыми координатами. Тогда уравнение (17) примет вид Последовательно находим компоненты вектора Затем нормируем вектор, умножив все компоненты на Полученный вектор приближенно равен собственному вектору жордановой матрицы (см. п. 1), что нам и требовалось. Попутно заметим, что в промежуточных выкладках (226) возникали высокие обратные степени решности , чего не бывает у матриц с собственными векторами. Это показывает, что случай матриц, содержащих жордановы подматрицы высокого порядка, труден для численных расчетов на ЭВМ, ибо в них легко возникают переполнения,
|
Оглавление
|