Главная > Методы обработки сигналов > Адаптивная обработка сигналов
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

Свойства идеального алгоритма

Поскольку идеальный алгоритм является эталоном для сравнения характеристик, представляет интерес теоретическое описание его свойств с точки зрения сходимости среднего значения СКО. В данном разделе рассматриваются эти свойства и проводится их сравнение с аналогичными характеристиками метода наименьших квадратов.

При идеальных условиях (без шума) адаптация по методу наименьших квадратов осуществляется в соответствии с формулами для метода наискорейшего спуска, выведенными в гл. 4 и 5, а адаптация по идеальному алгоритму — в соответствии с формулами, выведенными для метода Ньютона. Имея в виду масштабный множитель при (т. е. замену на ) в (8.5), запишем соотношения (5.61) и (5.84) для знаменателя геометрической прогрессии весового коэффициента:

(8.11)

Таким образом, эти методы эквивалентны при равных собственных значениях матрицы R. Из этих соотношений находим постоянную времени составляющей обучающей кривой:

При различных собственных значениях обучение по методу наименьших квадратов осуществляется медленнее, чем по идеальному алгоритму, что соответствует примеру на рис. 8.2. Для конкретного примера на рис. 8.2 при подстановке (8.9) в (8.12) и (8.13) получаем итераций для обучающей кривой идеального алгоритма и итераций для обучающей кривой метода наименьших квадратов.

Помимо постоянной времени обучающей кривой, позволяющей измерять скорость сходимости алгоритма, представляет интерес среднее значение СКО, определяющее устойчивость алгоритма в области точки В гл. 6 получено выражение для среднего значения СКО в случае метода наименьших квадратов. Выведем теперь аналогичное выражение для идеального алгоритма.

Для вывода формулы среднего значения СКО требуется ковариационная матрица вектора весовых коэффициентов в системе координат главных осей. В (5.50) найдена матрица для метода Ньютона при использовании оценки градиента, поэтому для идеального алгоритма имеем тот же результат при подстановке вместо величины , как это сделано в (8,5).

Следовательно,

Здесь — вектор шума градиента, записанный в системе координат осей, а в (8.3) подставлена та же оценка градиента, что и в (6.2). Отсюда формула (6.29) справедлива для идеального алгоритма:

Подставляя (8.15) в (8.14), получаем

(8.16)

Теперь по аналогии с формулой (6.34) выразим среднее значение СКО через диагональные элементы матрицы среднее значение

Это соотношение можно упростить, имея в виду, что, как и в (6.9), произведение равно сумме диагональных элементов матрицы R (т. е. следу матрицы R) и при выводе COV [NV] предполагалось меньше значения (8.7), необходимого для сходимости за один шаг, т. е.

Поэтому полагаем, что знаменатель в (8.17) приблизительно равен 1, тогда

Из (6.36) и (8.19) следует, что среднее значение СКО и М одинаковы для идеального алгоритма и метода наименьших квадратов. Для обоих алгоритмов среднее значение СКО

В заключение приведем основные теоретические результаты для идеального алгоритма и метода наименьших квадратов:

Поскольку при заданном параметре у оба алгоритма имеют одно и то же относительное среднее значение СКО, можно видеть, что идеальный алгоритм приводит к сходимости, более быстрой в раз. Таким образом, если матрица R имеет существенно различные собственные значения, метод наименьших квадратов и другие алгоритмы наискорейшего спуска намного уступают идеальному алгоритму. В следующем разделе рассматривается алгоритм, характеристики которого ближе к характеристикам идеального алгоритма.

<< Предыдущий параграф Следующий параграф >>
Оглавление