Главная > Математика > Прикладная статистика: Исследование зависимостей
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

7.2.4. Эв-регрессия («лямбда»-регрессия).

Ниже, используя тот же методический прием, что и при введении эв-оценок [14, п. 10.4.6], с помощью цепочки определений вводится -регрессия и специальная мера отклонения от нее. Далее показывается, что -регрессия обладает рядом свойств, похожих на свойства обычной мнк-регрессии. Это облегчает содержательную интерпретацию эв-регрессии и выбор подходящего для конкретного случая значения X. В заключение приводится асимптотическое разложение для оценок параметров эв-регрессии.

Пусть — весовая функция у при фиксированном значении X, — символ функции распределения. Введем

где

Определение 7.1. Назовем -взвешенной регрессией у на X (-взвешенным откликом ), -взвешенной дисперсией относительно поверхности -взвешенной регрессии.

Определение 7.2 Распределения назовем регрессионно-подобными, если

Пусть — плотность нормального закона , -связанного с [14, п. 10, 4.6], т. е. при взвешенные моменты совпадают.

Определение 7.3. Назовем -регрессионно-связанной с , если .

Определение 7.4. Назовем -регрессией (эв-регрессией) у на X и -дисперсией у относительно поверхности -регрессии.

Аналог мнк утверждения для эв-регрессии. Пусть , тогда т. е. если при каждом X заменить распределение на -связанный с ним нормальный закон, то для нового распределения — обычная мнк-оценка регрессии у на X.

Пусть расстояние между двумя функциями распределения определено как и — окрестность одномерных нормальных распределений, тогда для любого существуют такие что для любого , для которого для всех существует единственная -регрессия у на X, причем — непрерывные (в смысле ) функции относительно . Если нормальны, то -регрессия у на X совпадает с обычной регрессией.

Таким образом эв-регрессия обладает всеми основными свойствами мнк-регрессии, только наблюдения в соответствующие формулы входят со специально подобранными весами. Введение весов позволяет как бы настраивать регрессию на интересующую исследователя часть выборки (рис. 7.2: в пунктирный овал заключены наблюдения получившие малые веса и практически не участвующие в оценке параметров эв-регрессии; куполообразные кривые на прямой эв-регрессии показывают веса, приписанные наблюдениям). Эв-регрессия значительно устойчивее мнк-регрессии и регрессии по Хуберу к появлению далеких отклонений от регрессионной поверхности. Однако она, естественно, не является универсальным методом оценки регрессии для всех случаев, когда нарушаются предположения (7.3), лежащие в основе мнк. Четких рекомендаций, как выбирать Я в конкретном случае, пока не выработано. Ясно только, что надо давать максимальный вес «основной» части выборки и наименьший — части, где могут лежать «загрязнения». Определенные соображения по выбору величины в некоторых модельных случаях приведены в п. 7.2.5.

Минимизационное определение эв-регрессии. Для того чтобы охватить случай неизвестного а, несколько изменим определение функции потерь по сравнению с (7.33). Пусть

-регрессия , где — вектор неизвестных параметров, и для всех X -дисперсия также неизвестно, Пусть далее , где Е — символ математического ожидания по мере ; тогда являются решением уравнений и на них достигается локальный минимум (вообще говоря, не единственный).

Рассмотрим итерационную процедуру получения решения (7.38):

Рис. 7.2. Настройка эв-регрессии на интересующую исследователя часть выборки

где

Обозначим оператор перехода по формулам (7.39), (7.40) от тогда является неподвижной точкой оператора .

Последнее определение -регрессии удобно для построения оценок ) по выборочным данным. Для этого достаточно в уравнениях (7.38) — (7.40) заменить символ математического ожидания Е на знак суммирования по всем наблюдениям и решать их итерационно.

Асимптотическая ковариационная матрица оценки полученной по независимой выборке объема , имеет вид

где К, Н — квадратные матрицы порядка

Для при любом все входящие в формулы математические ожидания существуют. На практике их, а также следует заменить соответствующими выборочными оценками.

<< Предыдущий параграф Следующий параграф >>
Оглавление