Главная > Математика > Прикладная статистика: Исследование зависимостей
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

13.5. Ковариационный анализ (КА) и проблема статистического исследования смесей многомерных распределений

13.5.1. Определение и модель ковариационного анализа.

Следуя [6], определим ковариационный анализ (КА) как совокупность методов и результатов, относящихся к математико-статистическому анализу моделей, предназначенных для исследования зависимости среднего значения некоторого количественного результирующего показателя у от набора неколичественных факторов и одновременно от набора количественных (регрессионных или сопутствующих) переменных X. Результирующий признак у может быть векторным (тогда говорят о многомерном ковариационном анализе).

Неколичественные факторы задают сочетания условий (качественной природы), в которых производилась фиксация каждого из наблюдений (экспериментальных значений) у и X, и описываются обычно с помощью так называемых индикаторных переменных.

Среди индикаторных и сопутствующих переменных могут быть как случайные, так и не случайные (контролируемые в эксперименте).

Основные теоретические и прикладные разработки по КА относятся к линейным моделям. В частности, если анализируется схема из наблюдений со скалярным результирующим признаком у, с k возможными типами условий эксперимента и с сопутствующими переменными то линейная модель соответствующего КА задается уравнениями:

(13.28)

где индикаторные переменные если условие эксперимента имело место при наблюдении, и равны нулю — в противном случае; коэффициенты определяют эффект влияния условия; — значение сопутствующей перемен ной при котором наблюдался результирующий признак — значения соответствующих коэффициентов регрессии у по вообще говоря, зависящие от конкретного сочетания условий эксперимента, т. е. от вектора — величина остаточных случайных компонент («ошибок измерения»), имеющих нулевые средние значения. Основное содержание КА — в построении статистических оценок для неизвестных параметров и статистических критериев, предназначенных для проверки различных гипотез относительно значений этих параметров.

Если в (13.28) постулировать априори то получится модель дисперсионного анализа; если же из (13.28) исключить влияние неколичественных факторов (т. е. положить то получится линейная модель регрессионного анализа. Своим названием КА обязан тому обстоятельству, что в его вычислениях используются разбиения ковариаций переменных у и X точно так же, как в дисперсионном анализе используются разбиения остаточной суммы квадратов.

Считается, что термин «КА» введен Р. А. Фишером в связи с рассмотрением одной частной схемы этой модели в § 49 144-го издания книги «Статистические методы для исследователей» (пер. с англ.-М.: Статистика, 1958).

Весьма полные сведения по современным методам КА можно найти в [29, 66, 119, 148].

13.5.2. Оценивание неизвестных значений параметров и проверка гипотез в модели КА.

Запишем линейную модель КА (13.28) в матричном виде:

или

(13.28)

где - вектор-столбец наблюдений результирующего показателя; -матрица плана эксперимента по неколичественным факторам -вектор-столбец неизвестных параметров, соответствующих неколичественным факторам (общее среднее, главные эффекты, взаимодействия и т. п.); -матрица плана регрессионных (количественных) объясняющих переменных; -вектор-столбец параметров (неизвестных коэффициентов регрессии); -вектор-столбец случайных остатков модели, подчиняющийся нормальному распределению ), где остаточная дисперсия неизвестна (подлежит оцениванию). Предполагается, что тип условий эксперимента («способ обработки» — в исходной терминологии ДА) не влияет на матрицу плана регрессионных экспериментов X, т. е. столбцы матрицы X линейно не зависят от столбцов матрицы (существенное предположение). К несущественным предположениям относятся допущения о том, что матрицы и X имеют полный ранг (соответственно k и и что не имеется ограничений на параметры (о простых модификациях описываемых процедур в случае отказа от этих допущений см., например, [119, п. 3.8.3]).

Для нахождения оценок и неизвестных параметров и можно было бы формально рассмотреть (13.28) как одну большую модель регрессии и применить к ней обычный метод наименьших квадратов (см. § 7.1, гл. 11, а также [14, п. 8.6.3]).

Однако можно добиться существенного упрощения анализа за счет использования специального строения матрицы и наших знаний специфики модели ДА. С этой целью используется так называемый двухшаговый метод наименьших квадратов (подробнее о нем см. гл. 14). Этот метод (применительно к модели КА) состоит из следующих этапов:

1. В модели (13.28) полагаем и находим по описанным в § 13.2-13.4 правилам оценки и остаточную сумму квадратов (при условии

(13.29)

где

2. Заменяем в (13.29) Y на и находим такое 0, которое минимизирует полученное выражение. Итак,

откуда

(13.30)

3. Подсчитывается остаточная сумма квадратов для общей модели (13.28) ковариационного анализа, равная [119, п. 3.7.11:

(13.31)

4. Для получения оценок заменяем в выражении для вектор Y вектором .

Проверка гипотез относительно параметров проводится так же, как в моделях ДА, только со значением ОСК, подсчитанным по формуле (13.31) и с числом степеней свободы равным числу степеней свободы ОСК модели ДА минус ранг матрицы X. Проверка гипотезы проводится с помощью статистики

которая в предположении справедливости гипотезы имеет -распределение (-ранг ).

13.5.3. Связь с проблемой статистического исследования смесей многомерных распределений.

Посмотрим на модель регрессии результирующего показателя по объясняющим переменным как на одну из характеристик их закона распределения, например, функции плотности

(13.32)

зависящей от параметров регрессии и ковариационной матрицы «остатков» V, которые в свою очередь зависят от типа условий эксперимента Тогда, анализируя данные вида

зафиксированные при различных типах условий эксперимента в действительности имеем дело с выборкой из смеси распределений вида (13.32), поскольку при варьировании типа условий меняются и значения параметров 0 и V, от которых зависит анализируемый закон распределения, а следовательно, меняется и вид искомой регрессионной зависимости

Игнорирование этого обстоятельства является причиной многих недоразумений и неудач в прикладных исследованиях, опирающихся на аппарат регрессионного анализа. Для объяснения этого обстоятельства представим себе, что при исследовании линейной парной регрессионной зависимости исходные данные фиксировались при переключающемся (в неизвестные для исследователя моменты времени) режиме типа условий эксперимента: либо в режиме 1, в котором (при весьма высокой корреляции) регрессия имела монотонно возрастающий характер, либо в режиме 2, в котором (при столь же высокой корреляции) регрессия имела монотонно убывающий характер (см. рис. 13.1). Очевидно, попытки выявить связь между у и я по такой смешанной выборке не увенчаются успехом: вычисления покажут, что связи нет.

В то же время, если предварительно (или одновременно с решением задач регрессии) разбить имеющиеся данные на однородные (по условиям эксперимента) подвыборки и строить функции регрессии отдельно для каждой такой подвыборки, то удастся установить тесную статистическую зависимость между исследуемыми переменными.

Ковариационный анализ предоставляет исследователю один из возможных подходов к реализации описанной схемы. Другие подходы опираются на статистический анализ смесей многомерных распределений: оценку параметров смеси распределений [11], модели типологической регрессии [4, 11, 82].

Рис. 13.1. Прямые 1, 2 и 3 — графики аппроксимирующих функций регрессии, построенных соответственно по наблюдениям подвыборок: 1 (точки), 2 (крестикн) и по объединенной выборке, состоящей из тех и других наблюдений

Подробное описание этих методов предполагается дать в следующем томе данного издания.

<< Предыдущий параграф Следующий параграф >>
Оглавление