13.7. ПРОВЕРКА ГИПОТЕЗ В УСЛОВИЯХ НЕПАРАМЕТРИЧЕСКОЙ АПРИОРНОЙ НЕОПРЕДЕЛЕННОСТИ
13.7.1. Типы задач.
Ранее рассматривались задачи проверки гипотез относительно параметров функций правдоподобия (параметрических гипотез). Теперь рассмотрим некоторые типы задач проверки гипотез в условиях непараметрической априорной неопределенности (непараметрических гипотез), когда функции правдоподобия принадлежат непараметрическому классу (см. п. 12.2.2).
Ограничимся независимыми однородными выборками. Тогда непараметрический класс функций правдоподобия
(13.142)
где
- произвольная одномерная плотность вероятности.
Один тип задач проверки непараметрических гипотез — задачи сдвига. Гипотезе
о том, что
противопоставляется альтернатива К
(13.143)
В некоторых случаях априори известно, что при гипотезе Я рассматриваемому непараметрическому классу принадлежат распределения, симметричные относительно медианы
Тогда альтернативой в задаче сдвига является 
Другой тип задач проверки непараметрических гипотез — задачи масштаба. Гипотезе
о том, что
противопоставляется альтернатива
(13.144)
Представляет интерес также задача проверки гипотезы Я о том, что выборка однородная, независимая [см. (13.142)], против альтернативы
что элементы выборки зависимы, т. е.
(13.145)
Эту задачу иногда называют задачей проверки случайности.
13.7.2. Непараметрические алгоритмы проверки гипотез.
Рассмотрим дискретно-аналоговые одношаговые алгоритмы проверки непараметрической гипотезы Я против непараметрической альтернативы К. Каждый алгоритм основывается на разбиении выборочного пространства
на две непересекающиеся области
. Если выборка
то принимается решение
о том, что справедлива гипотеза
, а если
, то принимается решение
в пользу альтернативы К. Обозначим через и
непараметрические семейства функций правдоподобия, соответствующие гипотезе Н и альтернативе К.
Вероятности ошибок первого и второго рода запишутся в виде
(13.146)
Обычно к непараметрическим относят алгоритмы принятия решения, для которых вероятность ошибки сохраняет постоянное значение по отношению к одной из непараметрических гипотез (Н или
). «Истинно» непараметрический алгоритм должен обладать указанным свойством по отношению к обеим непараметрическим гипотезам.
13.7.3. Критерий качества непараметрических алгоритмов проверки гипотез.
Ограничимся непараметрическими состоятельными алгоритмами принятия решения, для которых вероятность а ошибки первого рода
(13.148)
постоянна для всех
. Зададимся некоторой величиной
вероятности ошибки второго рода. Для фиксированной альтернативы К рассмотрим две последовательности алгоритмов
, где
- последовательности размеров выборок. Так как алгоритмы состоятельные, то всегда найдутся такие наименьшие размеры выборок
для которых
(13.149)
Непараметрический алгоритм
более эффективен, чем алгоритм
если при заданных
размер выборки
Из двух непараметрических алгоритмов, поддерживающих постоянное значение ошибки первого рода, более эффективен тот, для которого заданное требование к вероятности ошибки второго рода удовлетворяется при меньшем размере выборки. Мерой эффективности алгоритма является отношение указанных размеров выборок, которое называют коэффициентом относительной эффективности
по отношению к алгоритму
[см. (12.34)]:
(13.150)
Алгоритм
более эффективен, чем
если 
Предположим, что алгоритм
— оптимальный по критерию Неймана — Пирсона при полностью известных распределениях выборки как для гипотезы, так и для альтернативы. Ясно, что коэффициент относительной эффективности непараметрического алгоритма
по отношению к
будет меньше или, по крайней мере, не больше единицы. Однако, если распределение выборки при гипотезе Н изменилось, то непараметрический алгоритм
сохраняющий то же самое значение вероятности ошибки первого рода, становится более эффективным, чем алгоритм
который уже утратил свойство оптимальности в изменившейся ситуации.
Как уже отмечалось в п. 12.5.2, иногда не удается вычислить коэффициент относительной эффективности по формуле (13.150), и тогда для характеристики качества алгоритма принятия решения используют коэффициент асимптотической относительной эффективности [см. (12.34 а)].
13.7.4. Синтез непараметрических алгоритмов.
Непараметрический (по отношению к гипотезе Н) алгоритм
— оптимальный по критерию относительной эффективности (т. е. наиболее эффективный), если при заданных значениях вероятностей ошибок а и Р для любых других напараметрических алгоритмов
выполняется неравенство
. Алгоритм
будет равномерно наиболее эффективным, если указанное неравенство при фиксированном значении а выполняется
любого значения
В отличие от синтеза оптимальных алгоритмов проверки простых гипотез и гипотез в условиях парамехрпчеслии неопределенности регулярных общих методов синтеза наиболее эффективных непараметрических алгоритмов пока не существует. Поэтому непараметрические алгоритмы проверки гипотез синтезируются на эвристической основе. При фиксированном условии (13.148) устанавливается соответствие между критической областью
выборочного пространства
и некоторой статистикой (функцией выборочных значений)
которое может быть следующим:
(13.151)
Неравенство (13.154) определяет односторонний алгоритм, а неравенства (
-двусторонний.
Конечно, из условия (13.148) статистика
не определяется однозначно. Задача синтеза на эвристической основе состоит в подборе статистики
которая определяет непараметрический алгоритм
(например, односторонний), удовлетворяющий условию
(13.153)
При этом нет гарантии того, что может быть найдена другая статистика
удовлетворяющая такому же условию (13.153), которая определяет непараметрический алгоритм
более эффективный, чем 
13.7.5. Коэффициент асимптотической относительной эффективности алгоритма, использующего асимптотически нормальную статистику.
Рассмотрим два состоятельных односторонних алгоритма проверки гипотезы Н против альтернативы К, удовлетворяющих условию (13.153). Решение
(отклоняется гипотеза Н) принимается, если

Предположим, что распределения статистик
асимптотически нормальные. Обозначим
(13.156 а)
Предположим также, что

Предельные при
рабочие характеристики алгоритмов
, связывающие предельное значение вероятности
ошибки второго рода с заданной вероятностью а ошибки первого рода, имеют следующий вид
с (13.88 а)]:
(13.157 а)
где
(13.157 б)
Если (как это часто бывает) дисперсия статистики
растет пропорционально размеру выборки
, то для того, чтобы величина
была конечной и отличной от нуля, необходимо, чтобы разность
— возрастала как 
Предположим далее, что при
альтернатива К и гипотеза Н сближаются. При этом введем малый параметр
и обозначим
. Тогда
(13.158)
где

Полагая
получаем из (13.1576) и (13.158)
(13.160)
где
