ЕГЭ и ОГЭ
Хочу знать
Главная > Методы обработки сигналов > Теоретические основы статистической радиотехники
<< Предыдущий параграф
Следующий параграф >>
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
<< Предыдущий параграф Следующий параграф >>
Научная библиотека

Научная библиотека

избранных естественно-научных изданий

Научная библиотека служит для получения быстрого и удобного доступа к информации естественно-научных изданий, получивших широкое распространение в России и за рубежом. На сайте впервые широкой публике представлены некоторые авторские издания написанные ведущими учеными страны.

Во избежании нарушения авторского права, материал библиотеки доступен по паролю ограниченному кругу студентов и преподавателей вузов. Исключение составляют авторские издания, на которые имеются разрешения публикации в открытой печати.

Математика

Физика

Методы обработки сигналов

Схемотехника

Астрономия

Разное

Научная библиотека

Научная библиотека

избранных естественно-научных изданий

Научная библиотека служит для получения быстрого и удобного доступа к информации естественно-научных изданий, получивших широкое распространение в России и за рубежом. На сайте впервые широкой публике представлены некоторые авторские издания написанные ведущими учеными страны.

Во избежании нарушения авторского права, материал библиотеки доступен по паролю ограниченному кругу студентов и преподавателей вузов. Исключение составляют авторские издания, на которые имеются разрешения публикации в открытой печати.

Математика

Физика

Методы обработки сигналов

Схемотехника

Астрономия

Разное

Макеты страниц

22.3. АДАПТИВНЫЕ АЛГОРИТМЫ КЛАССИФИКАЦИИ В УСЛОВИЯХ ПАРАМЕТРИЧЕСКОЙ АПРИОРНОЙ НЕОПРЕДЕЛЕННОСТИ

22.3.1. Метод апостериорных вероятностей.

Пусть в результате наблюдения получена векторная (информационная) выборка Задача состоит в том, чтобы отнести наблюдение к одному из классов

Предполагается, что распределения классов характеризуются плотностями , причем параметры представляют независимые случайные векторы с априорными плотностями вероятностей которые отражают первоначальные знания о распределениях этих параметров. Имеется набор обучающих классифицированных выборок где вектор принадлежит классу Эту обучающую выборку можно использовать для корректировки априорных знаний путем определения апостериорной плотности

(22.42)

Используя формулу Байеса, определим апостериорную вероятность принадлежности классу при данных

(22.43)

где — априорная вероятность принадлежности классу . По критерию максимальной апостериорной вероятности относим наблюдение к классу если

(22.44)

Так как то из (22.43), (22.44) следует

(22.45)

Алгоритм классификации (22.45) предписывает вычисление величин и отнесение вектора наблюдения к тому классу которому соответствует максимальная из указанных величин. Если априорные вероятности одинаковы, классификация при заданном наборе сводится к определению того класса S, для которого наблюдаемая выборка максимизирует по индексу функцию правдоподобия . Последние можно рассматривать как оценки неизвестных плотностей распределений классов при заданном наборе обучающих

Функцию вычисляем, используя формулу полной вероятности

или

(22.46)

так как очевидно, что , а функция вовсе не зависит от обучающих выборок.

Второй сомножитель в подынтегральной функции (22.46) определяется согласно (22.42).

Заметим, что, когда параметры априори известны и равны их условные плотности представляют дельта-функции

и из (22.46) следует

В этом случае алгоритм классификации совпадает с оптимальным байесовским алгоритмом проверки гипотез [см. (20.11)].

22.3.2. Теорема Бернштейна — Мизеса.

Адаптивный алгоритм классификации (22.45) зависит от априорных плотностей распределений параметров [см. (22.42), (22.45), (22.46)]. Проверить возможность использования этого алгоритма без какого-либо определенного предположения об этих априорных плотностях можно с помощью теоремы, установленной С. Н. Бернштейном и Р. Мизесом [71]. Сущность ее состоит в следующем. Пусть — выборочное значение из распределения с неизвестным случайным параметром О. Апостериорное распределение этого пара» метра

(22.47)

где — априорная плотность вероятности параметра . Если извлекается следующее выборочное значение независимое от , то можно использовать в качестве нового априорного распределения для вычисления апостериорного

Аналогично, когда имеется независимая выборка размером , то

(22.49)

где

Упомянутая теорема утверждает, что если априорная плотность параметра непрерывна, то по мере возрастания объема выборки апостериорное распределение перестает зависеть от априорного распределения.

Таким образом, при достаточно большом безразлично, какую непрерывную функцию w (О) подставить в формулу (22.49). Эта предельная теорема послужила основой синтеза алгоритма классификации, предложенного Роббинсом [71].

22.3.3. Адаптивный алгоритм обнаружения случайного сигнала на фоне аддитивной гауссовской помехи.

В качестве иллюстрации метода синтеза адаптивного алгоритма классификации в условиях параметрической априорной неопределенности рассмотрим следующую задачу. Имеется реализация скалярной случайной величины, которую следует отнести к одному из двух классов: — помеха, представляющая гауссовскую случайную величину с нулевым средним и дисперсией — аддитивная смесь этой помехи и независимого от нее случайного сигнала, среднее значение а которого случайная величина, распределённая по нормальному закону с параметрами Предполагается, что априорные вероятности принадлежности наблюдения классам одинаковы.

Пусть — независимая классифицированная выборка аддитивной смеси сигнала с гауссовской помехой. По формул (22.42) находим апостериорную плотность распределения сигнального параметра а [см. (14.119)]

(22.50)

где

(22.51)

Если известно, что наблюдение принадлежит классу , то

Используя формулу (22.46), находим

Так как интеграл в (22.54) представляет свертку двух плотностей нормального распределения, то непосредственно находим

(22.55)

где а величины определяются согласна (22.51) и (22.52).

Если наблюдение — помеха, то [см. (22.46 а)]

(22.55 а)

Из (22.55) и (22.55 а) получаем следующий адаптивный алгоритм обнаружения [см. (22.45)]: принимается решение, что наблюдение представляет смесь случайного сигнала с аддитивной гауссовской помехой, если

(22.56)

и решение, что наблюдается помеха, в противном случае. После элементарных преобразований алгоритм (22.56) приводится к виду

(22.57)

Здесь в левой части коэффициент зависит от обучающей выборки, а коэффициент априори заданных дисперсий и размера обучающей выборки. Порог в правой части (22.57) зависит и от указанных значений дисперсий, и от обучающей выборки.

Если размер обучающей выборки неограниченно возрастает, то, как следует из (22.51) и (22.52), при

(22.58)

В этом случае квадратический член в левой части (22.57) стремится к нулю, алгоритм классификации становится линейным с перестраиваемым порогом с (22.9)]

(22.59)

и не зависит от начального априорного распределения сигнала. Напротив, если то и алгоритм (22.57) преобразуется к виду

т. e. не зависит от обучающей выборки и полностью определяется априорными данными.

Предположим теперь, что наблюдение представляет векторную (размером N) случайную величину, которую следует отнести к одному из двух классов: — гауссовская помеха с нулевым вектором средних и ковариационной матрицей — аддитивная смесь помехи и независимого от нее случайного сигнала, вектор средних а которого случайный, подчинен многомерному нормальному распределению с параметрами

Пусть — классифицированная выборка аддитивной смеси сигнала и гауссовской помехи. По формуле (22.42) с учетом результатов, приведенных в п. 14.5.7 и 14.5.8, находим, что апостериорная плотность сигнального параметра а подчиняется многомерному нормальному распределению с параметрами

(22.60)

Соотношения (22.60), (22.61) можно представить в рекуррентной форме

(22.62)

Если известно, что наблюдение приндалежит классу , то

(22.64)

Из (22.46) следует

(22.65)

Так как интеграл в (22.65) представляет свертку двух плотностей -мерного нормального распределения, то непосредственна находим

(22.66)

где вектор и матрица определены согласно (22.60), (22.61).

Если наблюдение — помеха, то

(22.66 а )

Из (22.66) и (22.66 а) получаем следующий адаптивный алгоритм обнаружения: принимается решение, что наблюдаемый вектор представляет аддитивную смесь случайного сигнала и гауссовской помехи, если

(22.67)

и решение, что наблюдалась помеха, в противном случае.

Если размер обучающей выборки то

(22.68)

В этом случае алгоритм классификации линейный с перестраиваемым порогом с (22.22) и с (22.59)

(22.69)

22.3.4. Адаптивный метод преодоления априорной неопределенности мешающих параметров.

Пусть в задаче проверки многоальтернативных гипотез (см. § 13.3) функция правдоподобия, соответствующая гипотезе, зависит от векторного мешающего параметра Запишем выражение среднего риска как функции мешающих параметров

(22.70)

где

(22.70 а)

— область выборочного пространства X, соответствующая решению о принятии гипотезы — элементы матрицы потерь, — априорная вероятность гипотезы

Если известны априорные распределения мешающих параметров, то эти параметры можно исключить из (22.70) путем усреднения по этим параметрам, заменив функцию функцией

(22.71)

где - априорная плотность распределения параметра

В условиях параметрической априорной неопределенности, когда функции неизвестны, при помощи обучающих выборок можно определить оценки максимального правдоподобия мешающих параметров и, как показано в [72], воспользуемся вместо (22.71) приближенным выражением

где — размерность вектора матрица с элементами

(22.72 а)

в предположении, что существуют указанные производные.

Приближение (22.72) допустимо при условии, что априорные плотности распределения мешающих параметров «шире» апостериорных, которые формируются по обучающим выборкам. При этом функция существенно слабее зависит от чем остальные множители в правой части (22.72), и поэтому ее, наряду с величиной можно рассматривать как несущественный сомножитель. Тогда адаптивный алгоритм проверки многоальтернативных гипотез определяется минимизацией (путем определения соответствующих решающих функций ) величины

(22.73)

Для простой функции потерь

(22.74)

где — символ Кронекера, оптимальный адаптивный алгоритм формулируется следующим образом: принимается гипотеза если для всех

Представляет интерес и ряд других адаптивных алгоритмов проверки гипотез, рассмотренных в [73].

<< Предыдущий параграф Следующий параграф >>
Оглавление