Обновление гауссовых распределений

В главе 14 было описано ключевое свойство семейства линейных гауссовых распределений: при стандартных операциях в байесовской сети оно остается замкнутым. В этом разделе данное утверждение будет уточнено в контексте фильтрации с помощью временной вероятностной модели. Ниже перечислены требуемые свойства, соответствующие процессу двухэтапного вычисления результатов фильтрации с помощью уравнения 15.3.
1. Если текущее распределение р (xt | e1:t) является гауссовым, а модель перехода P(xt+i|xt) — линейной гауссовой, то распределение, прогнозируемое
на один этап вперед, которое задается с помощью следующего уравнения, также представляет собой гауссово распределение:
2. Если прогнозируемое распределение Р (Xt+11 ei:t) является гауссовым, а модель восприятия Р (et+i | Xt+1) — линейной гауссовой, то после обусловливания вероятности на основании нового свидетельства следующее обновленное распределение также является гауссовым:
P(Xt+i|ei:t+i) = a P(et+i|xt+1) P(Xt+i|ei:t) (15.16)
Таким образом, оператор Forward для калмановской фильтрации принимает на входе гауссово прямое сообщение f 1:t, заданное с помощью среднего \xt и матрицы ковариации St, и вырабатывает новое многомерное гауссово прямое сообщение f 1: t+i, заданное с помощью среднего \it+1 и матрицы ковариации Et+1. Итак, начиная с гауссова априорного сообщения f1:0=p(x0) =N{\i0,I,o) и проводя фильтрацию с помощью линейной гауссовой модели, мы можем получить гауссово распределение вероятностей состояний для любых временнь/х срезов.
Очевидно, что этот научный результат является привлекательным и изящным, но почему он имеет такое важное значение? Причина этого состоит в том, что за исключением нескольких частных случаев, подобных рассматриваемому, в процессе фильтрации с помощью непрерывных или гибридных (как дискретных, так и непрерывных) сетей вырабатываются распределения вероятностей состояний, размеры представления которых растут во времени без ограничения. Это утверждение нелегко доказать, но в упр. 15.5 показано, что в простых примерах так и происходит.
Простой одномерный пример
Как было указано выше, оператор Forward для фильтра Калмана отображает одно гауссово распределение на другое, новое гауссово распределение. Применение этого оператора сводится к вычислению новых значений среднего и матрицы кова-риации из предыдущих значений среднего и матрицы ковариации. Для вывода правила обновления в общем (многомерном) случае требуется большой объем выкладок в линейной алгебре, поэтому пока остановимся на очень простом одномерном случае, а позже будут даны результаты для общего случая. Но даже в одномерном случае вычисления являются довольно трудоемкими; тем не менее авторы считают, что с ними следует ознакомиться, поскольку применимость фильтра Калмана слишком тесно связана с математическими свойствами гауссовых распределений.
Во временной модели, которая будет здесь рассматриваться, представлено случайное блуждание единственной непрерывной переменной состояния xt, зарегистрированное с помощью зашумленных результатов наблюдения Zt. Одним из соответствующих примеров может служить показатель "доверия потребителя", который может быть промоделирован как переменная, подвергающаяся каждый месяц случайному изменению с вероятностью, представленной с помощью гауссова распределения, и измеряемая с помощью опроса случайно выбранных потребителей, в котором также вносится гауссов шум формирования выборки. Предполагается, что распределение априорных вероятностей является гауссовым, с дисперсией а02:
(Для упрощения в этом разделе мы будем использовать один и тот же символ а для обозначения всех констант нормализации.) В модели перехода просто добавляется гауссово возмущение постоянной дисперсии <тх2 к текущему состоянию:
P(zt\xt) = ос е
Теперь, после получения распределения априорных вероятностей Р(х0), мы можем вычислить распределение, прогнозируемое на один этап, с помощью уравнения 15.15:
На первый взгляд этот интеграл кажется довольно сложным. Ключом к его упрощению может стать такое замечание, что экспонента представляет собой сумму двух выражений, которые квадратично зависят от х0, и поэтому сама экспонента квадратично зависит от х0. Но известно, что любое квадратное уравнение ах02 + Ьх0 + с может быть перезаписано как сумма терма, возведенного в квадрат.
Теперь рассматриваемый интеграл представляет собой обычный интеграл гауссова распределения по всей области его определения, который равен 1. Таким образом, от квадратного уравнения сохраняется лишь его остаточный терм.
Вторым важным этапом является преобразование, выполняемое на основе того наблюдения, что остаточный терм должен иметь квадратичную зависимость от хг; в действительности после его упрощения получаем следующее:
Таким образом, распределение, прогнозируемое на один этап, представляет собой гауссово распределение с тем же средним ц0 и дисперсией, равной сумме первоначальной дисперсии с02 и дисперсии перехода ах2. Даже краткие размышления позволяют понять, что такое соотношение интуитивно вполне оправдано.
Для завершения этапа обновления необходимо обусловить вероятность результатами наблюдения на первом временном этапе, а именно zx. Согласно уравнению 15.16, такая операция осуществляется с помощью следующего уравнения:
Снова объединим экспоненты и дополним квадрат (упр. 15.6), получая следующее:
Таким образом, после одного цикла обновления будет получено новое гауссово распределение для переменной состояния.
На основании гауссовой формулы, приведенной в уравнении 15.17, можно определить, что новые значения среднего и среднеквадратичного отклонения можно вычислить на основе старых значений среднего и среднеквадратичного отклонения следующим образом:
Приведенная выше пара уравнений играет точно такую же роль, как и общее уравнение фильтрации, 15.3, или уравнение фильтрации НММ, 15.10. Но в связи с особым характером гауссовых распределений эти уравнения обладают также некоторыми интересными дополнительными свойствами. Во-первых, можно интерпретировать вычисление нового значения среднего jbit+1 как вычисление взвешенного среднего от новых результатов наблюдения zt+1 и старого значения среднего jut. Если результаты наблюдения являются ненадежными, то значение az2 увеличивается и мы придаем больший вес старому значению среднего, а если ненадежно старое значение среднего (велико значение at2) или процесс является в высшей степени непредсказуемым (велико значение <тх2), то придаем больший вес результатам наблюдения. Во-вторых, следует отметить, что обновление для дисперсии at+12 является независимым от результатов наблюдения. Поэтому можно заранее определить путем вычисления, какой должна быть последовательность значений дисперсии. В-третьих, последовательность значений дисперсии быстро сходится к постоянному значению, которое зависит только от <тх2 и az2, что способствует существенному упрощению дальнейших вычислений (см. упр. 15.7).

Общий случай
Приведенные выше результаты анализа иллюстрируют ключевое свойство гауссовых распределений, которое обеспечивает функционирование методов калманов-ской фильтрации: тот факт, что экспонента находится в квадратичной форме. Указанное свойство относится не только к одномерному случаю; полное многомерное гауссово распределение имеет следующую форму:
-|( (x-fuVx-n) )
N([i,Z) (х) = а е
Кроме того, произведение термов в экспоненте ясно показывает, что экспонента также является квадратичной функцией от случайных переменных хь которые относятся к х. Как и в одномерном случае, операция обновления фильтрации сохраняет гауссов характер распределения вероятностей состояний.
Вначале определим общую временную модель, применяемую в процедуре калма-новской фильтрации. И модель перехода, и модель восприятия позволяют применять линейное преобразование с дополнительным гауссовым шумом. Таким образом, получаем следующее:
P(xt+i|xt) = tf(Fxt,Zx) (xt+i)
P(zt|xt) = tf(HXt,Zz) (zt) (15.19)
где F и Zx — матрицы, описывающие линейную модель перехода и ковариацию шума перехода; н и Zz — соответствующие матрицы для модели восприятия. Теперь уравнения обновления для среднего и ковариации в их полном, ужасающе сложном виде становятся таковыми:
Ht+i = F|lt + Kt+i(zt+i - HF|It)
2t+i = (I-Kt+i) (FZtFT+Ix) (15.20)
где Kt+1= (FZtFT+Zx)HT(H(FZtFT+Zx)HT+Zx)_1 называется калмановской матрицей усиления. Хотите — верьте, хотите — нет, но эти уравнения имеют определенный интуитивный смысл. Например, рассмотрим обновление для оценки значения среднего |Ы для некоторого состояния. Терм F\it представляет собой прогнозируемое состояние в момент времени t+1, поэтому HF\xt является прогнозируемым результатом наблюдения. Таким образом, терм zt+1-HFjbit соответствует ошибке в прогнозируемых результатах наблюдений. Это значение умножается на Kt+i для корректировки прогнозируемого состояния, поэтому Kt+1 представляет собой меру того, насколько важными следует считать новые результаты наблюдения применительно к предсказанию. Как и при использовании уравнения 15.18, соблюдается такое свойство, что обновление дисперсии не зависит от результатов наблюдений. Поэтому последовательность значений St и Kt может быть вычислена в автономном режиме, т.е. фактический объем вычислений, требуемых во время оперативного слежения, становится весьма скромным.
Для иллюстрации этих уравнений в действии мы применили их к задаче слежения за объектом, движущимся на плоскости X—Y. Переменными состояния являются х= (х, Y, X, Y) т, поэтому F, 2Х, Н и Zz представляют собой матрицы с размерами 4x4. На рис. 15.7, а показаны истинная траектория, ряд зашумленных результатов наблюдения и траектория, оцениваемая с помощью калмановской фильтрации, наряду с ковариациями, указанными с помощью контуров единичного среднеквадратичного отклонения. Процесс фильтрации позволяет весьма успешно следить за фактическим перемещением, к тому же, как и предполагалось, дисперсия быстро достигает фиксированной точки.
Мы можем вывести не только уравнения фильтрации с помощью линейных гауссовых моделей, но и уравнения сглаживания. Результаты сглаживания показаны на рис. 15.7,5. Обратите внимание на то, как резко сокращается дисперсия в оценке позиции, за исключением концов траектории (объясните, почему), и насколько более гладкой становится оцениваемая траектория.







Материалы

Яндекс.Метрика