To explain how this works, I have to talk about high dimesional Gaussians.
These are often called multivariate Gaussians.
The mean is now a vector with 1 element for each of the dimensions.
The variance here is replaced by what's called a co-variance,
and it's a matrix with D rows and D columns,
if the dimensionality of the estimate is D.
The formula is something you have to get used to.
I'm writing it out for you, but you never get to see this again.
To tell you the truth, even I have to look up the formula for this class,
so I don't have it in my head, and please, don't get confused.
Let me explain it to you more intuitively.
Here's a 2-dimensional space.
A 2-dimensional Gaussian is defined over that space,
and it's possible to draw the contour lines of the Gaussian. It might look like this.
The mean of this Gaussian is this x0, y0 pair,
and the co-variance now defines the spread of the Gaussian
as indicated by these contour lines.
A Gaussian with a small amount of uncertainty might look like this.
It might be possible to have a fairly small uncertainty in 1 dimension,
but a huge uncertainty in the other.
Huge uncertainty in the x-dimension is small, and the y- dimension is large.
When the Gaussian is tilted as showed over here,
then the uncertainty of x and y is correlated, which means if I get information about x--
it actually sits over here--that would make me believe that y probably sits
somewhere over here. That's called correlation.
I can explain to you the entire effect of estimating velocity and using it in filtering
using Gaussians like these,
and it becomes really simple.
The problem I'm going to choose is a 1-dimensional motion example.
Let's assume at t = 1, we see our object over here.
A t = 2 right over here.
A t = 3 over here.
Then you would assume that at t = 4, the object sits over here,
and the reason why you would assume this is--even though it's just seen these different
discrete locations, you can infer from it there is actually velocity that drives the object
to the right side to the point over here.
Now how does the Kalman filter address this?
This is the true beauty of the Kalman filter.
Para explicar cómo funciona esto, tengo que hablar sobre las gaussianas de varias dimensiones.
A menudo se llaman Gaussianas multivariante.
La media es ahora un vector con 1 elemento para cada una de las dimensiones.
La varianza es reemplazada por lo que se llama co-varianza,
y es una matriz con D filas y D columnas,
si la dimensionalidad de la estimación es D.
Y la fórmula es algo que hay que acostumbrarse.
Lo estoy escribiendo para ti, pero nunca lo verás otra vez.
A decir verdad, he tenido que buscar la fórmula para esta clase,
así que no la tengo en mi cabeza, y por favor, no se confunda.
Déjame explicartelo de una forma más intuitiva.
Aquí hay un espacio de 2 dimensiones.
Una gaussiana de 2 dimensiones se define sobre ese espacio,
y es posible dibujar las curvas de nivel de la gaussiana. Puede verse así.
La media de esta gaussiana es este par x0, y0,
y la co-varianza se define ahora como la extensión de la gaussiana
como se indica por estas líneas de contorno.
Una gaussiana con pequeñas cantidades de incertidumbre podría tener este aspecto.
Puede ser posible tener una incertidumbre bastante pequeña en 1 dimensión,
pero tener una gran incertidumbre en la otra.
La incertidumbre en la dimensión X es pequeña, y la dimensión y es grande.
Cuando la gaussiana está inclinada como se muestra aquí,
la incertidumbre de x e y se correlaciona, lo que significa que si puedo obtener información acerca de x,
-- que en realidad se asienta aquí --, que me haga creer que y probablemente se asiente
en algún lugar de por aquí. Eso se llama correlación.
Yo te puedo explicar todo el efecto de la estimación de la velocidad y su uso en la filtración
mediante gaussianas como estas,
y es realmente simple.
El problema que voy a elegir es un ejemplo de movimiento en 1 dimensión.
Supongamos que en el instante t = 1, vemos nuestro objeto aquí.
en t = 2 por aquí.
en t = 3 por aquí.
De allí tendría que asumir que en t = 4, el objeto se encuentra aquí,
y la razón por la que asumiría esto es, -- a pesar de que acabamos de ver estas diferentes
ubicaciones discretas--, es que se puede deducir de ella que en realidad la velocidad es la que acciona el objeto
a la derecha hasta el punto aquí.
Ahora, ¿cómo trata esto el filtro de Kalman?
Esta es la verdadera belleza del filtro de Kalman.
カルマンフィルタを説明するには
高次元ガウス分布について話す必要があります
多変数ガウス分布とも呼ばれています
平均は各分散に対して
1つの要素を持つベクトルです
この分散は共分散によって置き換えられます
予測の次元がDの場合
共分散はD行とD列を持つ行列です
この式にぜひ慣れてください
今回は皆さんのために式を見せましたが
もう出すことはないでしょう
実はこの授業のために式を調べたくらいで
私も暗記はしていません
より直観的な説明をさせてください
これが二次元空間です
二次元ガウス分布はこの空間上で定義されます
ガウス分布の等高線を描いてみると
おそらくこのように見えるでしょう
ガウス分布の平均はこのx₀とy₀のペアです
そして等高線が示しているように
共分散がガウス分布の広がりを決めるのです
不確実性が低いガウス分布は
このように見えるかもしれません
一次元で不確実性がかなり低い場合でも
別の次元の不確実性は高くなるかもしれません
x次元とy次元の不確実性は反比例します
ガウス分布がこのように傾いている場合
xとyの不確実性には相関があります
つまりxの情報を得て
実際の位置がここだったならば
yはおそらくこの辺りに位置するでしょう
それが相関性です
速度予測とガウス分布を用いたフィルタ機能により
どのような効果があるのか説明します
計算はとてもシンプルになります
一次元の動作を使った問題を出します
t=1の時を考えてみます
対象物はここにあるとしましょう
t=2はちょうどここにあり
ここにはt=3があります
t=4の時には対象物がここに位置すると予測します
そう予測する理由は
これらの個別の位置を観察した結果を基に
そこには対象物を右へ動かす速度があると
推測できるからです
ではカルマンフィルタはどのように
この推測を行うのでしょうか