RUVIDEO
Поделитесь видео 🙏

Gaussian Mixture Modelling | Expectation Maximization Algorithm | Matrix Calculus | Classification смотреть онлайн

#MachineLearning #AI #Statistics #Math

Let $X' = [X_1, X_2,..., X_{n}]$ be observed sample, iid with pdf $f(x|\theta)$. Let $Z'=[Z_1, Z_2,..., Z_{n}]$ be hidden/unobserved. We further assume that $\{ X_i \}$ and $\{ Z_j \}$ are mutually independent.

Let $g(\bold{x}|\theta)$ be the joint pdf of $\bold{X}$.

Let $h(\bold{x},\bold{z}|\theta)$ be the complete pdf of $\bold{X}, \bold{Z}$.

Let $k(\bold{z}|\theta,\bold{x})$ be the conditional pdf of the hidden data given the observed data.

$$
k(\bold{z}|\theta,\bold{x}) = \frac{h(\bold{x},\bold{z}|\theta)}{g(\bold{x}|\theta)}
$$

We want to find an estimate of the unknown parameter $\theta$.

We'll conduct MLE to maximize the probability of observing $X$ by maximizing $g(\bold{x}|\theta)$.

McLachlan and Krishman (1997) gives a in-depth knowledge of an algorithm call EM Algo. Let's see the inspiration of EM algo. We want to maximize **incomplete likelyhood function** $L(\theta; \bold{x})=g(\bold{x}|\theta)$ wrt $\theta$:

$$
\begin{aligned}
\log{L(\theta; \bold{x})} = \log{g(\bold{x}|\theta)} &= \int{\log{g(\bold{x}|\theta)} k(\bold{z}|\theta_0,\bold{x}) d\bold{z} } \\
&= E_{\bold{Z}}[\log{h(\bold{x},\bold{Z}|\theta)|\theta_0,\bold{x}}] - E_{\bold{Z}}[\log{k(\bold{Z}|\theta, \bold{x})}|\theta_0,\bold{x}]
\end{aligned}
$$

Here we are assuming $\theta_0$ is known. The $L(\theta; \bold{x}, \bold{z}) = h(\bold{x},\bold{Z}|\theta)|\theta_0,\bold{x}$ is the **complete likelyhood function**.

Let

$$
Q(\theta|\theta_0,\bold{x})=E_{\bold{Z}}[\log{h(\bold{x},\bold{Z}|\theta)|\theta_0,\bold{x}}]
$$

And let

$$
R(\theta|\theta_0,\bold{x})=E_{\bold{Z}}[\log{k(\bold{Z}|\theta, \bold{x})}|\theta_0,\bold{x}]
$$

## Algorithm

**[Step E] Expectation Step**

Suppose $\hat{\theta}_m$ is known. Compute $Q(\theta|\hat{\theta}_m,\bold{x})=E_{\bold{Z}}[\log{h(\bold{x},\bold{z}|\theta)|\hat{\theta}_m,\bold{x}}]$

**[Step M] Maximization Step**

Find next $\hat{\theta}_{m+1}=\underset{\theta}{\argmax}{Q(\theta|\hat{\theta}_m,\bold{x})}$

**[Step S] Stop Step**

Stop the iteration when $\|Q(\theta_{m+1}|\hat{\theta}_m,\bold{x}) - Q(\theta_m|\hat{\theta}_m,\bold{x}) \| \le \epsilon$


### Why Only Maximizing $Q(\theta|\hat{\theta}_m,\bold{x})$?

### __Theorem__

Let $\{\theta_m\}$ be the sequence of estimations by conducting the EM Algorithm.

$$
R(\theta_{m+1}|\theta_m,\bold{x}) \le R(\theta_m|\theta_m,\bold{x})
$$

## Gaussian mixture

Let $\mathbf{x} = (\mathbf{x}_1,\mathbf{x}_2,\ldots,\mathbf{x}_n)$ be a sample of $n$ independent observations from a mixture of two multivariate normal distributions of dimension $d$.

$X_{i}\mid (Z_{i}=1)\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }}_{1},\Sigma _{1})$ and $X_{i}\mid (Z_{i}=2)\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }}_{2},\Sigma _{2})$

where $\operatorname{P} (Z_i = 1 ) = \tau_1$ and $\operatorname {P} (Z_{i}=2)=\tau _{2}=1-\tau _{1}$

The aim is to estimate the unknown parameters representing the mixing value between the Gaussians and the means and covariances of each:

$$
\theta ={\big (}{\boldsymbol {\tau }},{\boldsymbol {\mu }}_{1},{\boldsymbol {\mu }}_{2},\Sigma _{1},\Sigma _{2}{\big )}
$$

Deriving the pdf of X:

$$
\begin{aligned}
P(X \le x)' &= P(X \le x | Z = 1)' P(Z = 1) + P(X \le x | Z = 2)' P(Z = 2) \\
&= \tau _{1}\ f(\mathbf {x};{\boldsymbol {\mu }}_{1},\Sigma _{1}) + \tau _{2}\ f(\mathbf {x};{\boldsymbol {\mu }}_{2},\Sigma _{2})
\end{aligned}
$$


where the incomplete-data likelihood function is:

$$
L(\theta ;\mathbf {x} )=\prod _{i=1}^{n}\sum _{j=1}^{2}\tau _{j}\ f(\mathbf {x} _{i};{\boldsymbol {\mu }}_{j},\Sigma _{j})
$$

and the complete-data likelihood function is:

$$
L(\theta ;\mathbf {x} ,\mathbf {z} )=p(\mathbf {x} ,\mathbf {z} \mid \theta )=\prod _{i=1}^{n}\prod _{j=1}^{2}\ [f(\mathbf {x} _{i};{\boldsymbol {\mu }}_{j},\Sigma _{j})\tau _{j}]^{\mathbb {I} (z_{i}=j)}
$$

The conditional pdf of $k(\bold{Z}|\theta, \bold{x})$ is:

**E Step**

We could derive $Q(\theta \mid \theta ^{(t)})$ as follows:

**M Step**

The linear form of $\tau_{i}$ and $\mu_{i}/\Sigma_i$ means we could maiximize $Q$ independently by maximizing $\tau_{i}$ and $\mu_{i}/\Sigma_{i}$ terms separately.

$\tau$ terms, with constrain $\tau_2 = 1 - \tau_1$:

By taking derivative of each $\tau$, we get:

For the next estimates of $(\mu_1, \Sigma_1)$:

We'll gonna make use of this formula: $\mathbf{ \frac{\partial w^T A w}{\partial w} = 2Aw}$, where A is symmetric.


To derive the formula for $\Sigma_{i}^{(t+1)}$, we'll gonna make use of the following equations:

- Invariant under cyclic permutation $tr[ABC] = tr[CAB] = tr[BCA]$

- Derivative of a trace: $\frac{\partial}{\partial{A}} tr[BA] = B^T$

- Derivative of a log determinant: $\frac{\partial}{\partial{A}}\log{|A|} = A^{-T}$.

- Determinant of an inverse is the inverse of the determinant: $|A|^{-1} = |A^{-1}|$

Что делает видео по-настоящему запоминающимся? Наверное, та самая атмосфера, которая заставляет забыть о времени. Когда вы заходите на RUVIDEO, чтобы посмотреть онлайн «Gaussian Mixture Modelling | Expectation Maximization Algorithm | Matrix Calculus | Classification» бесплатно и без регистрации, вы рассчитываете на нечто большее, чем просто загрузку плеера. И мы это понимаем. Контент такого уровня заслуживает того, чтобы его смотрели в HD 1080, без дрожания картинки и бесконечного буферизации.

Честно говоря, Rutube сегодня — это кладезь уникальных находок, которые часто теряются в общем шуме. Мы же вытаскиваем на поверхность самое интересное. Будь то динамичный экшн, глубокий разбор темы от любимого автора или просто уютное видео для настроения — всё это доступно здесь бесплатно и без лишних формальностей. Никаких «заполните анкету, чтобы продолжить». Только вы, ваш экран и качественный поток.

Если вас зацепило это видео, не забудьте взглянуть на похожие материалы в блоке справа. Мы откалибровали наши алгоритмы так, чтобы они подбирали контент не просто «по тегам», а по настроению и смыслу. Ведь в конечном итоге, онлайн-кинотеатр — это не склад файлов, а место, где каждый вечер можно найти свою историю. Приятного вам отдыха на RUVIDEO!

Видео взято из открытых источников Rutube. Если вы правообладатель, обратитесь к первоисточнику.