@@ -22,7 +22,7 @@ https://datawhalechina.github.io/pumpkin-book/
- 第11章 特征选择与稀疏学习
- 第12章 计算学习理论
- 第13章 半监督学习
-- 第14章 概率图模型
+- 第14章 [概率图模型](https://datawhalechina.github.io/pumpkin-book/#/chapter14/chapter14)
- 第15章 规则学习
- 第16章 强化学习
@@ -7,4 +7,4 @@
- [第6章 支持向量机](chapter6/chapter6.md)
- [第7章 贝叶斯分类器](chapter7/chapter7.md)
- [第8章 集成学习](chapter8/chapter8.md)
-
+ - [第14章 概率图模型](chapter14/chapter14.md)
@@ -1,11 +1,6 @@
## 14.26
-$$
-\begin{aligned}
- p(x^t)T(x^{t-1}|x^t)=p(x^{t-1})T(x^t|x^{t-1})
- \end{aligned}
- \tag{14.26}
+$$p(x^t)T(x^{t-1}|x^t)=p(x^{t-1})T(x^t|x^{t-1})$$
[解析]:假设变量$x$所在的空间有$n$个状态($s_1,s_2,..,s_n$), 定义在该空间上的一个转移矩阵$T(n\times n)$如果满足一定的条件则该马尔可夫过程存在一个稳态分布$\pi$, 使得
$$
@@ -34,12 +29,7 @@ $$
## 14.28
-A(x^* | x^{t-1}) = \min\left ( 1,\frac{p(x^*)Q(x^{t-1} | x^*) }{p(x^{t-1})Q(x^* | x^{t-1})} \right )
-\end{aligned}
-\tag{14.28}
+$$A(x^* | x^{t-1}) = \min\left ( 1,\frac{p(x^*)Q(x^{t-1} | x^*) }{p(x^{t-1})Q(x^* | x^{t-1})} \right )$$
[推导]:这个公式其实是拒绝采样的一个trick,因为基于式$14.27$只需要