Browse Source

修订chapter1格式

Sm1les 6 years ago
parent
commit
d169dbb2bd
2 changed files with 11 additions and 30 deletions
  1. 11 12
      docs/chapter1/chapter1.md
  2. 0 18
      docs/chapter7/chapter7.md

+ 11 - 12
docs/chapter1/chapter1.md

@@ -1,17 +1,16 @@
 ## 1.2
 $$\begin{aligned}
-\sum_{f}E_{ote}(\mathfrak{L}_a\vert X,f) &= \sum_f\sum_h\sum_{x\in\mathcal{X}-X}P(x)\mathbb{I}(h(x)\neq f(x))P(h\vert X,\mathfrak{L}_a) \\
-&=\sum_{x\in\mathcal{X}-X}P(x) \sum_hP(h\vert X,\mathfrak{L}_a)\sum_f\mathbb{I}(h(x)\neq f(x)) \\
-&=\sum_{x\in\mathcal{X}-X}P(x) \sum_hP(h\vert X,\mathfrak{L}_a)\cfrac{1}{2}2^{\vert \mathcal{X} \vert} \\
-&=\cfrac{1}{2}2^{\vert \mathcal{X} \vert}\sum_{x\in\mathcal{X}-X}P(x) \sum_hP(h\vert X,\mathfrak{L}_a) \\
-&=2^{\vert \mathcal{X} \vert-1}\sum_{x\in\mathcal{X}-X}P(x) \cdot 1\\
+\sum_{f}E_{ote}(\mathfrak{L}_a\vert X,f) &= \sum_f\sum_h\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h\vert X,\mathfrak{L}_a) \\
+&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a)\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x})) \\
+&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a)\cfrac{1}{2}2^{\vert \mathcal{X} \vert} \\
+&=\cfrac{1}{2}2^{\vert \mathcal{X} \vert}\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a) \\
+&=2^{\vert \mathcal{X} \vert-1}\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \cdot 1\\
 \end{aligned}$$
-
-[解析]:第一步到第二步是因为$\sum_i^m\sum_j^n\sum_k^o a_ib_jc_k=\sum_i^m a_i \cdot \sum_j^n b_j \cdot \sum_k^o c_k$;第二步到第三步:首先要知道此时$f$的定义为**任何能将样本映射到{0,1}的函数+均匀分布**,也即不止一个$f$且每个$f$出现的概率相等,例如样本空间只有两个样本时:$ \mathcal{X}=\{x_1,x_2\},\vert \mathcal{X} \vert=2$,那么所有的真实目标函数$f$为:
+[解析]:第一步到第二步是因为$\sum_i^m\sum_j^n\sum_k^o a_ib_jc_k=\sum_i^m a_i \cdot \sum_j^n b_j \cdot \sum_k^o c_k$;第二步到第三步:首先要知道此时$f$的定义为**任何能将样本映射到{0,1}的函数+均匀分布**,也即不止一个$f$且每个$f$出现的概率相等,例如样本空间只有两个样本时:$ \mathcal{X}=\{\boldsymbol{x}_1,\boldsymbol{x}_2\},\vert \mathcal{X} \vert=2$,那么所有的真实目标函数$f$为:
 $$\begin{aligned}
-f_1:f_1(x_1)=0,f_1(x_2)=0;\\
-f_2:f_2(x_1)=0,f_2(x_2)=1;\\
-f_3:f_3(x_1)=1,f_3(x_2)=0;\\
-f_4:f_4(x_1)=1,f_4(x_2)=1;
+f_1:f_1(\boldsymbol{x}_1)=0,f_1(\boldsymbol{x}_2)=0;\\
+f_2:f_2(\boldsymbol{x}_1)=0,f_2(\boldsymbol{x}_2)=1;\\
+f_3:f_3(\boldsymbol{x}_1)=1,f_3(\boldsymbol{x}_2)=0;\\
+f_4:f_4(\boldsymbol{x}_1)=1,f_4(\boldsymbol{x}_2)=1;
 \end{aligned}$$
-一共$2^{\vert \mathcal{X} \vert}=2^2=4$个真实目标函数。所以此时通过算法$\mathfrak{L}_a$学习出来的模型$h(x)$对每个样本无论预测值为0还是1必然有一半的$f$与之预测值相等,例如,现在学出来的模型$h(x)$对$x_1$的预测值为1,也即$h(x_1)=1$,那么有且只有$f_3$和$f_4$与$h(x)$的预测值相等,也就是有且只有一半的$f$与它预测值相等,所以$\sum_f\mathbb{I}(h(x)\neq f(x)) = \cfrac{1}{2}2^{\vert \mathcal{X} \vert} $;第三步一直到最后显然成立。值得一提的是,在这里我们定义真实的目标函数为**“任何能将样本映射到{0,1}的函数+均匀分布”**,但是实际情形并非如此,通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数,例如,现在已有的样本数据为$\{(x_1,0),(x_2,1)\}$,那么此时$f_2$才是我们认为的真实目标函数,由于没有收集到或者压根不存在$\{(x_1,0),(x_2,0)\},\{(x_1,1),(x_2,0)\},\{(x_1,1),(x_2,1)\}$这类样本,所以$f_1,f_3,f_4$都不算是真实目标函数。
+一共$2^{\vert \mathcal{X} \vert}=2^2=4$个真实目标函数。所以此时通过算法$\mathfrak{L}_a$学习出来的模型$h(\boldsymbol{x})$对每个样本无论预测值为0还是1必然有一半的$f$与之预测值相等,例如,现在学出来的模型$h(\boldsymbol{x})$对$\boldsymbol{x}_1$的预测值为1,也即$h(\boldsymbol{x}_1)=1$,那么有且只有$f_3$和$f_4$与$h(\boldsymbol{x})$的预测值相等,也就是有且只有一半的$f$与它预测值相等,所以$\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x})) = \cfrac{1}{2}2^{\vert \mathcal{X} \vert} $;第三步一直到最后显然成立。值得一提的是,在这里我们定义真实的目标函数为**“任何能将样本映射到{0,1}的函数+均匀分布”**,但是实际情形并非如此,通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数,例如,现在已有的样本数据为$\{(\boldsymbol{x}_1,0),(\boldsymbol{x}_2,1)\}$,那么此时$f_2$才是我们认为的真实目标函数,由于没有收集到或者压根不存在$\{(\boldsymbol{x}_1,0),(\boldsymbol{x}_2,0)\},\{(\boldsymbol{x}_1,1),(\boldsymbol{x}_2,0)\},\{(\boldsymbol{x}_1,1),(\boldsymbol{x}_2,1)\}$这类样本,所以$f_1,f_3,f_4$都不算是真实目标函数。

+ 0 - 18
docs/chapter7/chapter7.md

@@ -5,24 +5,6 @@ $$R(c_i|\boldsymbol x)=1*P(c_1|\boldsymbol x)+1*P(c_2|\boldsymbol x)+...+0*P(c_i
 又$\sum_{j=1}^{N}P(c_j|\boldsymbol x)=1$,则:
 $$R(c_i|\boldsymbol x)=1-P(c_i|\boldsymbol x)$$
 此即为式7.5
-## 7.8
-$$P(c|\boldsymbol x)=\cfrac{P(c)P(\boldsymbol x|c)}{P(\boldsymbol x)}$$
-[解析]:最小化误差,也就是最大化P(c|x),但由于P(c|x)属于后验概率无法直接计算,由贝叶斯公式可计算出:
-$$P(c|\boldsymbol x)=\cfrac{P(c)P(\boldsymbol x|c)}{P(\boldsymbol x)}$$
-$P(\boldsymbol x)$可以省略,因为我们比较的时候$P(\boldsymbol x)$一定是相同的,所以我们就是用历史数据计算出$P(c)$和$P(\boldsymbol x|c)$。
-1. $P(c)$根据大数定律,当样本量到了一定程度且服从独立同分布,c的出现的频率就是c的概率。
-2. $P(\boldsymbol x|c)$,因为$\boldsymbol x$在这里不对单一元素是个矩阵,涉及n个元素,不太好直接统计分类为c时,$\boldsymbol x$的概率,所以我们根据假设独立同分布,对每个$\boldsymbol x$的每个特征分别求概率
-$$P(\boldsymbol x|c)=P(x_1|c)*P(x_2|c)*P(x_3|c)...*P(x_n|c)$$
-这个式子就可以很方便的通过历史数据去统计了,比如特征n,就是在分类为c时特征n出现的概率,在数据集中应该是用1显示。
-但是当某一概率为0时会导致整个式子概率为0,所以采用拉普拉斯修正
-
-当样本属性独依赖时,也就是除了c多加一个依赖条件,式子变成了
-$$∏_{i=1}^n P(x_i|c,p_i)$$
-$p_i$是$x_i$所依赖的属性
-
-当样本属性相关性未知时,我们采用贝叶斯网的算法,对相关性进行评估,以找出一个最佳的分类模型。
-
-当遇到不完整的训练样本时,可通过使用EM算法对模型参数进行评估来解决。
 
 ## 7.17-7.18
 $$P_{(\boldsymbol x_{i}|c)}\in[0,1]$$