1
0

20 Коммиты 20d87d72b3 ... f967eca8ab

Автор SHA1 Сообщение Дата
  )s f967eca8ab Update README.md 1 год назад
  )s 543217c2b0 Update README.md 1 год назад
  )s 10708a15be Update README.md 1 год назад
  )s 402c1d128e Update README.md 1 год назад
  )s f427455013 Update chapter16.md to v2 1 год назад
  )s d20f92261d Update chapter15.md to v2 1 год назад
  )s dd9fe17480 Update chapter14.md to v2 1 год назад
  )s 87a9530382 Update chapter13.md to v2 1 год назад
  )s a2d758bcaa Update chapter12.md to v2 1 год назад
  )s c176805a04 Update chapter11.md to v2 1 год назад
  )s b40f8c74f2 Update chapter10.md to v2 1 год назад
  )s 4d5be7d658 Update chapter9.md to v2 1 год назад
  )s f68e6942d6 Update chapter8.md 1 год назад
  )s da1a551dd2 Update chapter7.md 1 год назад
  )s 0dd4be15ed Update chapter6.md 1 год назад
  )s ad40e14bc9 Update chapter5.md to v2 1 год назад
  )s 4c1ba1baac Update chapter4.md to v2 1 год назад
  )s 565fb181ae Update chapter3.md to v2 1 год назад
  )s 94e8acbd68 Update chapter2.md to v2 1 год назад
  )s 97d43fc2c3 Update chapter1.md to v2 1 год назад

+ 23 - 33
README.md

@@ -1,14 +1,3 @@
-<div align=center>
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/pumpkin.png" >
-<h1>南瓜书PumpkinBook</h1>
-<p>
-<a href="https://github.com/datawhalechina/pumpkin-book/blob/master/README.md">简体中文</a> | <a href="https://github.com/datawhalechina/pumpkin-book/blob/master/README_french.md">Français</a>
-</p>
-<p>
-<strong>配套视频教程:https://www.bilibili.com/video/BV1Mh411e7VU</strong>
-</p>
-</div>
-
 “周志华老师的《机器学习》(西瓜书)是机器学习领域的经典入门教材之一,周老师为了使尽可能多的读者通过西瓜书对机器学习有所了解, 所以在书中对部分公式的推导细节没有详述,但是这对那些想深究公式推导细节的读者来说可能“不太友好”,本书旨在对西瓜书里比较难理解的公式加以解析,以及对部分公式补充具体的推导细节。”
 
 读到这里,大家可能会疑问为啥前面这段话加了引号,因为这只是我们最初的遐想,后来我们了解到,周老师之所以省去这些推导细节的真实原因是,他本尊认为“理工科数学基础扎实点的大二下学生应该对西瓜书中的推导细节无困难吧,要点在书里都有了,略去的细节应能脑补或做练习”。所以......本南瓜书只能算是我等数学渣渣在自学的时候记下来的笔记,希望能够帮助大家都成为一名合格的“理工科数学基础扎实点的大二下学生”。
@@ -17,34 +6,36 @@
 - 南瓜书的所有内容都是以西瓜书的内容为前置知识进行表述的,所以南瓜书的最佳使用方法是以西瓜书为主线,遇到自己推导不出来或者看不懂的公式时再来查阅南瓜书;
 - 对于初学机器学习的小白,西瓜书第1章和第2章的公式**强烈不建议深究**,简单过一下即可,等你学得有点飘的时候再回来啃都来得及;
 - 每个公式的解析和推导我们都力争以本科数学基础的视角进行讲解,所以超纲的数学知识我们通常都会以附录和参考文献的形式给出,感兴趣的同学可以继续沿着我们给的资料进行深入学习;
-- 若南瓜书里没有你想要查阅的公式,或者你发现南瓜书哪个地方有错误,请毫不犹豫地去我们GitHub的Issues( 地址:https://github.com/datawhalechina/pumpkin-book/issues )进行反馈,在对应版块提交你希望补充的公式编号或者勘误信息,我们通常会在24小时以内给您回复,超过24小时未回复的话可以微信联系我们(微信号:at-Sm1les);
+- 若南瓜书里没有你想要查阅的公式,或者你发现南瓜书哪个地方有错误,请毫不犹豫地去我们GitHub的Issues( 地址:[https://github.com/datawhalechina/pumpkin-book/issues](https://github.com/datawhalechina/pumpkin-book/issues) )进行反馈,在对应版块提交你希望补充的公式编号或者勘误信息,我们通常会在24小时以内给您回复,超过24小时未回复的话可以微信联系我们(微信号:at-Sm1les);
 
-### 纸质版
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/nangua_v2.jpg" width="300">
+## 配套资源
+视频教程:[https://www.bilibili.com/video/BV1Mh411e7VU](https://www.bilibili.com/video/BV1Mh411e7VU)
 
-购买链接:[京东](https://item.jd.com/13989990.html) | [当当](http://product.dangdang.com/29579286.html) | [天猫](https://detail.tmall.com/item.htm?abbucket=12&id=720482241470)
+在线阅读:[https://www.datawhale.cn/learn/summary/2](https://www.datawhale.cn/learn/summary/2)
+
+PDF版本下载:[https://github.com/datawhalechina/pumpkin-book/releases](https://github.com/datawhalechina/pumpkin-book/releases)
 
-勘误表:https://datawhalechina.github.io/pumpkin-book/#/errata
+## 纸质版
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/nangua_v2.jpg" width="300" height="316">
 
-配套视频教程:https://www.bilibili.com/video/BV1Mh411e7VU
+购买链接:[京东](https://item.jd.com/13989990.html) | [当当](http://product.dangdang.com/29579286.html) | [天猫](https://detail.tmall.com/item.htm?abbucket=12&id=720482241470)
+
+勘误表:[https://datawhalechina.github.io/pumpkin-book/#/errata](https://datawhalechina.github.io/pumpkin-book/#/errata)
 
-### 在线阅读(仅供第1版)
-地址:https://datawhalechina.github.io/pumpkin-book
+### 纸质版和开源版的区别
 
-### 最新版PDF下载
-地址:https://github.com/datawhalechina/pumpkin-book/releases
+开源版本是我们寄送出版社的全书初稿,经由人民邮电出版社的编辑老师们对初稿进行了反复修缮最终诞生了纸质书籍,在此向人民邮电出版社的编辑老师的认真严谨表示衷心的感谢!(附:校对样稿)
 
-#### 纸质版和PDF版的区别
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao1.jpg" width="300" height="225">
 
-PDF版本是我们寄送出版社的全书初稿,经由人民邮电出版社的编辑老师们对初稿进行了反复修缮最终诞生了纸质书籍,在此向人民邮电出版社的编辑老师的认真严谨表示衷心的感谢!(附:校对样稿)
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao2.jpg" width="300" height="225">
 
-<center class="half"><img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao1.jpg" width="300"><img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao2.jpg" width="300"></center>
+## 配套的西瓜书版本
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/xigua.jpg" width="300" height= "350">
 
-### 选用的西瓜书版本
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/xigua.jpg" width="150" height= "175">
+版次:2016年1月第1版
 
-> 版次:2016年1月第1版<br>
-> 勘误表:http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm
+勘误表:[http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm](http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm)
 
 ## 编委会
 | 职责 | 名单 |
@@ -61,10 +52,9 @@ PDF版本是我们寄送出版社的全书初稿,经由人民邮电出版社
 特别感谢[@awyd234](https://github.com/awyd234)、[@feijuan](https://github.com/feijuan)、[@Ggmatch](https://github.com/Ggmatch)、[@Heitao5200](https://github.com/Heitao5200)、[@xhqing](https://github.com/xhqing)、[@LongJH](https://github.com/LongJH)、[@LilRachel](https://github.com/LilRachel)、[@LeoLRH](https://github.com/LeoLRH)、[@Nono17](https://github.com/Nono17)、[@spareribs](https://github.com/spareribs)、[@sunchaothu](https://github.com/sunchaothu)、[@StevenLzq](https://github.com/StevenLzq) 在最早期的时候对南瓜书所做的贡献。
 
 ## 关注我们
-<div align=center>
-<p>扫描下方二维码关注公众号:Datawhale,然后回复关键词“南瓜书”,即可加入“南瓜书读者交流群”</p>
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/qrcode.jpeg" width = "180" height = "180">
-</div>
+扫描下方二维码关注公众号:Datawhale,然后发送“南瓜书”,即可获取“南瓜书读者交流群”入群方式
+
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/qrcode.jpeg" width="180" height="180">
 
 ## LICENSE
-<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/"><img alt="知识共享许可协议" style="border-width:0" src="https://img.shields.io/badge/license-CC%20BY--NC--SA%204.0-lightgrey" /></a><br />本作品采用<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议</a>进行许可。
+本作品采用[知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议](http://creativecommons.org/licenses/by-nc-sa/4.0/)进行许可。

+ 23 - 33
docs/README.md

@@ -1,14 +1,3 @@
-<div align=center>
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/pumpkin.png" >
-<h1>南瓜书PumpkinBook</h1>
-<p>
-<a href="https://github.com/datawhalechina/pumpkin-book/blob/master/README.md">简体中文</a> | <a href="https://github.com/datawhalechina/pumpkin-book/blob/master/README_french.md">Français</a>
-</p>
-<p>
-<strong>配套视频教程:https://www.bilibili.com/video/BV1Mh411e7VU</strong>
-</p>
-</div>
-
 “周志华老师的《机器学习》(西瓜书)是机器学习领域的经典入门教材之一,周老师为了使尽可能多的读者通过西瓜书对机器学习有所了解, 所以在书中对部分公式的推导细节没有详述,但是这对那些想深究公式推导细节的读者来说可能“不太友好”,本书旨在对西瓜书里比较难理解的公式加以解析,以及对部分公式补充具体的推导细节。”
 
 读到这里,大家可能会疑问为啥前面这段话加了引号,因为这只是我们最初的遐想,后来我们了解到,周老师之所以省去这些推导细节的真实原因是,他本尊认为“理工科数学基础扎实点的大二下学生应该对西瓜书中的推导细节无困难吧,要点在书里都有了,略去的细节应能脑补或做练习”。所以......本南瓜书只能算是我等数学渣渣在自学的时候记下来的笔记,希望能够帮助大家都成为一名合格的“理工科数学基础扎实点的大二下学生”。
@@ -17,34 +6,36 @@
 - 南瓜书的所有内容都是以西瓜书的内容为前置知识进行表述的,所以南瓜书的最佳使用方法是以西瓜书为主线,遇到自己推导不出来或者看不懂的公式时再来查阅南瓜书;
 - 对于初学机器学习的小白,西瓜书第1章和第2章的公式**强烈不建议深究**,简单过一下即可,等你学得有点飘的时候再回来啃都来得及;
 - 每个公式的解析和推导我们都力争以本科数学基础的视角进行讲解,所以超纲的数学知识我们通常都会以附录和参考文献的形式给出,感兴趣的同学可以继续沿着我们给的资料进行深入学习;
-- 若南瓜书里没有你想要查阅的公式,或者你发现南瓜书哪个地方有错误,请毫不犹豫地去我们GitHub的Issues( 地址:https://github.com/datawhalechina/pumpkin-book/issues )进行反馈,在对应版块提交你希望补充的公式编号或者勘误信息,我们通常会在24小时以内给您回复,超过24小时未回复的话可以微信联系我们(微信号:at-Sm1les);
+- 若南瓜书里没有你想要查阅的公式,或者你发现南瓜书哪个地方有错误,请毫不犹豫地去我们GitHub的Issues( 地址:[https://github.com/datawhalechina/pumpkin-book/issues](https://github.com/datawhalechina/pumpkin-book/issues) )进行反馈,在对应版块提交你希望补充的公式编号或者勘误信息,我们通常会在24小时以内给您回复,超过24小时未回复的话可以微信联系我们(微信号:at-Sm1les);
 
-### 纸质版
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/nangua_v2.jpg" width="300">
+## 配套资源
+视频教程:[https://www.bilibili.com/video/BV1Mh411e7VU](https://www.bilibili.com/video/BV1Mh411e7VU)
 
-购买链接:[京东](https://item.jd.com/13989990.html) | [当当](http://product.dangdang.com/29579286.html) | [天猫](https://detail.tmall.com/item.htm?abbucket=12&id=720482241470)
+在线阅读:[https://www.datawhale.cn/learn/summary/2](https://www.datawhale.cn/learn/summary/2)
+
+PDF版本下载:[https://github.com/datawhalechina/pumpkin-book/releases](https://github.com/datawhalechina/pumpkin-book/releases)
 
-勘误表:https://datawhalechina.github.io/pumpkin-book/#/errata
+## 纸质版
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/nangua_v2.jpg" width="300" height="316">
 
-配套视频教程:https://www.bilibili.com/video/BV1Mh411e7VU
+购买链接:[京东](https://item.jd.com/13989990.html) | [当当](http://product.dangdang.com/29579286.html) | [天猫](https://detail.tmall.com/item.htm?abbucket=12&id=720482241470)
+
+勘误表:[https://datawhalechina.github.io/pumpkin-book/#/errata](https://datawhalechina.github.io/pumpkin-book/#/errata)
 
-### 在线阅读(仅供第1版)
-地址:https://datawhalechina.github.io/pumpkin-book
+### 纸质版和开源版的区别
 
-### 最新版PDF下载
-地址:https://github.com/datawhalechina/pumpkin-book/releases
+开源版本是我们寄送出版社的全书初稿,经由人民邮电出版社的编辑老师们对初稿进行了反复修缮最终诞生了纸质书籍,在此向人民邮电出版社的编辑老师的认真严谨表示衷心的感谢!(附:校对样稿)
 
-#### 纸质版和PDF版的区别
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao1.jpg" width="300" height="225">
 
-PDF版本是我们寄送出版社的全书初稿,经由人民邮电出版社的编辑老师们对初稿进行了反复修缮最终诞生了纸质书籍,在此向人民邮电出版社的编辑老师的认真严谨表示衷心的感谢!(附:校对样稿)
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao2.jpg" width="300" height="225">
 
-<center class="half"><img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao1.jpg" width="300"><img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/yanggao2.jpg" width="300"></center>
+## 配套的西瓜书版本
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/xigua.jpg" width="300" height= "350">
 
-### 选用的西瓜书版本
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/xigua.jpg" width="150" height= "175">
+版次:2016年1月第1版
 
-> 版次:2016年1月第1版<br>
-> 勘误表:http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm
+勘误表:[http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm](http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm)
 
 ## 编委会
 | 职责 | 名单 |
@@ -61,10 +52,9 @@ PDF版本是我们寄送出版社的全书初稿,经由人民邮电出版社
 特别感谢[@awyd234](https://github.com/awyd234)、[@feijuan](https://github.com/feijuan)、[@Ggmatch](https://github.com/Ggmatch)、[@Heitao5200](https://github.com/Heitao5200)、[@xhqing](https://github.com/xhqing)、[@LongJH](https://github.com/LongJH)、[@LilRachel](https://github.com/LilRachel)、[@LeoLRH](https://github.com/LeoLRH)、[@Nono17](https://github.com/Nono17)、[@spareribs](https://github.com/spareribs)、[@sunchaothu](https://github.com/sunchaothu)、[@StevenLzq](https://github.com/StevenLzq) 在最早期的时候对南瓜书所做的贡献。
 
 ## 关注我们
-<div align=center>
-<p>扫描下方二维码关注公众号:Datawhale,然后回复关键词“南瓜书”,即可加入“南瓜书读者交流群”</p>
-<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/qrcode.jpeg" width = "180" height = "180">
-</div>
+扫描下方二维码关注公众号:Datawhale,然后发送“南瓜书”,即可获取“南瓜书读者交流群”入群方式
+
+<img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/res/qrcode.jpeg" width="180" height="180">
 
 ## LICENSE
-<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/"><img alt="知识共享许可协议" style="border-width:0" src="https://img.shields.io/badge/license-CC%20BY--NC--SA%204.0-lightgrey" /></a><br />本作品采用<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议</a>进行许可。
+本作品采用[知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议](http://creativecommons.org/licenses/by-nc-sa/4.0/)进行许可。

+ 89 - 19
docs/chapter1/chapter1.md

@@ -1,26 +1,96 @@
-## 1.1
-$$E_{o t e}\left(\mathfrak{L}_{a} | X, f\right)=\sum_{h} \sum_{\boldsymbol{x} \in \mathcal{X}-X} P(\boldsymbol{x}) \mathbb{I}(h(\boldsymbol{x}) \neq f(\boldsymbol{x})) P\left(h | X, \mathfrak{L}_{a}\right)$$
-[解析]:参见公式(1.2)
+# 第1章 绪论
+
+本章作为"西瓜书"的开篇,主要讲解什么是机器学习以及机器学习的相关数学符号,为后续内容作铺垫,并未涉及复杂的算法理论,因此阅读本章时只需耐心梳理清楚所有概念和数学符号即可。此外,在阅读本章前建议先阅读西瓜书目录前页的《主要符号表》,它能解答在阅读"西瓜书"过程中产生的大部分对数学符号的疑惑。
+
+本章也作为本书的开篇,笔者在此赘述一下本书的撰写初衷,本书旨在以"过来人"的视角陪读者一起阅读"西瓜书",尽力帮读者消除阅读过程中的"数学恐惧",只要读者学习过《高等数学》、《线性代数》和《概率论与数理统计》这三门大学必修的数学课,均能看懂本书对西瓜书中的公式所做的解释和推导,同时也能体会到这三门数学课在机器学习上碰撞产生的"数学之美"。
+
+## 1.1 引言
+
+本节以概念理解为主,在此对"算法"和"模型"作补充说明。"算法"是指从数据中学得"模型"的具体方法,例如后续章节中将会讲述的线性回归、对数几率回归、决策树等。"算法"产出的结果称为"模型",通常是具体的函数或者可抽象地看作为函数,例如一元线性回归算法产出的模型即为形如$f(x)=wx+b$的一元一次函数。不过由于严格区分这两者的意义不大,因此多数文献和资料会将其混用,当遇到这两个概念时,其具体指代根据上下文判断即可。
+
+## 1.2 基本术语
+
+本节涉及的术语较多且很多术语都有多个称呼,下面梳理各个术语,并将最常用的称呼加粗标注。
+
+**样本**:也称为"示例",是关于一个事件或对象的描述。因为要想让计算机能对现实生活中的事物进行机器学习,必须先将其抽象为计算机能理解的形式,计算机最擅长做的就是进行数学运算,因此考虑如何将其抽象为某种数学形式。显然,线性代数中的向量就很适合,因为任何事物都可以由若干"特征"(或称为"属性")唯一刻画出来,而向量的各个维度即可用来描述各个特征。例如,如果用色泽、根蒂和敲声这3个特征来刻画西瓜,那么一个"色泽青绿,根蒂蜷缩,敲声清脆"的西瓜用向量来表示即为$\boldsymbol{x}=(\text{青绿};\text{蜷缩};\text{清脆})$ **(向量中的元素用分号";"分隔时表示此向量为列向量,用逗号","分隔时表示为行向量)**,其中青绿、蜷缩和清脆分别对应为相应特征的取值,也称为"属性值"。显然,用中文书写向量的方式不够"数学",因此需要将属性值进一步数值化,具体例子参见"西瓜书"第3章3.2。此外,仅靠以上3个特征来刻画西瓜显然不够全面细致,因此还需要扩展更多维度的特征,一般称此类与特征处理相关的工作为"特征工程"。
+
+**样本空间**:也称为"输入空间"或"属性空间"。由于样本采用的是标明各个特征取值的"特征向量"来进行表示,根据线性代数的知识可知,有向量便会有向量所在的空间,因此称表示样本的特征向量所在的空间为样本空间,通常用花式大写的$\mathcal{X}$表示。
+
+**数据集**:数据集通常用集合来表示,令集合$D=\{\boldsymbol{x}_{1},\boldsymbol{x}_{2},...,\boldsymbol{x}_{m}\}$表示包含$m$个样本的数据集,一般同一份数据集中的每个样本都含有相同个数的特征,假设此数据集中的每个样本都含有$d$个特征,则第$i$个样本的数学表示为$d$维向量:$\boldsymbol{x}_{i}=(x_{i1};x_{i2};...;x_{id})$,其中$x_{ij}$表示样本$\boldsymbol{x}_{i}$在第$j$个属性上的取值。
+
+**模型**:机器学习的一般流程如下:首先收集若干样本(假设此时有100个),然后将其分为训练样本(80个)和测试样本(20个),其中80个训练样本构成的集合称为"训练集",20个测试样本构成的集合称为"测试集",接着选用某个机器学习算法,让其在训练集上进行"学习"(或称为"训练"),然后产出得到"模型"(或称为"学习器"),最后用测试集来测试模型的效果。执行以上流程时,表示我们已经默认样本的背后是存在某种潜在的规律,我们称这种潜在的规律为"真相"或者"真实",例如样本是一堆好西瓜和坏西瓜时,我们默认的便是好西瓜和坏西瓜背后必然存在某种规律能将其区分开。当我们应用某个机器学习算法来学习时,产出得到的模型便是该算法所找到的它自己认为的规律,由于该规律通常并不一定就是所谓的真相,所以也将其称为"假设"。通常机器学习算法都有可配置的参数,同一个机器学习算法,使用不同的参数配置或者不同的训练集,训练得到的模型通常都不同。
+
+**标记**:上文提到机器学习的本质就是在学习样本在某个方面的表现是否存在潜在的规律,我们称该方面的信息为"标记"。例如在学习西瓜的好坏时,"好瓜"和"坏瓜"便是样本的标记。一般第$i$个样本的标记的数学表示为$y_i$,标记所在的空间称为"标记空间"或"输出空间",数学表示为花式大写的$\mathcal{Y}$。标记通常也看作为样本的一部分,因此,一个完整的样本通常表示为$(\boldsymbol{x}, y)$。
+
+根据标记的取值类型不同,可将机器学习任务分为以下两类:
+
+-   当标记取值为离散型时,称此类任务为"分类",例如学习西瓜是好瓜还是坏瓜、学习猫的图片是白猫还是黑猫等。当分类的类别只有两个时,称此类任务为"二分类",通常称其中一个为"正类",另一个为"反类"或"负类";当分类的类别超过两个时,称此类任务为"多分类"。由于标记也属于样本的一部分,通常也需要参与运算,因此也需要将其数值化,例如对于二分类任务,通常将正类记为$1$,反类记为$0$,即$\mathcal{Y}=\{0,1\}$。这只是一般默认的做法,具体标记该如何数值化可根据具体机器学习算法进行相应地调整,例如第6章的支持向量机算法则采用的是$\mathcal{Y}=\{-1,+1\}$;
+
+-   当标记取值为连续型时,称此类任务为"回归",例如学习预测西瓜的成熟度、学习预测未来的房价等。由于是连续型,因此标记的所有可能取值无法直接罗列,通常只有取值范围,回归任务的标记取值范围通常是整个实数域$\mathbb{R}$,即$\mathcal{Y}=\mathbb{R}$。
+
+无论是分类还是回归,机器学习算法最终学得的模型都可以抽象地看作为以样本$\boldsymbol{x}$为自变量,标记$y$为因变量的函数$y=f(\boldsymbol{x})$,即一个从输入空间$\mathcal{X}$到输出空间$\mathcal{Y}$的映射。例如在学习西瓜的好坏时,机器学习算法学得的模型可看作为一个函数$f(\boldsymbol{x})$,给定任意一个西瓜样本$\boldsymbol{x}_{i}=(\text{青绿};\text{蜷缩};\text{清脆})$,将其输入进函数即可计算得到一个输出$y_{i}=f(\boldsymbol{x}_{i})$,此时得到的$y_{i}$便是模型给出的预测结果,当$y_i$取值为$1$时表明模型认为西瓜$\boldsymbol{x}_{i}$是好瓜,当$y_i$取值为$0$时表明模型认为西瓜$\boldsymbol{x}_{i}$是坏瓜。
+
+根据是否有用到标记信息,可将机器学习任务分为以下两类:
+
+-   在模型训练阶段有用到标记信息时,称此类任务为"监督学习",例如第3章的线性模型;
+
+-   在模型训练阶段没用到标记信息时,称此类任务为"无监督学习",例如第9章的聚类。
+
+**泛化**:由于机器学习的目标是根据已知来对未知做出尽可能准确的判断,因此对未知事物判断的准确与否才是衡量一个模型好坏的关键,我们称此为"泛化"能力。例如学习西瓜好坏时,假设训练集中共有3个样本:$\{(\boldsymbol{x}_{1}=(\text{青绿};\text{蜷缩}),y_{1}=\text{好瓜}),(\boldsymbol{x}_{2}=(\text{乌黑};\text{蜷缩}),y_{2}=\text{好瓜}),(\boldsymbol{x}_{3}=(\text{浅白};\text{蜷缩}),y_{3}=\text{好瓜})\}$,同时假设判断西瓜好坏的真相是"只要根蒂蜷缩就是好瓜",如果应用算法$A$在此训练集上训练得到模型$f_{a}(\boldsymbol{x})$,模型$a$学到的规律是"色泽等于青绿、乌黑或者浅白时,同时根蒂蜷缩即为好瓜,否则便是坏瓜",再应用算法$B$在此训练集上训练得到模型$f_{b}(\boldsymbol{x})$,模型$f_{b}(\boldsymbol{x})$学到的规律是"只要根蒂蜷缩就是好瓜",因此对于一个未见过的西瓜样本$\boldsymbol{x}=(\text{金黄};\text{蜷缩})$来说,模型$f_{a}(\boldsymbol{x})$给出的预测结果为"坏瓜",模型$f_{b}(\boldsymbol{x})$给出的预测结果为"好瓜",此时我们称模型$f_{b}(\boldsymbol{x})$的泛化能力优于模型$f_{a}(\boldsymbol{x})$。
+
+通过以上举例可知,尽管模型$f_{a}(\boldsymbol{x})$和模型$f_{b}(\boldsymbol{x})$对训练集学得一样好,即两个模型对训练集中每个样本的判断都对,但是其所学到的规律是不同的。导致此现象最直接的原因是算法的不同,但是算法通常是有限的,可穷举的,尤其是在特定任务场景下可使用的算法更是有限,因此,数据便是导致此现象的另一重要原因,这也就是机器学习领域常说的"数据决定模型的上限,而算法则是让模型无限逼近上限",下面详细解释此话的含义。
+
+先解释"数据决定模型效果的上限",其中数据是指从数据量和特征工程两个角度考虑。从数据量的角度来说,通常数据量越大模型效果越好,因为数据量大即表示累计的经验多,因此模型学习到的经验也多,自然表现效果越好。例如以上举例中如果训练集中含有相同颜色但根蒂不蜷缩的坏瓜,模型$a$学到真相的概率则也会增大;从特征工程的角度来说,通常对特征数值化越合理,特征收集越全越细致,模型效果通常越好,因为此时模型更易学得样本之间潜在的规律。例如学习区分亚洲人和非洲人时,此时样本即为人,在进行特征工程时,如果收集到每个样本的肤色特征,则其他特征例如年龄、身高和体重等便可省略,因为只需靠肤色这一个特征就足以区分亚洲人和非洲人。
+
+而"算法则是让模型无限逼近上限"是指当数据相关的工作已准备充分时,接下来便可用各种可适用的算法从数据中学习其潜在的规律进而得到模型,不同的算法学习得到的模型效果自然有高低之分,效果越好则越逼近上限,即逼近真相。
+
+**分布**:此处的"分布"指的是概率论中的概率分布,通常假设样本空间服从一个未知"分布"$\mathcal{D}$,而我们收集到的每个样本都是独立地从该分布中采样得到,即"独立同分布"。通常收集到的样本越多,越能从样本中反推出$\mathcal{D}$的信息,即越接近真相。此假设属于机器学习中的经典假设,在后续学习机器学习算法过程中会经常用到。
+
+## 1.3 假设空间
+
+本节的重点是理解"假设空间"和"版本空间",下面以"房价预测"举例说明。假设现已收集到某地区近几年的房价和学校数量数据,希望利用收集到的数据训练出能通过学校数量预测房价的模型,具体收集到的数据如表1-1所示。
+
+![表1-1 房价预测](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/03cecc8a-1ba3-4152-b11c-787f231efd4b-1-1.svg)
+
+基于对以上数据的观察以及日常生活经验,不难得出"房价与学校数量成正比"的假设,若将学校数量设为$x$,房价设为$y$,则该假设等价表示学校数量和房价呈$y=wx+b$的一元一次函数关系,此时房价预测问题的假设空间即为"一元一次函数"。确定假设空间以后便可以采用机器学习算法从假设空间中学得模型,即从一元一次函数空间中学得能满足表1-1中数值关系的某个一元一次函数。学完第3章的线性回归可知当前问题属于一元线性回归问题,根据一元线性回归算法可学得模型为$y=3x-2$。
+
+除此之外,也可以将问题复杂化,假设学校数量和房价呈$y=wx^{2}+b$一元二次函数关系,此时问题变为了线性回归中的多项式回归问题,按照多项式回归算法可学得模型为$y=x^2$。因此,以表1-1中数据作为训练集可以有多个假设空间,且在不同的假设空间中都有可能学得能够拟合训练集的模型,我们将所有能够拟合训练集的模型构成的集合称为"版本空间"。
+
+## 1.4 归纳偏好
+
+在上一节"房价预测"的例子中,当选用一元线性回归算法时,学得的模型是一元一次函数,当选用多项式回归算法时,学得的模型是一元二次函数,所以不同的机器学习算法有不同的偏好,我们称为"归纳偏好"。对于当前房价预测这个例子来说,这两个算法学得的模型哪个更好呢?著名的"奥卡姆剃刀"原则认为"若有多个假设与观察一致,则选最简单的那个",但是何为"简单"便见仁见智了,如果认为函数的幂次越低越简单,则此时一元线性回归算法更好,如果认为幂次越高越简单,则此时多项式回归算法更好,因此该方法其实并不"简单",所以并不常用,而最常用的方法则是基于模型在测试集上的表现来评判模型之间的优劣。测试集是指由训练集之外的样本构成的集合,例如在当前房价预测问题中,通常会额外留有部分未参与模型训练的数据来对模型进行测试。假设此时额外留有1条数据:$(\text{年份}:2022\text{年};\text{学校数量}:3\text{所};\text{房价}:7\text{万}/m^{2})$用于测试,模型$y=3x-2$的预测结果为$3*3-2=7$,预测正确,模型$y=x^2$的预测结果为$3^{2}=9$,预测错误,因此,在当前房价预测问题上,我们认为一元线性回归算法优于多项式回归算法。
+
+机器学习算法之间没有绝对的优劣之分,只有是否适合当前待解决的问题之分,例如上述测试集中的数据如果改为$(\text{年份}:2022\text{年};\text{学校数量}:3\text{所};\text{房价}:9\text{万}/m^{2})$则结论便逆转为多项式回归算法优于一元线性回归算法。
+
+### 1.4.1 式(1.1)和式(1.2)的解释
 
-## 1.2
 $$\begin{aligned}
-\sum_{f}E_{ote}(\mathfrak{L}_a\vert X,f) &= \sum_f\sum_h\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h\vert X,\mathfrak{L}_a) \\
-&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a)\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x})) \\
-&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a)\cfrac{1}{2}2^{\vert \mathcal{X} \vert} \\
-&=\cfrac{1}{2}2^{\vert \mathcal{X} \vert}\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a) \\
-&=2^{\vert \mathcal{X} \vert-1}\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \cdot 1\\
+\sum_{f}E_{ote}(\mathfrak{L}_a| X,f) &= \sum_f\sum_h\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h| X,\mathfrak{L}_a)&\textcircled{1}\\
+&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h| X,\mathfrak{L}_a)\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))&\textcircled{2}  \\
+&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h| X,\mathfrak{L}_a)\cfrac{1}{2}2^{| \mathcal{X} |}&\textcircled{3} \\
+&=\cfrac{1}{2}2^{| \mathcal{X} |}\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h| X,\mathfrak{L}_a)&\textcircled{4} \\
+&=2^{| \mathcal{X} |-1}\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \cdot 1 &\textcircled{5}\\
 \end{aligned}$$
-[解析]:第1步到第2步:
+
+$\textcircled{1} \to \textcircled{2}$:
+
 $$\begin{aligned}
-&\sum_f\sum_h\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h\vert X,\mathfrak{L}_a) \\
-&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\sum_f\sum_h\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h\vert X,\mathfrak{L}_a) \\
-&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h\vert X,\mathfrak{L}_a)\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x})) \\
+&\sum_f\sum_h\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h| X,\mathfrak{L}_a) \\
+&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x})\sum_f\sum_h\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x}))P(h| X,\mathfrak{L}_a) \\
+&=\sum_{\boldsymbol{x}\in\mathcal{X}-X}P(\boldsymbol{x}) \sum_hP(h| X,\mathfrak{L}_a)\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x})) \\
 \end{aligned}$$
-第2步到第3步:首先要知道此时我们对$f$的假设是任何能将样本映射到{0,1}的函数且服从均匀分布,也就是说不止一个$f$且每个$f$出现的概率相等,例如样本空间只有两个样本时:$ \mathcal{X}=\{\boldsymbol{x}_1,\boldsymbol{x}_2\},\vert \mathcal{X} \vert=2$,那么所有的真实目标函数$f$为:
+
+$\textcircled{2} \to \textcircled{3}$:首先要知道此时我们假设$f$是任何能将样本映射到$\{0,1\}$的函数。存在不止一个$f$时,$f$服从均匀分布,即每个$f$出现的概率相等。例如样本空间只有两个样本时,$\mathcal{X}=\{\boldsymbol{x}_1,\boldsymbol{x}_2\},|
+\mathcal{X} |=2$。那么所有可能的真实目标函数$f$如下:
+
 $$\begin{aligned}
-f_1:f_1(\boldsymbol{x}_1)=0,f_1(\boldsymbol{x}_2)=0;\\
-f_2:f_2(\boldsymbol{x}_1)=0,f_2(\boldsymbol{x}_2)=1;\\
-f_3:f_3(\boldsymbol{x}_1)=1,f_3(\boldsymbol{x}_2)=0;\\
-f_4:f_4(\boldsymbol{x}_1)=1,f_4(\boldsymbol{x}_2)=1;
+f_1:f_1(\boldsymbol{x}_1)=0,f_1(\boldsymbol{x}_2)=0\\
+f_2:f_2(\boldsymbol{x}_1)=0,f_2(\boldsymbol{x}_2)=1\\
+f_3:f_3(\boldsymbol{x}_1)=1,f_3(\boldsymbol{x}_2)=0\\
+f_4:f_4(\boldsymbol{x}_1)=1,f_4(\boldsymbol{x}_2)=1
 \end{aligned}$$
-一共$2^{\vert \mathcal{X} \vert}=2^2=4$个真实目标函数。所以此时通过算法$\mathfrak{L}_a$学习出来的模型$h(\boldsymbol{x})$对每个样本无论预测值为0还是1必然有一半的$f$与之预测值相等,例如,现在学出来的模型$h(\boldsymbol{x})$对$\boldsymbol{x}_1$的预测值为1,也即$h(\boldsymbol{x}_1)=1$,那么有且只有$f_3$和$f_4$与$h(\boldsymbol{x})$的预测值相等,也就是有且只有一半的$f$与它预测值相等,所以$\sum_f\mathbb{I}(h(\boldsymbol{x})\neq f(\boldsymbol{x})) = \cfrac{1}{2}2^{\vert \mathcal{X} \vert} $;第3步一直到最后显然成立。值得一提的是,在这里我们假设真实的目标函数$f$为“任何能将样本映射到{0,1}的函数且服从均匀分布”,但是实际情形并非如此,通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数,例如,现在已有的样本数据为$\{(\boldsymbol{x}_1,0),(\boldsymbol{x}_2,1)\}$,那么此时$f_2$才是我们认为的真实目标函数,由于没有收集到或者压根不存在$\{(\boldsymbol{x}_1,0),(\boldsymbol{x}_2,0)\},\{(\boldsymbol{x}_1,1),(\boldsymbol{x}_2,0)\},\{(\boldsymbol{x}_1,1),(\boldsymbol{x}_2,1)\}$这类样本,所以$f_1,f_3,f_4$都不算是真实目标函数。这也就是西瓜书公式(1.3)下面的第3段话举的“骑自行车”的例子所想表达的内容。
+
+一共$2^{| \mathcal{X} |}=2^2=4$个可能的真实目标函数。所以此时通过算法$\mathfrak{L}_a$学习出来的模型$h(\boldsymbol{x})$对每个样本无论预测值为0还是1,都必然有一半的$f$与之预测值相等。例如,现在学出来的模型$h(\boldsymbol{x})$对$\boldsymbol{x}_1$的预测值为1,即$h(\boldsymbol{x}_1)=1$,那么有且只有$f_3$和$f_4$与$h(\boldsymbol{x})$的预测值相等,也就是有且只有一半的$f$与它预测值相等,所以$\sum_f\mathbb{I}(h(\boldsymbol{x})\neq
+f(\boldsymbol{x})) = \frac{1}{2}2^{| \mathcal{X} |}$。
+
+需要注意的是,在这里我们假设真实的目标函数$f$服从均匀分布,但是实际情形并非如此,通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数,例如,现在已有的样本数据为$\{(\boldsymbol{x}_1,0),(\boldsymbol{x}_2,1)\}$,那么此时$f_2$才是我们认为的真实目标函数,由于没有收集到或者压根不存在$\{(\boldsymbol{x}_1,0),(\boldsymbol{x}_2,0)\}\{(\boldsymbol{x}_1,1),(\boldsymbol{x}_2,0)\},\{(\boldsymbol{x}_1,1),(\boldsymbol{x}_2,1)\}$这类样本,所以$f_1,f_3,f_4$都不算是真实目标函数。套用到上述"房价预测"的例子中,我们认为只有能正确拟合测试集的函数才是真实目标函数,也就是我们希望学得的模型。

+ 1740 - 212
docs/chapter10/chapter10.md

@@ -1,407 +1,1935 @@
-## 10.1
+# 第10章 降维与度量学习
+
+## 10.1 预备知识
+
+本章内容需要较多的线性代数和矩阵分析的基础,因此将相关的预备知识整体整理如下。
+
+### 10.1.1 符号约定
+
+向量元素之间分号 ";" 表示列元素分隔符, 如
+$\boldsymbol{\alpha}=\left(a_1 ; a_2 ; \ldots ; a_i ; \ldots ; a_m\right)$
+表示 $m \times 1$ 的列向量; 而逗号 "," 表示行元素分隔符, 如
+$\boldsymbol{\alpha}=\left(a_1, a_2, \ldots, a_i, \ldots, a_m\right)$
+表示 $1 \times m$ 的 行向量。
+
+### 10.1.2 矩阵与单位阵、向量的乘法
+
+(1)矩阵左乘对角阵相当于矩阵每行乘以对应对角阵的对角线元素, 如:
+
 
 $$
-P(e r r)=1-\sum_{c \in \mathcal{Y}} P(c | \boldsymbol{x}) P(c | \boldsymbol{z})
+
+\left[\begin{array}{lll}
+\lambda_1 & & \\
+& \lambda_2 & \\
+& & \lambda_3
+\end{array}\right]\left[\begin{array}{lll}
+x_{11} & x_{12} & x_{13} \\
+x_{21} & x_{22} & x_{23} \\
+x_{31} & x_{32} & x_{33}
+\end{array}\right]=\left[\begin{array}{lll}
+\lambda_1 x_{11} & \lambda_1 x_{12} & \lambda_1 x_{13} \\
+\lambda_2 x_{21} & \lambda_2 x_{22} & \lambda_2 x_{23} \\
+\lambda_3 x_{31} & \lambda_3 x_{32} & \lambda_3 x_{33}
+\end{array}\right]
+
 $$
 
-[解析]:$P(c | \boldsymbol{x}) P(c | \boldsymbol{z})$表示$x$和$z$同属类$c$的概率,对所有可能的类别$c\in\mathcal{Y}$求和,则得到$x$和$z$同属相同类别的概率,因此$1-\sum_{c \in \mathcal{Y}} P(c | \boldsymbol{x}) P(c | \boldsymbol{z})$表示$x$和$z$分属不同类别的概率。
 
 
+(2)矩阵右乘对角阵相当于矩阵每列乘以对应对角阵的对角线元素, 如:
 
-## 10.2
 
 $$
-\begin{aligned}
-P(e r r) &=1-\sum_{c \in \mathcal{Y}} P(c | \boldsymbol{x}) P(c | \boldsymbol{z}) \\
-& \simeq 1-\sum_{c \in \mathcal{Y}} P^{2}(c | \boldsymbol{x}) \\
-& \leqslant 1-P^{2}\left(c^{*} | \boldsymbol{x}\right) \\
-&=\left(1+P\left(c^{*} | \boldsymbol{x}\right)\right)\left(1-P\left(c^{*} | \boldsymbol{x}\right)\right) \\
-& \leqslant 2 \times\left(1-P\left(c^{*} | \boldsymbol{x}\right)\right)
-\end{aligned}
+
+\left[\begin{array}{lll}
+x_{11} & x_{12} & x_{13} \\
+x_{21} & x_{22} & x_{23} \\
+x_{31} & x_{32} & x_{33}
+\end{array}\right]\left[\begin{array}{llll}
+\lambda_1 & & \\
+& \lambda_2 & \\
+& & \lambda_3
+\end{array}\right]=\left[\begin{array}{lll}
+\lambda_1 x_{11} & \lambda_2 x_{12} & \lambda_3 x_{13} \\
+\lambda_1 x_{21} & \lambda_2 x_{22} & \lambda_3 x_{23} \\
+\lambda_1 x_{31} & \lambda_2 x_{32} & \lambda_3 x_{33}
+\end{array}\right]
+
 $$
 
-[解析]:第二个式子是来源于前提假设"假设样本独立同分布,且对任意$x$和任意小正数$\delta$,在$x$附近$\delta$距离范围内总能找到一个训练样本",假设所有$\delta$中最小的$\delta$组成和$\boldsymbol{x}$同一维度的向量$\boldsymbol{\delta}$则$P(c | \boldsymbol{z}) = P(c | \boldsymbol{x\pm\delta})\simeq P(c|\boldsymbol{x})$。第三个式子是应为$c^{*}\in\mathcal{Y}$,因此$P^{2}\left(c^{*} | \boldsymbol{x}\right)$是$\sum_{c \in \mathcal{Y}} P^{2}(c | \boldsymbol{x})$的一个分量,所以$\sum_{c \in \mathcal{Y}} P^{2}(c | \boldsymbol{x}) \geqslant P^{2}\left(c^{*} | \boldsymbol{x}\right)$。第四个式子是平方差公式展开,最后一个式子因为$1 + P\left(c^{*} | \boldsymbol{x}\right)\leqslant 2$。
 
 
+(3)矩阵左乘行向量相当于矩阵每行乘以对应行向量的元素之和, 如:
 
-## 10.3
 
 $$
+
 \begin{aligned}
-\operatorname{dist}_{i j}^{2} &=\left\|\boldsymbol{z}_{i}\right\|^{2}+\left\|\boldsymbol{z}_{j}\right\|^{2}-2 \boldsymbol{z}_{i}^{\mathrm{T}} \boldsymbol{z}_{j} \\
-&=b_{i i}+b_{j j}-2 b_{i j}
+& {\left[\begin{array}{lll}
+\lambda_1 & \lambda_2 & \lambda_3
+\end{array}\right]\left[\begin{array}{lll}
+x_{11} & x_{12} & x_{13} \\
+x_{21} & x_{22} & x_{23} \\
+x_{31} & x_{32} & x_{33}
+\end{array}\right]} \\
+& =\lambda_1\left[\begin{array}{llll}
+x_{11} & x_{12} & x_{13}
+\end{array}\right]+\lambda_2\left[\begin{array}{lll}
+x_{21} & x_{22} & x_{23}
+\end{array}\right]+\lambda_3\left[\begin{array}{lll}
+x_{31} & x_{32} & x_{33}
+\end{array}\right] \\
+& =\left(\begin{array}{ll}
+\lambda_1 x_{11}+\lambda_2 x_{21}+\lambda_3 x_{31}, \lambda_1 x_{12}+\lambda_2 x_{22}+\lambda_3 x_{32}, \lambda_1 x_{13}+\lambda_2 x_{23}+\lambda_3 x_{33}
+\end{array}\right)
 \end{aligned}
+
 $$
 
-[推导]:
+
+
+(4)矩阵右乘列向量相当于矩阵每列乘以对应列向量的元素之和, 如:
+
+
 $$
+
 \begin{aligned}
-\operatorname{dist}_{i j}^{2} &=\left\|\boldsymbol{z}_{i}-\boldsymbol{z}_{j}\right\|^{2}=\left(\boldsymbol{z}_{i}-\boldsymbol{z}_{j}\right)^{\top}\left(\boldsymbol{z}_{i}-\boldsymbol{z}_{j}\right) \\
-&=\boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{i}-\boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j}-\boldsymbol{z}_{j}^{\top} \boldsymbol{z}_{i}+\boldsymbol{z}_{j}^{\top} \boldsymbol{z}_{j} \\
-&=\boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{i}+\boldsymbol{z}_{j}^{\top} \boldsymbol{z}_{j}-2 \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j} \\
-&=\left\|\boldsymbol{z}_{i}\right\|^{2}+\left\|\boldsymbol{z}_{j}\right\|^{2}-2 \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j} \\
-&=b_{i i}+b_{j j}-2 b_{i j}
+& {\left[\begin{array}{lll}
+x_{11} & x_{12} & x_{13} \\
+x_{21} & x_{22} & x_{23} \\
+x_{31} & x_{32} & x_{33}
+\end{array}\right]\left[\begin{array}{l}
+\lambda_1 \\
+\lambda_2 \\
+\lambda_3
+\end{array}\right]} \\
+& =\lambda_1\left[\begin{array}{l}
+x_{11} \\
+x_{21} \\
+x_{31}
+\end{array}\right]+\lambda_2\left[\begin{array}{l}
+x_{12} \\
+x_{22} \\
+x_{32}
+\end{array}\right]+\lambda_3\left[\begin{array}{l}
+x_{13} \\
+x_{23} \\
+x_{33}
+\end{array}\right]=\sum_{i=1}^3\left(\lambda_i\left[\begin{array}{l}
+x_{1 i} \\
+x_{2 i} \\
+x_{3 i}
+\end{array}\right]\right) \\
+& =\left(\lambda_1 x_{11}+\lambda_2 x_{12}+\lambda_3 x_{13} ; \lambda_1 x_{21}+\lambda_2 x_{22}+\lambda_3 x_{23} ; \lambda_1 x_{31}+\lambda_2 x_{32}+\lambda_3 x_{33}\right)
 \end{aligned}
+
 $$
 
 
-## 10.4
 
-$$
-\sum^m_{i=1}dist^2_{ij}=\operatorname{tr}(\boldsymbol B)+mb_{jj}
-$$
+综上, 左乘是对矩阵的行操作, 而右乘则是对矩阵的列操作,
+第(2)个和第(4)个结论后 面推导过程中灵活应用较多。
 
-[解析]:首先根据式10.3有
-$$
-\sum^m_{i=1}dist^2_{ij}= \sum^m_{i=1}b_{ii}+\sum^m_{i=1}b_{jj}-2\sum^m_{i=1}b_{ij}
-$$
-对于第一项,根据矩阵迹的定义,$\sum^m_{i=1}b_{ii} = tr(\boldsymbol B)$,对于第二项,由于求和号内元素和$i$无关,因此$\sum^m_{i=1}b_{jj}=mb_{jj}$,对于第三项有,
-$$
-\sum_{i=1}^{m} b_{i j}=\sum_{i=1}^{m} \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j}=
-\sum_{i=1}^{m} \boldsymbol{z}_{j}^{\top} \boldsymbol{z}_{i}=
-\boldsymbol{z}_{j}^{\top} \sum_{i=1}^{m} \boldsymbol{z}_{i}=
-\boldsymbol{z}_{j}^{\top} \cdot \mathbf{0}=0
-$$
-其中$\sum_{i=1}^{m} \boldsymbol{z}_{i}=\mathbf{0}$是利用了书上的前提条件,即将降维后的样本被中心化。
+## 10.2 矩阵的F范数与迹
+
+(1)对于矩阵 $\mathbf{A} \in \mathbb{R}^{m \times n}$, 其 Frobenius 范数
+(简称 $\mathrm{F}$ 范数) $\|\mathbf{A}\|_F$ 定义为
 
-## 10.5
 
 $$
-\sum_{j=1}^{m} \operatorname{dist}_{i j}^{2}=\operatorname{tr}(\mathbf{B})+m b_{i i}
+
+\|\mathbf{A}\|_F=\left(\sum_{i=1}^m \sum_{j=1}^n\left|a_{i j}\right|^2\right)^{\frac{1}{2}}
+
 $$
 
-[解析]:参考10.4
 
 
+其中 $a_{i j}$ 为矩阵 $\mathrm{A}$ 第 $i$ 行第 $j$ 列的元素, 即
 
-## 10.6
 
 $$
-\sum_{i=1}^{m} \sum_{j=1}^{m} \operatorname{dist}_{i j}^{2}=2 m \operatorname{tr}(\mathbf{B})
+
+\mathbf{A}=\left[\begin{array}{cccccc}
+a_{11} & a_{12} & \cdots & a_{1 j} & \cdots & a_{1 n} \\
+a_{21} & a_{22} & \cdots & a_{2 j} & \cdots & a_{2 n} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{i 1} & a_{i 2} & \cdots & a_{i j} & \cdots & a_{i n} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{m 1} & a_{m 2} & \cdots & a_{m j} & \cdots & a_{m n}
+\end{array}\right]
+
 $$
 
-[推导]:
+
+
+(2)若
+$\mathbf{A}=\left(\boldsymbol{\alpha}_1, \boldsymbol{\alpha}_2, \ldots, \boldsymbol{\alpha}_j, \ldots, \boldsymbol{\alpha}_n\right)$,
+其中
+$\boldsymbol{\alpha}_j=\left(a_{1 j} ; a_{2 j} ; \ldots ; a_{i j} ; \ldots ; a_{m j}\right)$
+为其列向量,
+$\mathbf{A} \in \mathbb{R}^{m \times n}, \boldsymbol{\alpha}_j \in \mathbb{R}^{m \times 1}$,
+则
+$\|\mathbf{A}\|_F^2=\sum_{j=1}^n\left\|\boldsymbol{\alpha}_j\right\|_2^2$;
+
+同理, 若
+$\mathbf{A}=\left(\boldsymbol{\beta}_1 ; \boldsymbol{\beta}_2 ; \ldots ; \boldsymbol{\beta}_i ; \ldots ; \boldsymbol{\beta}_m\right)$,
+其中
+$\boldsymbol{\beta}_i=\left(a_{i 1}, a_{i 2}, \ldots, a_{i j}, \ldots, a_{i n}\right)$
+为其行向量,
+$\mathbf{A} \in \mathbb{R}^{m \times n}, \boldsymbol{\beta}_i \in \mathbb{R}^{1 \times n}$,
+则
+$\|\mathbf{A}\|_F^2=\sum_{i=1}^m\left\|\boldsymbol{\beta}_i\right\|_2^2$
+。
+
+证明: 该结论是显而易见的, 因为
+$\left\|\boldsymbol{\alpha}_j\right\|_2^2=\sum_{i=1}^m\left|a_{i j}\right|^2$,
+而
+$\|\mathbf{A}\|_F^{2}=\sum_{i=1}^m \sum_{j=1}^n\left|a_{i j}\right|^2$
+。
+
+(3)若 $\lambda_j\left(\mathbf{A}^{\top} \mathbf{A}\right)$ 表示 $n$
+阶方阵 $\mathbf{A}^{\top} \mathbf{A}$ 的第 $j$ 个特征值,
+$\operatorname{tr}\left(\mathbf{A}^{\top} \mathbf{A}\right)$ 是
+$\mathbf{A}^{\top} \mathbf{A}$ 的迹(对角线 元素之和);
+$\lambda_i\left(\mathbf{A A}^{\top}\right)$ 表示 $m$ 阶方阵
+$\mathbf{A} \mathbf{A}^{\top}$ 的第 $i$ 个特征值,
+$\operatorname{tr}\left(\mathbf{A A}^{\top}\right)$ 是
+$\mathbf{A} \mathbf{A}^{\top}$ 的迹, 则 
+
 $$
+
 \begin{aligned}
-\sum_{i=1}^{m} \sum_{j=1}^{m} \operatorname{dist}_{i j}^{2} &=\sum_{i=1}^{m} \sum_{j=1}^{m}\left(\left\|z_{i}\right\|^{2}+\left\|\boldsymbol{z}_{j}\right\|^{2}-2 \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j}\right) \\
-&=\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{i}\right\|^{2}+\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{j}\right\|^{2}-2 \sum_{i=1}^{m} \sum_{j=1}^{m} \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j} \\
+\|\mathbf{A}\|_F^2 & =\operatorname{tr}\left(\mathbf{A}^{\top} \mathbf{A}\right)=\sum_{j=1}^n \lambda_j\left(\mathbf{A}^{\top} \mathbf{A}\right) \\
+& =\operatorname{tr}\left(\mathbf{A} \mathbf{A}^{\top}\right)=\sum_{i=1}^m \lambda_i\left(\mathbf{A} \mathbf{A}^{\top}\right)
 \end{aligned}
-$$
-其中
-$$
-\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{i}\right\|^{2}=m \sum_{i=1}^{m}\left\|\boldsymbol{z}_{i}\right\|^{2}=m \operatorname{tr}(\mathbf{B})
-$$
 
-$$
-\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{j}\right\|^{2}=m \sum_{j=1}^{m}\left\|\boldsymbol{z}_{j}\right\|^{2}=m \operatorname{tr}(\mathbf{B})
 $$
 
-$$
-\sum_{i=1}^{m} \sum_{j=1}^{m} \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j}=0
-$$
 
-最后一个式子是来自于书中的假设,假设降维后的样本$\mathbf{Z}$被中心化。
 
-## 10.10
+证明: 先证
+$\|\mathbf{A}\|_F^2=\operatorname{tr}\left(\mathbf{A}^{\top} \mathbf{A}\right)$,令
+$\mathbf{B}=\mathbf{A}^{\top} \mathbf{A} \in \mathbb{R}^{n \times n}, b_{i j}$
+表示 $\mathbf{B}$ 第 $i$ 行第 $j$ 列元素,
+$\operatorname{tr}(\mathbf{B})=\sum_{j=1}^n b_{j \jmath}$
+
 
 $$
-b_{ij}=-\frac{1}{2}(dist^2_{ij}-dist^2_{i\cdot}-dist^2_{\cdot j}+dist^2_{\cdot\cdot})
+
+\mathbf{B}=\mathbf{A}^{\top} \mathbf{A}=\left[\begin{array}{cccccc}
+a_{11} & a_{21} & \cdots & a_{i 1} & \cdots & a_{m 1} \\
+a_{12} & a_{22} & \cdots & a_{i 2} & \cdots & a_{m 2} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{1 j} & a_{2 j} & \cdots & a_{i j} & \cdots & a_{m j} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{1 n} & a_{2 n} & \cdots & a_{i n} & \cdots & a_{m n}
+\end{array}\right]\left[\begin{array}{cccccc}
+a_{11} & a_{12} & \cdots & a_{1 j} & \cdots & a_{1 n} \\
+a_{21} & a_{22} & \cdots & a_{2 j} & \cdots & a_{2 n} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{i 1} & a_{i 2} & \cdots & a_{i j} & \cdots & a_{i n} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{m 1} & a_{m 2} & \cdots & a_{m j} & \cdots & a_{m n}
+\end{array}\right]
+
 $$
 
+ 由矩阵运算规则, $b_{j j}$ 等于 $\mathbf{A}^{\top}$
+的第 $j$ 行与 $\mathbf{A}$ 的第 $j$ 列的内积, 因此
 
 
-[推导]:由公式(10.3)可得
 $$
-b_{ij}=-\frac{1}{2}(dist^2_{ij}-b_{ii}-b_{jj})
+
+\operatorname{tr}(\mathbf{B})=\sum_{j=1}^n b_{j j}=\sum_{j=1}^n\left(\sum_{i=1}^m\left|a_{i j}\right|^2\right)=\sum_{i=1}^m \sum_{j=1}^n\left|a_{i j}\right|^2=\|\mathbf{A}\|_F^2
+
 $$
 
 
-由公式(10.6)和(10.9)可得
+
+以上第三个等号交换了求和号次序(类似于交换积分号次序),
+显然这不影响求和结果。
+
+同理, 可证
+$\|\mathbf{A}\|_F^2=\operatorname{tr}\left(\mathbf{A} \mathbf{A}^{\top}\right)$
+: 
+
 $$
+
 \begin{aligned}
-\operatorname{tr}(\boldsymbol B)&=\frac{1}{2m}\sum^m_{i=1}\sum^m_{j=1}dist^2_{ij}\\
-&=\frac{m}{2}dist^2_{\cdot}
+& \mathbf{C}=\mathbf{A A}^{\top}=\left[\begin{array}{cccccc}
+a_{11} & a_{12} & \cdots & a_{1 j} & \cdots & a_{1 n} \\
+a_{21} & a_{22} & \cdots & a_{2 j} & \cdots & a_{2 n} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{i 1} & a_{i 2} & \cdots & a_{i j} & \cdots & a_{i n} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{m 1} & a_{m 2} & \cdots & a_{m j} & \cdots & a_{m n}
+\end{array}\right]\left[\begin{array}{cccccc}
+a_{11} & a_{21} & \cdots & a_{i 1} & \cdots & a_{m 1} \\
+a_{12} & a_{22} & \cdots & a_{i 2} & \cdots & a_{m 2} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{1 j} & a_{2 j} & \cdots & a_{i j} & \cdots & a_{m j} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+a_{1 n} & a_{2 n} & \cdots & a_{i n} & \cdots & a_{m n}
+\end{array}\right] \\
+&
 \end{aligned}
+
 $$
-由公式(10.4)和(10.8)可得
+
+
+
+由矩阵运算规则, $c_{i i}$ 等于 $\mathbf{A}$ 的第 $i$ 行与
+$\mathbf{A}^{\top}$ 的第 $i$ 列的内积(红色元素), 因此
+
+
 $$
-\begin{aligned}
-b_{jj}&=\frac{1}{m}\sum^m_{i=1}dist^2_{ij}-\frac{1}{m}tr(\boldsymbol B)\\
-&=dist^2_{\cdot j}-\frac{1}{2}dist^2_{\cdot}
-\end{aligned}
+
+\operatorname{tr}(\mathbf{C})=\sum_{i=1}^m c_{i i}=\sum_{i=1}^m\left(\sum_{j=1}^n\left|a_{i j}\right|^2\right)=\sum_{i=1}^m \sum_{j=1}^n\left|a_{i j}\right|^2=\|\mathbf{A}\|_F^2
+
 $$
-由公式(10.5)和(10.7)可得
+
+
+
+有关方阵的特征值之和等于对角线元素之和, 可以参见线性代数教材。
+
+## 10.3 k近邻学习
+
+### 10.3.1 式(10.1)的解释
+
+
+
 $$
-\begin{aligned}
-b_{ii}&=\frac{1}{m}\sum^m_{j=1}dist^2_{ij}-\frac{1}{m}\operatorname{tr}(\boldsymbol B)\\
-&=dist^2_{i\cdot}-\frac{1}{2}dist^2_{\cdot}
-\end{aligned}
+
+P(e r r)=1-\sum_{c \in \mathcal{Y}} P(c | \boldsymbol{x}) P(c | \boldsymbol{z})
+
 $$
-综合可得
+
+
+首先, $P(c \mid \boldsymbol{x})$ 表示样本 $\boldsymbol{x}$ 为类别 $c$
+的后验概率, $P(c \mid \boldsymbol{z})$ 表示样本 $\boldsymbol{z}$ 为类别
+$c$ 的后验概率; 其次,
+$P(c \mid \boldsymbol{x}) P(c \mid \boldsymbol{z})$ 表示样本
+$\boldsymbol{x}$ 和样本 $\boldsymbol{z}$ 同时为类别 $c$ 的概率;
+
+再次,
+$\sum_{c \in \mathcal{Y}} P(c \mid \boldsymbol{x}) P(c \mid \boldsymbol{z})$
+表示样本 $\boldsymbol{x}$ 和样本 $\boldsymbol{z}$ 类别相同的概率;
+这一点可以进一步解 释,设
+$\mathcal{Y}=\left\{c_1, c_2, \cdots, c_N\right\}$, 则该求和式子变为:
+
+
 $$
-\begin{aligned}
-b_{ij}&=-\frac{1}{2}(dist^2_{ij}-b_{ii}-b_{jj})\\
-&=-\frac{1}{2}(dist^2_{ij}-dist^2_{i\cdot}+\frac{1}{2}dist^2_{\cdot\cdot}-dist^2_{\cdot j}+\frac{1}{2}dist^2_{\cdot\cdot})\\
-&=-\frac{1}{2}(dist^2_{ij}-dist^2_{i\cdot}-dist^2_{\cdot j}+dist^2_{\cdot\cdot})
-\end{aligned}
+
+P\left(c_1 \mid \boldsymbol{x}\right) P\left(c_1 \mid \boldsymbol{z}\right)+P\left(c_2 \mid \boldsymbol{x}\right) P\left(c_2 \mid \boldsymbol{z}\right)+\cdots+P\left(c_N \mid \boldsymbol{x}\right) P\left(c_N \mid \boldsymbol{z}\right)
+
 $$
 
-## 10.11
+
+
+即样本 $\boldsymbol{x}$ 和样本 $\boldsymbol{z}$ 同时为 $c_1$ 的概率,
+加上同时为 $c_2$ 的概率, $\cdots \cdots$, 加上同时为 $c_N$ 的概率, 即
+样本 $\boldsymbol{x}$ 和样本 $\boldsymbol{z}$ 类别相同的概率;
+
+最后, $P(e r r)$ 表示样本 $\boldsymbol{x}$ 和样本 $\boldsymbol{z}$
+类别不相同的概率, 即 1 减去二者类别相同的概率。
+
+### 10.3.2 式(10.2)的推导
+
+式(10.2)推导关键在于理解第二行的 "约等 $(\simeq)$ " 关系和第三行的
+"小于等于 $(\leqslant)$ " 关系。
+
+第二行的 "约等 $(\simeq)$ " 关系的依据在于该式前面一段话:
+"假设样本独立同分布, 且对 任意 $\boldsymbol{x}$ 和任意小正数 $\delta$,
+在 $\boldsymbol{x}$ 附近 $\delta$ 距离范围内总能找到一个训练样本",
+这意味着对于任意 测试样本在训练集中都可以找出一个与其非常像 (任意小正数
+$\delta$ ) 的近邻, 这里还有一个假 设书中末提及:
+$P(c \mid \boldsymbol{x})$ 必须是连续函数 (对于连续函数 $f(x)$
+和任意小正数 $\delta$, $f(x) \simeq f(x+\delta))$,
+即对于两个非常像的样本 $\boldsymbol{z}$ 与 $\boldsymbol{x}$ 有
+$P(c \mid \boldsymbol{x}) \simeq P(c \mid \boldsymbol{z})$, 即
+
 
 $$
-\mathbf{Z}=\mathbf{\Lambda}_{*}^{1 / 2} \mathbf{V}_{*}^{\mathrm{T}} \in \mathbb{R}^{d^{*} \times m}
+
+\sum_{c \in \mathcal{Y}} P(c \mid \boldsymbol{x}) P(c \mid \boldsymbol{z}) \simeq \sum_{c \in \mathcal{Y}} P^2(c \mid \boldsymbol{x})
+
 $$
 
-[解析]:由题设知,$d^*$为$\mathbf{V}$的非零特征值,因此$\mathbf{B}=\mathbf{V} \mathbf{\Lambda} \mathbf{V}^{\top}$可以写成$\mathbf{B}=\mathbf{V}_{*} \mathbf{\Lambda}_{*} \mathbf{V}_{*}^{\top}$,其中$\mathbf{\Lambda}_{*} \in \mathbb{R}^{d \times d}$为$d$个非零特征值构成的特征值对角矩阵,而$\mathbf{V}_{*} \in \mathbb{R}^{m \times d}$ 为  $\mathbf{\Lambda}_{*} \in \mathbb{R}^{d \times d}$对应的特征值向量矩阵,因此有
+
+
+第三行的"小于等于 $(\leqslant)$ " 关系更简单: 由于
+$c^* \in \mathcal{Y}$, 所以
+$P^2\left(c^* \mid \boldsymbol{x}\right) \leqslant \sum_{c \in \mathcal{Y}} P^2(c \mid \boldsymbol{x})$,
+也就是 "小于等于 $(\leqslant)$ " 左边只是右边的一部分,
+所以肯定是小于等于的关系;
+
+第四行就是数学公式 $a^2-b^2=(a+b)(a-b)$;
+
+第五行是由于 $1+P\left(c^* \mid \boldsymbol{x}\right) \leqslant 2$,
+这是由于概率值 $P\left(c^* \mid \boldsymbol{x}\right) \leqslant 1$
+
+经过以上推导, 本节最后给出一个惊人的结论: 最近邻分类器虽简单,
+但它的泛化错误 率不超过贝叶斯最优分类器的错误率的两倍!
+
+然而这是一个没啥实际用途的结论, 因为这个结论必须满足两个假设条件, 且不说
+$P(c \mid \boldsymbol{x})$ 是连续函数(第一个假设)是否满足, 单就
+"对任意 $\boldsymbol{x}$ 和任意小正数 $\delta$, 在 $\boldsymbol{x}$ 附近
+$\delta$ 距 离范围内总能找到一个训练样本" (第二个假设) 是不可能满足的,
+这也就有了 $10.2$ 节开头 一段的讨论, 抛开 "任意小正数 $\delta$ " 不谈,
+具体到 $\delta=0.001$ 都是不现实的。
+
+## 10.4 低维嵌入
+
+### 10.4.1 图10.2的解释
+
+只要注意一点就行:在图(a)三维空间中,红色线是弯曲的,但去掉高度这一维(竖着的坐标轴)后,红色线变成直线,而直线更容易学习。
+
+### 10.4.2 式(10.3)的推导
+
+已知
+$\mathbf{Z}=\left\{\boldsymbol{z}_1, \boldsymbol{z}_2, \ldots, \boldsymbol{z}_i, \ldots, \boldsymbol{z}_m\right\} \in \mathbb{R}^{d^{\prime} \times m}$,
+其中
+$\boldsymbol{z}_i=\left(z_{i 1} ; z_{i 2} ; \ldots ; z_{i d^{\prime}}\right) \in \mathbb{R}^{d^{\prime} \times 1}$;
+降维后的内积矩阵
+$\mathbf{B}=\mathbf{Z}^{\top} \mathbf{Z} \in \mathbb{R}^{m \times m}$,
+其中第 $i$ 行第 $j$ 列元素 $b_{i j}$, 特别的
+
+
 $$
-\mathbf{B}=\left(\mathbf{V}_{*} \mathbf{\Lambda}_{*}^{1 / 2}\right)\left(\boldsymbol{\Lambda}_{*}^{1 / 2} \mathbf{V}_{*}^{\top}\right)
+
+b_{i i}=\boldsymbol{z}_i^{\top} \boldsymbol{z}_i=\left\|\boldsymbol{z}_i\right\|^2, b_{j j}=\boldsymbol{z}_j^{\top} \boldsymbol{z}_j=\left\|\boldsymbol{z}_j\right\|^2, b_{i j}=\boldsymbol{z}_i^{\top} \boldsymbol{z}_j
+
 $$
-故而$\mathbf{Z}=\mathbf{\Lambda}_{*}^{1 / 2} \mathbf{V}_{*}^{\top} \in \mathbb{R}^{d \times m}$
 
-## 10.14
+
+MDS 算法的目标是
+$\left\|\boldsymbol{z}_i-\boldsymbol{z}_j\right\|=d i s t_{i j}=\left\|\boldsymbol{x}_i-\boldsymbol{x}_j\right\|$,
+即保持样本的欧氏距离在 $d^{\prime}$ 维空 间和原始 $d$ 维空间相同
+$\left(d^{\prime} \leqslant d\right)$ 。 
 
 $$
+
 \begin{aligned}
-\sum^m_{i=1}\left\| \sum^{d'}_{j=1}z_{ij}\boldsymbol{w}_j-\boldsymbol x_i \right\|^2_2&=\sum^m_{i=1}\boldsymbol z^{\mathrm{T}}_i\boldsymbol z_i-2\sum^m_{i=1}\boldsymbol z^{\mathrm{T}}_i\mathbf{W}^{\mathrm{T}}\boldsymbol x_i +\text { const }\\
-&\propto -\operatorname{tr}(\mathbf{W}^{\mathrm{T}}(\sum^m_{i=1}\boldsymbol x_i\boldsymbol x^{\mathrm{T}}_i)\mathbf{W})
+d i s t_{i j}^2 & =\left\|\boldsymbol{z}_i-\boldsymbol{z}_j\right\|^2=\left(z_{i 1}-z_{j 1}\right)^2+\left(z_{i 2}-z_{j 2}\right)^2+\ldots+\left(z_{i d^{\prime}}-z_{j d^{\prime}}\right)^2 \\
+& =\left(z_{i 1}^2-2 z_{i 1} z_{j 1}+z_{j 1}^2\right)+\left(z_{i 2}^2-2 z_{i 2} z_{j 2}+z_{j 2}^2\right)+\ldots+\left(z_{i d^{\prime}}^2-2 z_{i d^{\prime}} z_{j d^{\prime}}+z_{j d^{\prime}}^2\right) \\
+& =\left(z_{i 1}^2+z_{i 2}^2+\ldots+z_{i d^{\prime}}^2\right)+\left(z_{j 1}^2+z_{j 2}^2+\ldots+z_{j d^{\prime}}^2\right) \\
+& -2\left(z_{i 1} z_{j 1}+z_{i 2} z_{j 2}+\ldots+z_{i d^{\prime}} z_{j d^{\prime}}\right) \\
+& =\left\|\boldsymbol{z}_i\right\|^2+\left\|\boldsymbol{z}_j\right\|^2-2 \boldsymbol{z}_i^{\top} \boldsymbol{z}_j \\
+& =b_{i i}+b_{j j}-2 b_{i j}
 \end{aligned}
+
 $$
 
-[推导]:已知$\mathbf{W}^{\mathrm{T}} \mathbf{W}=\mathbf{I},\boldsymbol z_i=\mathbf{W}^{\mathrm{T}} \boldsymbol x_i$,则
+
+
+本章矩阵运算非常多, 刚刚是从矩阵元素层面的推导;
+实际可发现上式运算结果基本与 标量运算规则相同,
+因此后面会尽可能不再从元素层面推导。具体来说: 
+
 $$
+
 \begin{aligned}
-\sum^m_{i=1}\left\| \sum^{d'}_{j=1}z_{ij}\boldsymbol{w}_j-\boldsymbol x_i \right\|^2_2&=\sum^m_{i=1}\left\|\mathbf{W}\boldsymbol z_i-\boldsymbol x_i \right\|^2_2\\
-&= \sum^m_{i=1} \left(\mathbf{W}\boldsymbol z_i-\boldsymbol x_i\right)^{\mathrm{T}}\left(\mathbf{W}\boldsymbol z_i-\boldsymbol x_i\right)\\
-&= \sum^m_{i=1} \left(\boldsymbol z_i^{\mathrm{T}}\mathbf{W}^{\mathrm{T}}\mathbf{W}\boldsymbol z_i- \boldsymbol z_i^{\mathrm{T}}\mathbf{W}^{\mathrm{T}}\boldsymbol x_i-\boldsymbol x_i^{\mathrm{T}}\mathbf{W}\boldsymbol z_i+\boldsymbol x_i^{\mathrm{T}}\boldsymbol x_i \right)\\
-&= \sum^m_{i=1} \left(\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_i- 2\boldsymbol z_i^{\mathrm{T}}\mathbf{W}^{\mathrm{T}}\boldsymbol x_i+\boldsymbol x_i^{\mathrm{T}}\boldsymbol x_i \right)\\
-&=\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_i-2\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\mathbf{W}^{\mathrm{T}}\boldsymbol x_i+\sum^m_{i=1}\boldsymbol x^{\mathrm{T}}_i\boldsymbol x_i\\
-&=\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_i-2\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\mathbf{W}^{\mathrm{T}}\boldsymbol x_i+\text { const }\\
-&=\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_i-2\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_i+\text { const }\\
-&=-\sum^m_{i=1}\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_i+\text { const }\\
-&=-\sum^m_{i=1}\operatorname{tr}\left(\boldsymbol z_i\boldsymbol z_i^{\mathrm{T}}\right)+\text { const }\\
-&=-\operatorname{tr}\left(\sum^m_{i=1}\boldsymbol z_i\boldsymbol z_i^{\mathrm{T}}\right)+\text { const }\\
-&=-\operatorname{tr}\left(\sum^m_{i=1}\mathbf{W}^{\mathrm{T}} \boldsymbol x_i\boldsymbol x_i^{\mathrm{T}}\mathbf{W}\right)+\text { const }\\
-&= -\operatorname{tr}\left(\mathbf{W}^{\mathrm{T}}\left(\sum^m_{i=1}\boldsymbol x_i\boldsymbol x^{\mathrm{T}}_i\right)\mathbf{W}\right)+\text { const }\\
-&\propto-\operatorname{tr}\left(\mathbf{W}^{\mathrm{T}}\left(\sum^m_{i=1}\boldsymbol x_i\boldsymbol x^{\mathrm{T}}_i\right)\mathbf{W}\right)\\
+d i s t_{i j}^2 & =\left\|\boldsymbol{z}_i-\boldsymbol{z}_j\right\|^2=\left(\boldsymbol{z}_i-\boldsymbol{z}_j\right)^{\top}\left(\boldsymbol{z}_i-\boldsymbol{z}_j\right) \\
+& =\boldsymbol{z}_i^{\top} \boldsymbol{z}_i-\boldsymbol{z}_i^{\top} \boldsymbol{z}_j-\boldsymbol{z}_j^{\top} \boldsymbol{z}_i+\boldsymbol{z}_j^{\top} \boldsymbol{z}_j \\
+& =\boldsymbol{z}_i^{\top} \boldsymbol{z}_i+\boldsymbol{z}_j^{\top} \boldsymbol{z}_j-2 \boldsymbol{z}_i^{\top} \boldsymbol{z}_j \\
+& =\left\|\boldsymbol{z}_i\right\|^2+\left\|\boldsymbol{z}_j\right\|^2-2 \boldsymbol{z}_i^{\top} \boldsymbol{z}_j \\
+& =b_{i i}+b_{j j}-2 b_{i j}
 \end{aligned}
+
 $$
 
+ 上式第三个等号化简是由于内积
+$\boldsymbol{z}_i^{\top} \boldsymbol{z}_j$ 和
+$\boldsymbol{z}_j^{\top} \boldsymbol{z}_i$ 均为标量, 因此转置等于本身。
+
+### 10.4.3 式(10.4)的推导
+
+首先解释两个条件:
+
+(1)令降维后的样本Z被中心化, 即
+$\sum_{i=1}^m \boldsymbol{z}_i=\mathbf{0}$ 注意
+$\mathbf{Z} \in \mathbb{R}^{d^{\prime} \times m}$, $d^{\prime}$
+是样本维度 (属性个数), $m$ 是样本个数, 易知 $\mathbf{Z}$ 的每一行有 $m$
+个元 素 (每行表示样本集的一维属性), Z的每一列有 $d^{\prime}$ 个元素
+(每列表示一个样本)。
+
+式 $\sum_{i=1}^m \boldsymbol{z}_i=\mathbf{0}$ 中的 $\boldsymbol{z}_i$
+明显表示的是第 $i$ 列, $m$ 列相加得到一个零向量
+$\mathbf{0}_{d^{\prime} \times 1}$, 意思是样
+本集合中所有样本的每一维属性之和均等于 0 ,
+因此被中心化的意思是将样本集合Z的每一 行(属性)减去该行的均值。
+
+(2)显然, 矩阵 $\mathbf{B}$ 的行与列之各均为零, 即
+$\sum_{i=1}^m b_{i j}=\sum_{j=1}^m b_{i j}=0$ 。
+
+注意 $b_{i j}=\boldsymbol{z}_i^{\top} \boldsymbol{z}_j$ (也可以写为
+$b_{i j}=\boldsymbol{z}_j^{\top} \boldsymbol{z}_i$,
+其实就是对应元素相乘, 再求和) 
 
-## 10.17
-$$
-\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i=\lambda _i\boldsymbol w_i
-$$
-[推导]:由式(10.15)可知,主成分分析的优化目标为
 $$
-\begin{aligned}
-&\min\limits_{\mathbf W} \quad-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)\\
-&s.t. \quad\mathbf W^{\mathrm{T}} \mathbf W=\mathbf I
-\end{aligned}
+
+\begin{gathered}
+\sum_{i=1}^m b_{i j}=\sum_{i=1}^m \boldsymbol{z}_j^{\top} \boldsymbol{z}_i=\boldsymbol{z}_j^{\top} \sum_{i=1}^m \boldsymbol{z}_i=\boldsymbol{z}_j^{\top} \cdot \mathbf{0}_{d^{\prime} \times 1}=0 \\
+\sum_{j=1}^m b_{i j}=\sum_{j=1}^m \boldsymbol{z}_i^{\top} \boldsymbol{z}_j=\boldsymbol{z}_i^{\top} \sum_{j=1}^m \boldsymbol{z}_j=\boldsymbol{z}_i^{\top} \cdot \mathbf{0}_{d^{\prime} \times 1}=0
+\end{gathered}
+
 $$
-其中,$\mathbf{X}=\left(\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{m}\right) \in \mathbb{R}^{d \times m},\mathbf{W}=\left(\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{d^{\prime}}\right) \in \mathbb{R}^{d \times d^{\prime}}$,$\mathbf{I} \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$为单位矩阵。对于带矩阵约束的优化问题,根据<a href="#ref1">[1]</a>中讲述的方法可得此优化目标的拉格朗日函数为
+
+
+
+接下来我们推导式(10.4), 将式(10.3)的 $d i s t_{i j}^2$ 表达式代入:
+
+
 $$
+
 \begin{aligned}
-L(\mathbf W,\Theta)&=-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\langle \Theta,\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I\rangle \\
-&=-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\text { tr }\left(\Theta^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right) 
+\sum_{i=1}^m d i s t_{i j}^2 & =\sum_{i=1}^m\left(\left\|\boldsymbol{z}_i\right\|^2+\left\|\boldsymbol{z}_j\right\|^2-2 \boldsymbol{z}_i^{\top} \boldsymbol{z}_j\right) \\
+& =\sum_{i=1}^m\left\|\boldsymbol{z}_i\right\|^2+\sum_{i=1}^m\left\|\boldsymbol{z}_j\right\|^2-2 \sum_{i=1}^m \boldsymbol{z}_i^{\top} \boldsymbol{z}_j
 \end{aligned}
+
 $$
 
 
-其中,$\Theta  \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$为拉格朗日乘子矩阵,其维度恒等于约束条件的维度,且其中的每个元素均为未知的拉格朗日乘子,$\langle \Theta,\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I\rangle = \text { tr }\left(\Theta^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right)$为矩阵的内积<sup><a href="#ref2">[2]</a></sup>。若此时仅考虑约束$\boldsymbol{w}_i^{\mathrm{T}}\boldsymbol{w}_i=1(i=1,2,...,d^{\prime})$,则拉格朗日乘子矩阵$\Theta$此时为对角矩阵,令新的拉格朗日乘子矩阵为$\Lambda=diag(\lambda_1,\lambda_2,...,\lambda_{d^{\prime}})\in \mathbb{R}^{d^{\prime} \times d^{\prime}}$,则新的拉格朗日函数为
-$$
-L(\mathbf W,\Lambda)=-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\text { tr }\left(\Lambda^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right)
-$$
-对拉格朗日函数关于$\mathbf{W}$求导可得
+
+根据定义: 
+
 $$
+
 \begin{aligned}
-\cfrac{\partial L(\mathbf W,\Lambda)}{\partial \mathbf W}&=\cfrac{\partial}{\partial \mathbf W}\left[-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\text { tr }\left(\Lambda^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right)\right] \\
-&=-\cfrac{\partial}{\partial \mathbf W}\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\cfrac{\partial}{\partial \mathbf W}\text { tr }\left(\Lambda^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right) \\
+& \sum_{i=1}^m\left\|\boldsymbol{z}_i\right\|^2=\sum_{i=1}^m \boldsymbol{z}_i^{\top} \boldsymbol{z}_i=\sum_{i=1}^m b_{i i}=\operatorname{tr}(\mathbf{B}) \\
+& \sum_{i=1}^m\left\|\boldsymbol{z}_j\right\|^2=\left\|\boldsymbol{z}_j\right\|^2 \sum_{i=1}^m 1=m\left\|\boldsymbol{z}_j\right\|^2=m \boldsymbol{z}_j^{\top} \boldsymbol{z}_j=m b_{j j}
 \end{aligned}
+
 $$
-由矩阵微分公式$\cfrac{\partial}{\partial \mathbf{X}} \text { tr }(\mathbf{X}^{\mathrm{T}}  \mathbf{B} \mathbf{X})=\mathbf{B X}+\mathbf{B}^{\mathrm{T}}  \mathbf{X},\cfrac{\partial}{\partial \mathbf{X}} \text { tr }\left(\mathbf{B X}^{\mathrm{T}}  \mathbf{X}\right)=\mathbf{X B}^{\mathrm{T}} +\mathbf{X B}$可得
+
+
+
+根据前面结果:
+
+
 $$
-\begin{aligned}
-\cfrac{\partial L(\mathbf W,\Lambda)}{\partial \mathbf W}&=-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+\mathbf{W}\Lambda+\mathbf{W}\Lambda^{\mathrm{T}}  \\
-&=-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+\mathbf{W}(\Lambda+\Lambda^{\mathrm{T}} ) \\
-&=-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+2\mathbf{W}\Lambda
-\end{aligned}
+
+\sum_{i=1}^m \boldsymbol{z}_i^{\top} \boldsymbol{z}_j=\left(\sum_{i=1}^m \boldsymbol{z}_i^{\top}\right) \boldsymbol{z}_j=\mathbf{0}_{1 \times d^{\prime}} \cdot \boldsymbol{z}_j=0
+
 $$
-令$\cfrac{\partial L(\mathbf W,\Lambda)}{\partial \mathbf W}=\mathbf 0$可得
+
+
+
+代入上式即得: 
+
 $$
+
 \begin{aligned}
--2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+2\mathbf{W}\Lambda&=\mathbf 0\\
-\mathbf X\mathbf X^{\mathrm{T}} \mathbf W&=\mathbf{W}\Lambda\\
+\sum_{i=1}^m d i s t_{i j}^2 & =\sum_{i=1}^m\left\|\boldsymbol{z}_i\right\|^2+\sum_{i=1}^m\left\|\boldsymbol{z}_j\right\|^2-2 \sum_{i=1}^m \boldsymbol{z}_i^{\top} \boldsymbol{z}_j \\
+& =\operatorname{tr}(\mathbf{B})+m b_{j j}
 \end{aligned}
+
 $$
-将$\mathbf W$和$\Lambda$展开可得
-$$
-\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i=\lambda _i\boldsymbol w_i,\quad i=1,2,...,d^{\prime}
-$$
-显然,此式为矩阵特征值和特征向量的定义式,其中$\lambda_i,\boldsymbol w_i$分别表示矩阵$\mathbf X\mathbf X^{\mathrm{T}}$的特征值和单位特征向量。由于以上是仅考虑约束$\boldsymbol{w}_i^{\mathrm{T}}\boldsymbol{w}_i=1$所求得的结果,而$\boldsymbol{w}_i$还需满足约束$\boldsymbol{w}_{i}^{\mathrm{T}}\boldsymbol{w}_{j}=0(i\neq j)$。观察$\mathbf X\mathbf X^{\mathrm{T}}$的定义可知,$\mathbf X\mathbf X^{\mathrm{T}}$是一个实对称矩阵,实对称矩阵的不同特征值所对应的特征向量之间相互正交,同一特征值的不同特征向量可以通过施密特正交化使其变得正交,所以通过上式求得的$\boldsymbol w_i$可以同时满足约束$\boldsymbol{w}_i^{\mathrm{T}}\boldsymbol{w}_i=1,\boldsymbol{w}_{i}^{\mathrm{T}}\boldsymbol{w}_{j}=0(i\neq j)$。根据拉格朗日乘子法的原理可知,此时求得的结果仅是最优解的必要条件,而且$\mathbf X\mathbf X^{\mathrm{T}}$有$d$个相互正交的单位特征向量,所以还需要从这$d$个特征向量里找出$d^{\prime}$个能使得目标函数达到最优值的特征向量作为最优解。将$\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i=\lambda _i\boldsymbol w_i$代入目标函数可得
+
+
+
+### 10.4.4 式(10.5)的推导
+
+与式(10.4)类似: 
+
 $$
+
 \begin{aligned}
-\min\limits_{\mathbf W}-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)&=\max\limits_{\mathbf W}\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W) \\
-&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\boldsymbol w_i^{\mathrm{T}}\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i \\
-&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\boldsymbol w_i^{\mathrm{T}}\cdot\lambda _i\boldsymbol w_i \\
-&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\lambda _i\boldsymbol w_i^{\mathrm{T}}\boldsymbol w_i \\
-&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\lambda _i \\
+\sum_{j=1}^m d i s t_{i j}^2 & =\sum_{j=1}^m\left(\left\|\boldsymbol{z}_i\right\|^2+\left\|\boldsymbol{z}_j\right\|^2-2 \boldsymbol{z}_i^{\top} \boldsymbol{z}_j\right) \\
+& =\sum_{j=1}^m\left\|\boldsymbol{z}_i\right\|^2+\sum_{j=1}^m\left\|\boldsymbol{z}_j\right\|^2-2 \sum_{j=1}^m \boldsymbol{z}_i^{\top} \boldsymbol{z}_j \\
+& =m b_{i i}+\operatorname{tr}(\mathbf{B})
 \end{aligned}
+
 $$
 
 
-显然,此时只需要令$\lambda_1,\lambda_2,...,\lambda_{d^{\prime}}$和$\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{d^{\prime}}$分别为矩阵$\mathbf X\mathbf X^{\mathrm{T}}$的前$d^{\prime}$个最大的特征值和单位特征向量就能使得目标函数达到最优值。
 
-## 10.24
-$$
-\mathbf{K}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j
-$$
+### 10.4.5 式(10.6)的推导
+
+
 
-[推导]:已知$\boldsymbol z_i=\phi(\boldsymbol x_i)$,类比$\mathbf{X}=\{\boldsymbol x_1,\boldsymbol x_2,...,\boldsymbol x_m\}$可以构造$\mathbf{Z}=\{\boldsymbol z_1,\boldsymbol z_2,...,\boldsymbol z_m\}$,所以公式(10.21)可变换为
-$$
-\left(\sum_{i=1}^{m} \phi(\boldsymbol{x}_{i}) \phi(\boldsymbol{x}_{i})^{\mathrm{T}}\right)\boldsymbol w_j=\left(\sum_{i=1}^{m} \boldsymbol z_i \boldsymbol z_i^{\mathrm{T}}\right)\boldsymbol w_j=\mathbf{Z}\mathbf{Z}^{\mathrm{T}}\boldsymbol w_j=\lambda_j\boldsymbol w_j
-$$
-又由公式(10.22)可知
-$$
-\boldsymbol w_j=\sum_{i=1}^{m} \phi\left(\boldsymbol{x}_{i}\right) \alpha_{i}^j=\sum_{i=1}^{m} \boldsymbol z_i \alpha_{i}^j=\mathbf{Z}\boldsymbol{\alpha}^j
-$$
-其中,$\boldsymbol{\alpha}^j=(\alpha_{1}^j;\alpha_{2}^j;...;\alpha_{m}^j)\in \mathbb{R}^{m \times 1} $。所以公式(10.21)可以进一步变换为
 $$
+
 \begin{aligned}
-\mathbf{Z}\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j&=\lambda_j\mathbf{Z}\boldsymbol{\alpha}^j \\
-\mathbf{Z}\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j&=\mathbf{Z}\lambda_j\boldsymbol{\alpha}^j
+\sum_{i=1}^{m} \sum_{j=1}^{m} \operatorname{dist}_{i j}^{2} &=\sum_{i=1}^{m} \sum_{j=1}^{m}\left(\left\|z_{i}\right\|^{2}+\left\|\boldsymbol{z}_{j}\right\|^{2}-2 \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j}\right) \\
+&=\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{i}\right\|^{2}+\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{j}\right\|^{2}-2 \sum_{i=1}^{m} \sum_{j=1}^{m} \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j} \\
 \end{aligned}
-$$
-由于此时的目标是要求出$\boldsymbol w_j$,也就等价于要求出满足上式的$\boldsymbol{\alpha}^j$,显然,此时满足$\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j $的$\boldsymbol{\alpha}^j$一定满足上式,所以问题转化为了求解满足下式的$\boldsymbol{\alpha}^j$:
-$$
-\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j
+
 $$
 
 
-令$\mathbf{Z}^{\mathrm{T}}\mathbf{Z}=\mathbf{K}$,那么上式可化为
-$$
-\mathbf{K}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j
-$$
 
+其中各子项的推导如下:
 
-此式即为公式(10.24),其中矩阵$\mathbf{K}$的第i行第j列的元素$(\mathbf{K})_{ij}=\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_j=\phi(\boldsymbol x_i)^{\mathrm{T}}\phi(\boldsymbol x_j)=\kappa\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right)$
 
-## 10.28
 $$
-w_{i j}=\frac{\sum\limits_{k \in Q_{i}} C_{j k}^{-1}}{\sum\limits_{l, s \in Q_{i}} C_{l s}^{-1}}
+
+\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{i}\right\|^{2}=m \sum_{i=1}^{m}\left\|\boldsymbol{z}_{i}\right\|^{2}=m \operatorname{tr}(\mathbf{B})
+
 $$
 
 
 
-[推导]:由书中上下文可知,式(10.28)是如下优化问题的解。
-$$
-\begin{aligned} 
-\min _{\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m}} & \sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{j}\right\|_{2}^{2} \\ 
-\text { s.t. } & \sum_{j \in Q_{i}} w_{i j}=1 
-\end{aligned}
+
 $$
 
+\sum_{i=1}^{m} \sum_{j=1}^{m}\left\|\boldsymbol{z}_{j}\right\|^{2}=m \sum_{j=1}^{m}\left\|\boldsymbol{z}_{j}\right\|^{2}=m \operatorname{tr}(\mathbf{B})
 
-若令$\boldsymbol{x}_{i}\in \mathbb{R}^{d\times 1},Q_i=\{q_i^1,q_i^2,...,q_i^n\}$,则上述优化问题的目标函数可以进行如下恒等变形
-$$
-\begin{aligned} 
-\sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{j}\right\|_{2}^{2}&=\sum_{i=1}^{m}\left\|\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{i}-\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{j}\right\|_{2}^{2} \\ 
-&=\sum_{i=1}^{m}\left\|\sum_{j \in Q_{i}} w_{i j}(\boldsymbol{x}_{i}-\boldsymbol{x}_{j}) \right\|_{2}^{2} \\ 
-&=\sum_{i=1}^{m}\left\|\mathbf{X}_i\boldsymbol{w_i} \right\|_{2}^{2} \\
-&=\sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i} \\ 
-\end{aligned}
 $$
 
 
-其中$\boldsymbol{w_i}=(w_{iq_i^1},w_{iq_i^2},...,w_{iq_i^n})\in \mathbb{R}^{n\times 1}$,$\mathbf{X}_i=\left( \boldsymbol{x}_{i}-\boldsymbol{x}_{q_i^1}, \boldsymbol{x}_{i}-\boldsymbol{x}_{q_i^2},...,\boldsymbol{x}_{i}-\boldsymbol{x}_{q_i^n}\right)\in \mathbb{R}^{d\times n}$。同理,约束条件也可以进行如下恒等变形
-$$
-\sum_{j \in Q_{i}} w_{i j}=\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}=1 
-$$
 
 
-其中$\boldsymbol{I}=(1,1,...,1)\in \mathbb{R}^{n\times 1}$为$n$行1列的元素值全为1的向量。因此,上述优化问题可以重写为
-$$
-\begin{aligned} 
-\min _{\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m}} & \sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i} \\ 
-\text { s.t. } & \boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}=1
-\end{aligned}
 $$
 
+\sum_{i=1}^{m} \sum_{j=1}^{m} \boldsymbol{z}_{i}^{\top} \boldsymbol{z}_{j}=0
 
-显然,此问题为带约束的优化问题,因此可以考虑使用拉格朗日乘子法来进行求解。由拉格朗日乘子法可得此优化问题的拉格朗日函数为
-$$
-L(\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m},\lambda)=\sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}+\lambda\left(\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}-1\right)
 $$
 
 
-对拉格朗日函数关于$\boldsymbol{w_i}$求偏导并令其等于0可得
-$$
+
+最后一个式子是来自于书中的假设,假设降维后的样本$\mathbf{Z}$被中心化。
+
+### 10.4.6 式(10.10)的推导
+
+由式(10.3)可得 
+
+$$
+
+b_{ij}=-\frac{1}{2}(dist^2_{ij}-b_{ii}-b_{jj})
+
+$$
+
+
+由式(10.6)和(10.9)可得 
+
+$$
+
+\begin{aligned}
+tr(\boldsymbol B)&=\frac{1}{2m}\sum^m_{i=1}\sum^m_{j=1}dist^2_{ij}\\
+&=\frac{m}{2}dist^2_{\cdot}
+\end{aligned}
+
+$$
+
+
+
+由式(10.4)和(10.8)可得 
+
+$$
+
+\begin{aligned}
+b_{jj}&=\frac{1}{m}\sum^m_{i=1}dist^2_{ij}-\frac{1}{m}tr(\boldsymbol B)\\
+&=dist^2_{\cdot j}-\frac{1}{2}dist^2_{\cdot}
+\end{aligned}
+
+$$
+
+
+
+由式(10.5)和式(10.7)可得 
+
+$$
+
+\begin{aligned}
+b_{ii}&=\frac{1}{m}\sum^m_{j=1}dist^2_{ij}-\frac{1}{m}tr(\boldsymbol B)\\
+&=dist^2_{i\cdot}-\frac{1}{2}dist^2_{\cdot}
+\end{aligned}
+
+$$
+
+
+
+综合可得 
+
+$$
+
+\begin{aligned}
+b_{ij}&=-\frac{1}{2}(dist^2_{ij}-b_{ii}-b_{jj})\\
+&=-\frac{1}{2}(dist^2_{ij}-dist^2_{i\cdot}+\frac{1}{2}dist^2_{\cdot\cdot}-dist^2_{\cdot j}+\frac{1}{2}dist^2_{\cdot\cdot})\\
+&=-\frac{1}{2}(dist^2_{ij}-dist^2_{i\cdot}-dist^2_{\cdot j}+dist^2_{\cdot\cdot})
+\end{aligned}
+
+$$
+
+
+
+在式(10.10)后紧跟着一句话: "由此即可通过降维前后保持不变的距离矩阵
+$\mathbf{D}$ 求取内积 矩阵B", 我们来解释一下这句话。
+
+首先解释式(10.10)等号右侧的变量含义:
+$\quad d i s t_{i j}=\left\|\boldsymbol{z}_i-\boldsymbol{z}_j\right\|$
+表示降维后 $\boldsymbol{z}_i$ 与 $\boldsymbol{z}_j$ 的欧氏 距离,
+注意这同时也应该是原始空间 $\boldsymbol{x}_i$ 与 $\boldsymbol{x}_j$
+的距离, 因为降维的目标(也是约束条件)是 "任意两个样本在 $d^{\prime}$
+维空间中的欧氏距离等于原始空间中的距离"; 其次, 式(10.10)等号左侧
+$b_{i j}$ 是降维后内积矩阵 $\mathbf{B}$ 的元 素, 即 $\mathbf{B}$ 的元素
+$b_{i j}$ 可以由距离矩阵 $\mathbf{D}$ 来表达求取。
+
+### 10.4.7 式(10.11)的解释
+
+由题设知,$d^*$为$\mathbf{V}$的非零特征值,因此$\mathbf{B}=\mathbf{V} \boldsymbol{\Lambda} \mathbf{V}^{\top}$可以写成$\mathbf{B}=\mathbf{V}_{*} \boldsymbol{\Lambda}_{*} \mathbf{V}_{*}^{\top}$,其中$\boldsymbol{\Lambda}_{*} \in \mathbb{R}^{d \times d}$为$d$个非零特征值构成的特征值对角矩阵,而$\mathbf{V}_{*} \in \mathbb{R}^{m \times d}$
+为
+$\boldsymbol{\Lambda}_{*} \in \mathbb{R}^{d \times d}$对应的特征值向量矩阵,因此有
+
+
+$$
+
+\mathbf{B}=\left(\mathbf{V}_{*} \boldsymbol{\Lambda}_{*}^{1 / 2}\right)\left(\boldsymbol{\Lambda}_{*}^{1 / 2} \mathbf{V}_{*}^{\top}\right)
+
+$$
+
+
+
+故而$\mathbf{Z}=\boldsymbol{\Lambda}_{*}^{1 / 2} \mathbf{V}_{*}^{\top} \in \mathbb{R}^{d \times m}$
+
+### 10.4.8 图10.3关于MDS算法的解释
+
+首先要清楚此处降维算法要完成的任务: 获得 $d$ 维空间的样本集合
+$\mathbf{X} \in \mathbb{R}^{d \times m}$ 在 $d^{\prime}$ 维空 间的表示
+$\mathbf{Z} \in \mathbb{R}^{d^{\prime} \times m}$, 并且保证距离矩阵
+$\mathbf{D} \in \mathbb{R}^{m \times m}$ 相同, 其中 $d^{\prime}<d, m$
+为样本个数,距离矩阵即样本之间的欧氏距离。那么怎么由$\mathbf{X} \in \mathbb{R}^{d \times m}$得到$\mathbf{Z} \in \mathbb{R}^{d^{\prime} \times m}$呢?
+
+经过推导发现 (式(10.3) 式(10.10)), 在保证距离矩阵
+$\mathbf{D} \in \mathbb{R}^{m \times m}$ 相同的前提下, $d^{\prime}$ 维
+空间的样本集合 $\mathbf{Z} \in \mathbb{R}^{d^{\prime} \times m}$
+的内积矩阵
+$\mathbf{B}=\mathbf{Z}^{\top} \mathbf{Z} \in \mathbb{R}^{m \times m}$
+可以由距离矩阵 $\mathbf{D} \in \mathbb{R}^{m \times m}$ 得到
+(参见式(10.10)), 此时只要对 $\mathrm{B}$ 进行矩阵分解即可得到
+$\mathrm{Z}$; 具体来说, 对 $\mathrm{B}$ 进行特征值分 解可得
+$\mathbf{B}=\mathbf{V} \boldsymbol{\Lambda} \mathbf{V}^{\top}$, 其中
+$\mathbf{V} \in \mathbb{R}^{m \times m}$ 为特征值向量矩阵,
+$\mathbf{\Lambda} \in \mathbb{R}^{m \times m}$ 为特征值构成的对 角矩阵,
+接下来分类讨论:
+
+\(1\) 当 $d>m$ 时, 即样本属性比样本个数还要多 此时, 样本集合
+$\mathbf{X} \in \mathbb{R}^{d \times m}$ 的 $d$ 维属性一定是线性相关的
+(即有品几余), 因为矩阵 $\mathbf{X}$ 的 秩不会大于 $m$ (此处假设矩阵
+$\mathbf{X}$ 的秩恰好等于 $m$ ), 因此
+$\Lambda \in \mathbb{R}^{m \times m}$ 主对角线有 $m$ 个非零值, 进而
+$\mathbf{B}=\left(\mathbf{V} \boldsymbol{\Lambda}^{1 / 2}\right)\left(\boldsymbol{\Lambda}^{1 / 2} \mathbf{V}^{\top}\right)$,
+得到的
+$\mathbf{Z}=\boldsymbol{\Lambda}^{1 / 2} \mathbf{V}^{\top} \in \mathbb{R}^{d^{\prime} \times m}$
+实际将 $d$ 维属性降成了 $d^{\prime}=m$ 维属性。
+
+\(2\) 当 $d<m$ 时, 即样本个数比样本属性多
+这是现实中最常见的一种情况。此时 $\Lambda \in \mathbb{R}^{m \times m}$
+至多有 $d$ 个非零值(此处假设恰有 $d$ 个 非零值), 因此
+$\mathbf{B}=\mathbf{V} \boldsymbol{\Lambda} \mathbf{V}^{\top}$ 可以写成
+$\mathbf{B}=\mathbf{V}_* \boldsymbol{\Lambda}_* \mathbf{V}_*^{\top}$,
+其中 $\boldsymbol{\Lambda}_* \in \mathbb{R}^{d \times d}$ 为 $d$
+个非零值特征 值构成的特征值对角矩阵,
+$\mathbf{V}_* \in \mathbb{R}^{m \times d}$ 为
+$\Lambda_* \in \mathbb{R}^{d \times d}$ 相应的特征值向量矩阵, 进而
+$\mathbf{B}=\left(\mathbf{V}_* \boldsymbol{\Lambda}_*^{1 / 2}\right)\left(\boldsymbol{\Lambda}_*^{1 / 2} \mathbf{V}_*^{\top}\right)$,
+求得
+$\mathbf{Z}=\boldsymbol{\Lambda}_*^{1 / 2} \mathbf{V}_*^{\top} \in \mathbb{R}^{d \times m}$,
+此时属性没有冗杂, 因此按降维
+的规则(降维后距离矩阵不变)并不能实现有效降维。
+
+由以上分析可以看出, 降维后的维度 $d^{\prime}$ 实际为 $\mathrm{B}$
+特征值分解后非零特征值的个数。
+
+## 10.5 主成分分析
+
+注意,作者在数次印刷中对本节符号进行修订,详见勘误修订,直接搜索页码即可,此处仅按个人推导需求定义符号,可能与不同印次书中符号不一致。
+
+### 10.5.1 式(10.14)的推导
+
+在一个坐标系中,
+任意向量等于其在各个坐标轴的坐标值乘以相应坐标轴单位向量之和。 例如,
+在二维直角坐标系中, $\boldsymbol{x}$ 轴和 $\boldsymbol{y}$
+轴的单位向量分别为 $\boldsymbol{v}_1=(1 ; 0)$ 和
+$\boldsymbol{v}_2=(0 ; 1)$, 向量 $\boldsymbol{r}=(2 ; 3)$ 可以表示为
+$\boldsymbol{r}=2 \boldsymbol{v}_1+3 \boldsymbol{v}_2$; 其实
+$\boldsymbol{v}_1=(1 ; 0)$ 和 $\boldsymbol{v}_2=(0 ; 1)$
+只是二维平面的一组 标准正交基, 但二维平面实际有无数标准正交基, 如
+$\boldsymbol{v}_1^{\prime}=\left(\frac{1}{\sqrt{2}} ; \frac{1}{\sqrt{2}}\right)$
+和
+$\boldsymbol{v}_2^{\prime}=\left(-\frac{1}{\sqrt{2}} ; \frac{1}{\sqrt{2}}\right)$,
+此时向量
+$\boldsymbol{r}=\frac{5}{\sqrt{2}} \boldsymbol{v}_1^{\prime}+\frac{1}{\sqrt{2}} \boldsymbol{v}_2^{\prime}$,
+其中
+$\frac{5}{\sqrt{2}}=\left(\boldsymbol{v}_1^{\prime}\right)^{\top} \boldsymbol{r}, \frac{1}{\sqrt{2}}=\left(\boldsymbol{v}_2^{\prime}\right)^{\top} \boldsymbol{r}$,
+即新坐标系里的坐标。
+
+下面开始推导,对于 $d$ 维空间 $\mathbb{R}^{d \times 1}$ 来说,
+传统的坐标系为
+$\left\{\boldsymbol{v}_1, \boldsymbol{v}_2, \ldots, \boldsymbol{v}_k, \ldots, \boldsymbol{v}_d\right\}$,
+其中 $\boldsymbol{v}_k$ 为除第 $k$ 个 元素为 1 其余元素均 0 的 $d$
+维列向量; 此时对于样本点
+$\boldsymbol{x}_i=\left(x_{i 1} ; x_{i 2} ; \ldots ; x_{i d}\right) \in \mathbb{R}^{d \times 1}$
+来说 亦可表示为
+$\boldsymbol{x}_i=x_{i 1} \boldsymbol{v}_1+x_{i 2} \boldsymbol{v}_2+\ldots+x_{i d} \boldsymbol{v}_d$
+。
+
+现假定投影变换后得到的新坐标系为
+$\left\{\boldsymbol{w}_1, \boldsymbol{w}_2, \ldots, \boldsymbol{w}_k, \ldots, \boldsymbol{w}_d\right\}$
+(即一组新的标准正 交基), 则 $\boldsymbol{x}_i$ 在新坐标系中的坐标为
+$\left(\boldsymbol{w}_1^{\top} \boldsymbol{x}_i ; \boldsymbol{w}_2^{\top} \boldsymbol{x}_i ; \ldots ; \boldsymbol{w}_d^{\top} \boldsymbol{x}_i\right)$
+。若丢弃新坐标系中的部分 坐标, 即将维度降低到 $d^{\prime}<d$
+(不失一般性, 假设丢掉的是后 $d-d^{\prime}$ 维坐标), 并令
+
+
+$$
+
+\mathbf{W}=\left(\boldsymbol{w}_1, \boldsymbol{w}_2, \ldots, \boldsymbol{w}_{d^{\prime}}\right) \in \mathbb{R}^{d \times d^{\prime}}
+
+$$
+
+
+
+则 $\boldsymbol{x}_i$ 在低维坐标系中的投影为 
+
+$$
+
+\begin{aligned}
+\boldsymbol{z}_i & =\left(z_{i 1} ; z_{i 2} ; \ldots ; z_{i d^{\prime}}\right)=\left(\boldsymbol{w}_1^{\top} \boldsymbol{x}_i ; \boldsymbol{w}_2^{\top} \boldsymbol{x}_i ; \ldots ; \boldsymbol{w}_{d^{\prime}}^{\top} \boldsymbol{x}_i\right) \\
+& =\mathbf{W}^{\top} \boldsymbol{x}_i
+\end{aligned}
+
+$$
+
+
+
+若基于 $\boldsymbol{z}_i$ 来重构 $\boldsymbol{x}_i$, 则会得到
+$\hat{\boldsymbol{x}}_i=\sum_{j=1}^{d^{\prime}} z_{i j} \boldsymbol{w}_j=\mathbf{W} \boldsymbol{z}_i$
+("西瓜书" P230 第 11 行)。
+
+有了以上符号基础, 接下来将式(10.14)化简成式(10.15)目标函数形式
+(可逐一核对各项 维数以验证推导是否有误):
+
+
+
+$$
+
+\begin{aligned}
+\sum_{i=1}^m\left\|\sum_{j=1}^{d^{\prime}} z_{i j} \boldsymbol{w}_j-\boldsymbol{x}_i\right\|_2^2 &=\sum_{i=1}^m\left\|\mathbf{W} \boldsymbol{z}_i-\boldsymbol{x}_i\right\|_2^2 &\textcircled{1}\\
+&=\sum_{i=1}^m\left\|\mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i-\boldsymbol{x}_i\right\|_2^2 &\textcircled{2}\\
+&=\sum_{i=1}^m\left(\mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i-\boldsymbol{x}_i\right)^{\top}\left(\mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i-\boldsymbol{x}_i\right) &\textcircled{3}\\
+&=\sum_{i=1}^m\left(\boldsymbol{x}_i^{\top} \mathbf{W} \mathbf{W}^{\top} \mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i-2 \boldsymbol{x}_i^{\top} \mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i+\boldsymbol{x}_i^{\top} \boldsymbol{x}_i\right) &\textcircled{4}\\
+&=\sum_{i=1}^m\left(\boldsymbol{x}_i^{\top} \mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i-2 \boldsymbol{x}_i^{\top} \mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i+\boldsymbol{x}_i^{\top} \boldsymbol{x}_i\right) &\textcircled{5}\\
+&=\sum_{i=1}^m\left(-\boldsymbol{x}_i^{\top} \mathbf{W}\mathbf{W}^{\top} \mathbf{x}_i+\boldsymbol{x}_i^{\top} \boldsymbol{x}_i\right) &\textcircled{6}\\
+&=\sum_{i=1}^m\left(-\left(\mathbf{W}^{\top} \boldsymbol{x}_i\right)^{\top}\left(\mathbf{W}^{\top} \boldsymbol{x}_i\right)+\boldsymbol{x}_i^{\top} \boldsymbol{x}_i\right) &\textcircled{7}\\
+&=\sum_{i=1}^m\left(-\left\|\mathbf{W}^{\top} \boldsymbol{x}_i\right\|_2^2+\boldsymbol{x}_i^{\top} \boldsymbol{x}_i\right) &\textcircled{8}\\
+&\propto-\sum_{i=1}^m\left\|\mathbf{W}^{\top} \boldsymbol{x}_i\right\|_2^2 &\textcircled{9}
+\end{aligned}
+
+$$
+
+
+
+$\textcircled{3}\to\textcircled{4}$是由于
+$\left(\mathbf{W} \mathbf{W}^{\top}\right)^{\top}=\left(\mathbf{W}^{\top}\right)^{\top}(\mathbf{W})^{\top}=\mathbf{W} \mathbf{W}^{\top}$,
+因此
+
+
+$$
+
+\left(\mathbf{W} \mathbf{W}^{\top} \boldsymbol{x}_i\right)^{\top}=\boldsymbol{x}_i^{\top}\left(\mathbf{W} \mathbf{W}^{\top}\right)^{\top}=\boldsymbol{x}_i^{\top} \mathbf{W} \mathbf{W}^{\top}
+
+$$
+
+
+代入即得$\textcircled{4}$;
+
+$\textcircled{4}\to\textcircled{5}$是由于
+$\boldsymbol{w}_i^{\top} \boldsymbol{w}_j=0,(i \neq j),\left\|\boldsymbol{w}_i\right\|=1$,
+因此
+$\mathbf{W}^{\top} \mathbf{W}=\mathbf{I} \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$,
+代入即得$\textcircled{5}$。由于最终目标是寻找 $\mathbf{W}$ 使目标函数(10.14)
+最小, 而 $\boldsymbol{x}_i^{\top} \boldsymbol{x}_i$ 与 $\mathbf{W}$
+无关, 因此在优化时可以去掉。令
+$\mathbf{X}=\left(\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_m\right) \in \mathbb{R}^{d \times m}$,
+即每列为一个样本, 则式(10.14)可继续化简为
+(参见10.2节) 
+
+$$
+
+\begin{aligned}
+-\sum_{i=1}^m\left\|\mathbf{W}^{\top} \boldsymbol{x}_i\right\|_2^2 & =-\left\|\mathbf{W}^{\top} \mathbf{X}\right\|_F^2 \\
+& =-\operatorname{tr}\left(\left(\mathbf{W}^{\top} \mathbf{X}\right)\left(\mathbf{W}^{\top} \mathbf{X}\right)^{\top}\right) \\
+& =-\operatorname{tr}\left(\mathbf{W}^{\top} \mathbf{X} \mathbf{X}^{\top} \mathbf{W}\right)
+\end{aligned}
+
+$$
+
+
+
+这里 $\mathbf{W}^{\top} \boldsymbol{x}_i=\boldsymbol{z}_i$,
+这里仅为得到式 (10.15) 的形式才最终保留 $\mathbf{W}$ 和
+$\boldsymbol{x}_i$ 的; 若令
+$\mathbf{Z}=\left(\boldsymbol{z}_1, \boldsymbol{z}_2, \ldots, \boldsymbol{z}_m\right) \in \mathbb{R}^{d^{\prime} \times m}$
+为低维坐标系中的样本集合, 则 $\mathbf{Z}=\mathbf{W}^{\top} \mathbf{X}$,
+即 $\boldsymbol{z}_i$ 为矩阵 $\mathbf{Z}$ 的第 $i$ 列; 而
+$\sum_{i=1}^m\left\|\mathbf{W}^{\top} \boldsymbol{x}_i\right\|_2^2=\sum_{i=1}^m\left\|\boldsymbol{z}_i\right\|_2^2$
+表示Z所有列向量 2 范数的平方, 也就是Z所 有元素的平方和, 即为
+$\|\mathbf{Z}\|_F^2$, 此即第一个等号的由来;
+而根据10.2节中第(3)个结论, 即对于矩阵 $\mathbf{Z}$ 有
+$\|\mathbf{Z}\|_F^2=\operatorname{tr}\left(\mathbf{Z}^{\top} \mathbf{Z}\right)=\operatorname{tr}\left(\mathbf{Z} \mathbf{Z}^{\top}\right)$,
+其中 $\operatorname{tr}(\cdot)$ 表示求矩阵的迹, 即对角线元素之和,
+此即第二个等号的由来; 第三个等号将转置化简即得。
+
+到此即得式(10.15)的目标函数, 约束条件
+$\mathbf{W}^{\top} \mathbf{W}=\mathbf{I}$ 已在推导中说明。
+
+式(10.15)的目标函数式(10.14)结果略有差异, 接下来推导
+$\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}=\mathbf{X X}^{\top}$
+以弥补这个差异(这个结论可以记下来)。
+
+先化简 $\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}$, 首先
+
+
+$$
+
+\boldsymbol{x}_i \boldsymbol{x}_i^{\top}=\left[\begin{array}{c}
+x_{i 1} \\
+x_{i 2} \\
+\vdots \\
+x_{i d}
+\end{array}\right]\left[\begin{array}{llll}
+x_{i 1} & x_{i 2} & \cdots & x_{i d}
+\end{array}\right]=\left[\begin{array}{cccc}
+x_{i 1} x_{i 1} & x_{i 1} x_{i 2} & \cdots & x_{i 1} x_{i d} \\
+x_{i 2} x_{i 1} & x_{i 2} x_{i 2} & \cdots & x_{i 2} x_{i d} \\
+\vdots & \vdots & \ddots & \vdots \\
+x_{i d} x_{i 1} & x_{i d} x_{i 2} & \cdots & x_{i d} x_{i d}
+\end{array}\right]_{d \times d}
+
+$$
+
+
+
+整体代入求和号 $\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}$,
+得 
+
+$$
+
+\begin{aligned}
+\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}= & \sum_{i=1}^m\left[\begin{array}{cccc}
+x_{i 1} x_{i 1} & x_{i 1} x_{i 2} & \cdots & x_{i 1} x_{i d} \\
+x_{i 2} x_{i 1} & x_{i 2} x_{i 2} & \cdots & x_{i 2} x_{i d} \\
+\vdots & \vdots & \ddots & \vdots \\
+x_{i d} x_{i 1} & x_{i d} x_{i 2} & \cdots & x_{i d} x_{i d}
+\end{array}\right]_{d \times d} \\
+= & {\left[\begin{array}{cccc}
+\sum_{i=1}^m x_{i 1} x_{i 1} & \sum_{i=1}^m x_{i 1} x_{i 2} & \cdots & \sum_{i=1}^m x_{i 1} x_{i d} \\
+\sum_{i=1}^m x_{i 2} x_{i 1} & \sum_{i=1}^m x_{i 2} x_{i 2} & \cdots & \sum_{i=1}^m x_{i 2} x_{i d} \\
+\vdots & \vdots & \ddots & \vdots \\
+\sum_{i=1}^m x_{i d} x_{i 1} & \sum_{i=1}^m x_{i d} x_{i 2} & \cdots & \sum_{i=1}^m x_{i d} x_{i d}
+\end{array}\right]_{d \times d} }
+\end{aligned}
+
+$$
+
+
+
+再化简 $\mathbf{X X}^{\top} \in \mathbb{R}^{d \times d}$
+
+
+$$
+
+\mathbf{X X}^{\top}=\left[\begin{array}{llll}
+\boldsymbol{x}_1 & \boldsymbol{x}_2 & \cdots & \boldsymbol{x}_d
+\end{array}\right]\left[\begin{array}{c}
+\boldsymbol{x}_1^{\top} \\
+\boldsymbol{x}_2^{\top} \\
+\vdots \\
+\boldsymbol{x}_d^{\top}
+\end{array}\right]
+
+$$
+
+
+
+将列向量
+$\boldsymbol{x}_i=\left(x_{i 1} ; x_{i 2} ; \ldots ; x_{i d}\right) \in \mathbb{R}^{d \times 1}$
+代入 
+
+$$
+
+\begin{aligned}
+& \mathbf{X X}^{\top}=\left[\begin{array}{cccc}
+x_{11} & x_{21} & \cdots & x_{m 1} \\
+x_{12} & x_{22} & \cdots & x_{m 2} \\
+\vdots & \vdots & \ddots & \vdots \\
+x_{1 d} & x_{2 d} & \cdots & x_{m d}
+\end{array}\right]_{d \times m} \bullet\left[\begin{array}{cccc}
+x_{11} & x_{12} & \cdots & x_{1 d} \\
+x_{21} & x_{22} & \cdots & x_{2 d} \\
+\vdots & \vdots & \ddots & \vdots \\
+x_{m 1} & x_{m 2} & \cdots & x_{m d}
+\end{array}\right]_{m \times d} \\
+& =\left[\begin{array}{cccc}
+\sum_{i=1}^m x_{i 1} x_{i 1} & \sum_{i=1}^m x_{i 1} x_{i 2} & \cdots & \sum_{i=1}^m x_{i 1} x_{i d} \\
+\sum_{i=1}^m x_{i 2} x_{i 1} & \sum_{i=1}^m x_{i 2} x_{i 2} & \cdots & \sum_{i=1}^m x_{i 2} x_{i d} \\
+\vdots & \vdots & \ddots & \vdots \\
+\sum_{i=1}^m x_{i d} x_{i 1} & \sum_{i=1}^m x_{i d} x_{i 2} & \cdots & \sum_{i=1}^m x_{i d} x_{i d}
+\end{array}\right]_{d \times d} \\
+&
+\end{aligned}
+
+$$
+
+
+
+综合 $\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}$ 和
+$\mathbf{X X}^{\top}$ 的化简结果, 即
+$\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}=\mathbf{X X}^{\top}$
+(协方差矩阵)。 根据刚刚推导得到的结论,
+式(10.14)最后的结果即可化为式(10.15)的目标函数
+
+
+$$
+
+\operatorname{tr}\left(\mathbf{W}^{\top}\left(\sum_{i=1}^m \boldsymbol{x}_i \boldsymbol{x}_i^{\top}\right) \mathbf{W}\right)=\operatorname{tr}\left(\mathbf{W}^{\top} \mathbf{X} \mathbf{X}^{\top} \mathbf{W}\right)
+
+$$
+
+
+
+式(10.15)描述的优化问题的求解详见式(10.17)最后的解释。
+
+### 10.5.2 式(10.16)的解释
+
+先说什么是方差,对于包含 $n$ 个样本的一组数据
+$X=\left\{x_1, x_2, \ldots, x_n\right\}$ 来说, 均值 $M$ 为
+
+
+$$
+
+M=\frac{x_1+x_2+\ldots+x_n}{n}=\sum_{i=1}^n x_i
+
+$$
+
+
+
+则方差 $\sigma_X^2$ 公式为 
+
+$$
+
+\begin{aligned}
+\sigma^2 & =\frac{\left(x_1-M\right)^2+\left(x_2-M\right)^2+\ldots+\left(x_n-M\right)^2}{n} \\
+& =\frac{1}{n} \sum_{i=1}^n\left(x_i-M\right)^2
+\end{aligned}
+
+$$
+
+
+
+方差衡量了该组数据偏离均值的程度,样本越分散, 其方差越大。
+
+再说什么是协方差,若还有包含 $n$ 个样本的另一组数据
+$X^{\prime}=\left\{x_1^{\prime}, x_2^{\prime}, \ldots, x_n^{\prime}\right\}$,
+均值为 $M^{\prime}$, 则下式 
+
+$$
+
+\begin{aligned}
+\sigma_{X X^{\prime}}^2 & =\frac{\left(x_1-M\right)\left(x_1^{\prime}-M^{\prime}\right)+\left(x_2-M\right)\left(x_2^{\prime}-M^{\prime}\right)+\ldots+\left(x_n-M\right)\left(x_n^{\prime}-M^{\prime}\right)}{n} \\
+& =\frac{1}{n} \sum_{i=1}^n\left(x_i-M\right)\left(x_i^{\prime}-M^{\prime}\right)
+\end{aligned}
+
+$$
+
+
+
+称为两组数据的协方差。 $\sigma_{X X^{\prime}}^2$ 能说明第一组数据
+$x_1, x_2, \ldots, x_n$ 和第二组数据
+$x_1^{\prime}, x_2^{\prime}, \ldots, x_n^{\prime}$ 的变化情况。具体来说,
+如果两组数据总是同时大于或小于自己的均值, 则
+$\left(x_i-M\right)\left(x_i^{\prime}-M^{\prime}\right)>0$, 此时
+$\sigma_{X X^{\prime}}^2>0$; 如果两组数据总是一个大于 (或小于) 自己的均
+值而别一个小于 (或大于) 自己的均值, 则
+$\left(x_i-M\right)\left(x_i^{\prime}-M^{\prime}\right)<0$, 此时
+$\sigma_{X X^{\prime}}^2<0$; 如果 两组数据与自己的均值的大小关系无规律,
+则 $\left(x_i-M\right)\left(x_i^{\prime}-M^{\prime}\right)$
+的正负号随机变化, 其平 均数 $\sigma_{X X}^2$, 则会趋近于 0
+。引用百度百科协方差词条原话: "从直观上来看, 协方差表示的是
+两个变量总体误差的期望。如果两个变量的变化趋势一致,
+也就是说如果其中一个大于自身 的期望值时另外一个也大于自身的期望值,
+那么两个变量之间的协方差就是正值; 如果两个 变量的变化趋势相反,
+即其中一个变量大于自身的期望值时另外一个却小于自身的期望值,
+那么两个变量之间的协方差就是负值。如果两个变量是统计独立的,
+那么二者之间的协方差 就是 0 , 但是, 反过来并不成立。协方差为 0
+的两个随机变量称为是不相关的。"
+
+最后说什么是协方差矩阵,结合本书中的符号:
+
+
+$$
+
+\mathbf{X}=\left(\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_m\right)=\left[\begin{array}{cccc}
+x_{11} & x_{21} & \cdots & x_{m 1} \\
+x_{12} & x_{22} & \cdots & x_{m 2} \\
+\vdots & \vdots & \ddots & \vdots \\
+x_{1 d} & x_{2 d} & \cdots & x_{m d}
+\end{array}\right]_{d \times m}
+
+$$
+
+ 矩阵 $\mathbf{X}$ 每一行表示一维特征,
+每一列表示该数据集的一个样本; 而本节开始已假定数据样本 进行了中心化, 即
+$\sum_{i=1}^m x_i=0 \in \mathbb{R}^{d \times 1}$ (中心化过程可通过
+$\mathbf{X}\left(\mathrm{I}-\frac{1}{m} 11^{\top}\right.$ )实现, 其中
+$\mathrm{I} \in \mathbb{R}^{m \times m}$ 为单位阵,
+$\mathbf{1} \in \mathbb{R}^{m \times 1}$ 为全 1 列向量, 参见习题 10.3),
+即上式矩阵的每一行平均 值等于零 (其实就是分别对所有 $\boldsymbol{x}_i$
+的每一维坐标进行中心化, 而不是分别对单个样本 $\boldsymbol{x}_i$ 中
+心化)对于包含 $d$ 个特征的特征空间(或称 $d$ 维特征空间)来说,
+每一维特征可以看成是一 个随机变量, 而 $\mathbf{X}$ 中包含 $m$ 个样本,
+也就是说每个随机变量有 $m$ 个数据, 根据前面 $\mathbf{X X}^{\top}$ 的
+矩阵表达形式:
+
+
+$$
+
+\frac{1}{m} \mathbf{X X}^{\top}=\frac{1}{m}\left[\begin{array}{cccc}
+\sum_{i=1}^m x_{i 1} x_{i 1} & \sum_{i=1}^m x_{i 1} x_{i 2} & \cdots & \sum_{i=1}^m x_{i 1} x_{i d} \\
+\sum_{i=1}^m x_{i 2} x_{i 1} & \sum_{i=1}^m x_{i 2} x_{i 2} & \cdots & \sum_{i=1}^m x_{i 2} x_{i d} \\
+\vdots & \vdots & \ddots & \vdots \\
+\sum_{i=1}^m x_{i d} x_{i 1} & \sum_{i=1}^m x_{i d} x_{i 2} & \cdots & \sum_{i=1}^m x_{i d} x_{i d}
+\end{array}\right]_{d \times d}
+
+$$
+
+
+
+根据前面的结果知道 $\frac{1}{m} \mathbf{X} \mathbf{X}^{\top}$ 的第 $i$
+行第 $j$ 列的元素表示 $\mathbf{X}$ 中第 $i$ 行和 $\mathbf{X}^{\top}$ 第
+$j$ 列(即 $\mathbf{X}$ 中第 $j$ 行) 的方差 $(i=j)$ 或协方差
+$(i \neq j)$ 。注意: 协方差矩阵对角线元素为各行的方差。
+
+接下来正式解释式(10.16): 对于
+$\mathbf{X}=\left(\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_m\right) \in \mathbb{R}^{d \times m}$,
+将其投影为
+$\mathbf{Z}=\left(\boldsymbol{z}_1, \boldsymbol{z}_2, \ldots, \boldsymbol{z}_m\right) \in \mathbb{R}^{d^{\prime} \times m}$,
+最大可分性出发, 我们希望在新空间的每一维坐标轴上样本都尽可能分散
+(即每维特征尽可 能分散, 也就是Z各行方差最大; 参见图 $10.4$ 所示,
+原空间只有两维坐标, 现考虑降至一维, 希望在新坐标系下样本尽可能分散,
+图中画出了一种映射后的坐标系, 显然橘红色坐标方向 样本更分散, 方差更大),
+即寻找 $\mathbf{W} \in \mathbb{R}^{d \times d^{\prime}}$ 使协方差矩阵
+$\frac{1}{m} \mathbf{Z Z}^{\top}$ 对角线元素之和 (矩阵的 迹)最大(即使
+$\mathbf{Z}$ 各行方差之和最大), 由于
+$\mathbf{Z}=\mathbf{W}^{\top} \mathbf{X}$, 而常系数 $\frac{1}{m}$
+在最大化时并不发生 影响, 求矩阵对角线元素之和即为矩阵的迹,
+综上即得式(10.16)。
+
+另外, 中心化后 $\mathbf{X}$ 的各行均值为零, 变换后
+$\mathbf{Z}=\mathbf{W}^{\top} \mathbf{X}$ 的各行均值仍为零, 这是因为
+$\mathbf{Z}$ 的第 $i$ 行
+$\left(1 \leqslant i \leqslant d^{\prime}\right)$ 为
+$\left\{\boldsymbol{w}_i^{\top} \boldsymbol{x}_1, \boldsymbol{w}_i^{\top} \boldsymbol{x}_2, \ldots, \boldsymbol{w}_i^{\top} \boldsymbol{x}_m\right\}$,
+该行之和
+$\boldsymbol{w}_i^{\top} \sum_{j=1}^m \boldsymbol{x}_j=\boldsymbol{w}_i^{\top} \mathbf{0}=0$
+。
+
+最后, 有关方差的公式, 有人认为应该除以样本数量 $m$,
+有人认为应该除以样本数量减 1 即 $m-1$ 。简单来说,
+根据总体样本集求方差就除以总体样本数量, 而根据抽样样本集求
+方差就除以抽样样本集数量减 1; 总体样本集是真正想调查的对象集合,
+而抽样样本集是从 总体样本集中被选出来的部分样本组成的集合,
+用来估计总体样本集的方差; 一般来说, 总体样本集是不可得的,
+我们拿到的都是抽样样本集。严格上来说,样本方差应该除以 $\mathrm{n}-1$
+才会得到总体样本的无偏估计, 若除以 $\mathrm{n}$ 则得到的是有偏估计。
+
+式(10.16)描述的优化问题的求解详见式(10.17)最后的解释。
+
+### 10.5.3 式(10.17)的推导
+
+由式(10.15)可知,主成分分析的优化目标为 
+
+$$
+
+\begin{aligned}
+&\min\limits_{\mathbf W} \quad-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)\\
+&s.t. \quad\mathbf W^{\mathrm{T}} \mathbf W=\mathbf I
+\end{aligned}
+
+$$
+
+
+其中,$\mathbf{X}=\left(\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{m}\right) \in \mathbb{R}^{d \times m},\mathbf{W}=\left(\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{d^{\prime}}\right) \in \mathbb{R}^{d \times d^{\prime}}$,$\mathbf{I} \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$为单位矩阵。对于带矩阵约束的优化问题,根据[1]中讲述的方法可得此优化目标的拉格朗日函数为
+
+
+$$
+
+\begin{aligned}
+L(\mathbf W,\Theta)&=-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\langle \Theta,\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I\rangle \\
+&=-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\text { tr }\left(\Theta^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right) 
+\end{aligned}
+
+$$
+
+
+
+其中,$\Theta  \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$为拉格朗日乘子矩阵,其维度恒等于约束条件的维度,且其中的每个元素均为未知的拉格朗日乘子,$\langle \Theta,\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I\rangle = \text { tr }\left(\Theta^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right)$为矩阵的内积[2]。若此时仅考虑约束$\boldsymbol{w}_i^{\mathrm{T}}\boldsymbol{w}_i=1(i=1,2,...,d^{\prime})$,则拉格朗日乘子矩阵$\Theta$此时为对角矩阵,令新的拉格朗日乘子矩阵为$\boldsymbol{\Lambda}=\operatorname{diag}(\lambda_1,\lambda_2,...,\lambda_{d^{\prime}})\in \mathbb{R}^{d^{\prime} \times d^{\prime}}$,则新的拉格朗日函数为
+
+
+$$
+
+L(\mathbf W,\boldsymbol{\Lambda})=-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\text { tr }\left(\boldsymbol{\Lambda}^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right)
+
+$$
+
+
+
+对拉格朗日函数关于$\mathbf{W}$求导可得 
+
+$$
+
+\begin{aligned}
+\cfrac{\partial L(\mathbf W,\boldsymbol{\Lambda})}{\partial \mathbf W}&=\cfrac{\partial}{\partial \mathbf W}\left[-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\text { tr }\left(\boldsymbol{\Lambda}^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right)\right] \\
+&=-\cfrac{\partial}{\partial \mathbf W}\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)+\cfrac{\partial}{\partial \mathbf W}\text { tr }\left(\boldsymbol{\Lambda}^{\mathrm{T}} (\mathbf W^{\mathrm{T}} \mathbf W-\mathbf I)\right) \\
+\end{aligned}
+
+$$
+
+
+
+由矩阵微分公式$\cfrac{\partial}{\partial \mathbf{X}} \text { tr }(\mathbf{X}^{\mathrm{T}}  \mathbf{B} \mathbf{X})=\mathbf{B X}+\mathbf{B}^{\mathrm{T}}  \mathbf{X},\cfrac{\partial}{\partial \mathbf{X}} \text { tr }\left(\mathbf{B X}^{\mathrm{T}}  \mathbf{X}\right)=\mathbf{X B}^{\mathrm{T}} +\mathbf{X B}$可得
+
+
+$$
+
+\begin{aligned}
+\cfrac{\partial L(\mathbf W,\boldsymbol{\Lambda})}{\partial \mathbf W}&=-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+\mathbf{W}\boldsymbol{\Lambda}+\mathbf{W}\boldsymbol{\Lambda}^{\mathrm{T}}  \\
+&=-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+\mathbf{W}(\boldsymbol{\Lambda}+\boldsymbol{\Lambda}^{\mathrm{T}} ) \\
+&=-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+2\mathbf{W}\boldsymbol{\Lambda}
+\end{aligned}
+
+$$
+
+
+令$\cfrac{\partial L(\mathbf W,\boldsymbol{\Lambda})}{\partial \mathbf W}=\mathbf 0$可得
+
+
+$$
+
+\begin{aligned}
+-2\mathbf X\mathbf X^{\mathrm{T}} \mathbf W+2\mathbf{W}\boldsymbol{\Lambda}&=\mathbf 0\\
+\mathbf X\mathbf X^{\mathrm{T}} \mathbf W&=\mathbf{W}\boldsymbol{\Lambda}\\
+\end{aligned}
+
+$$
+
+
+
+将$\mathbf W$和$\boldsymbol{\Lambda}$展开可得
+
+
+$$
+
+\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i=\lambda _i\boldsymbol w_i,\quad i=1,2,...,d^{\prime}
+
+$$
+
+
+
+显然,此式为矩阵特征值和特征向量的定义式,其中$\lambda_i,\boldsymbol w_i$分别表示矩阵$\mathbf X\mathbf X^{\mathrm{T}}$的特征值和单位特征向量。由于以上是仅考虑约束$\boldsymbol{w}_i^{\mathrm{T}}\boldsymbol{w}_i=1$所求得的结果,而$\boldsymbol{w}_i$还需满足约束$\boldsymbol{w}_{i}^{\mathrm{T}}\boldsymbol{w}_{j}=0(i\neq j)$。观察$\mathbf X\mathbf X^{\mathrm{T}}$的定义可知,$\mathbf X\mathbf X^{\mathrm{T}}$是一个实对称矩阵,实对称矩阵的不同特征值所对应的特征向量之间相互正交,同一特征值的不同特征向量可以通过施密特正交化使其变得正交,所以通过上式求得的$\boldsymbol w_i$可以同时满足约束$\boldsymbol{w}_i^{\mathrm{T}}\boldsymbol{w}_i=1,\boldsymbol{w}_{i}^{\mathrm{T}}\boldsymbol{w}_{j}=0(i\neq j)$。根据拉格朗日乘子法的原理可知,此时求得的结果仅是最优解的必要条件,而且$\mathbf X\mathbf X^{\mathrm{T}}$有$d$个相互正交的单位特征向量,所以还需要从这$d$个特征向量里找出$d^{\prime}$个能使得目标函数达到最优值的特征向量作为最优解。将$\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i=\lambda _i\boldsymbol w_i$代入目标函数可得
+
+
+$$
+
+\begin{aligned}
+\min\limits_{\mathbf W}-\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W)&=\max\limits_{\mathbf W}\text { tr }(\mathbf W^{\mathrm{T}} \mathbf X\mathbf X^{\mathrm{T}} \mathbf W) \\
+&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\boldsymbol w_i^{\mathrm{T}}\mathbf X\mathbf X^{\mathrm{T}} \boldsymbol w_i \\
+&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\boldsymbol w_i^{\mathrm{T}}\cdot\lambda _i\boldsymbol w_i \\
+&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\lambda _i\boldsymbol w_i^{\mathrm{T}}\boldsymbol w_i \\
+&=\max\limits_{\mathbf W}\sum_{i=1}^{d^{\prime}}\lambda _i \\
+\end{aligned}
+
+$$
+
+
+
+显然,此时只需要令$\lambda_1,\lambda_2,...,\lambda_{d^{\prime}}$和$\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{d^{\prime}}$分别为矩阵$\mathbf X\mathbf X^{\mathrm{T}}$的前$d^{\prime}$个最大的特征值和单位特征向量就能使得目标函数达到最优值。
+
+### 10.5.4 根据式(10.17)求解式(10.16)
+
+注意式(10.16)中 $\mathbf{W} \in \mathbb{R}^{d \times d^{\prime}}$, 只有
+$d^{\prime}$ 列, 而式(10.17)可以得到 $d$ 列, 如何根据式(10.17)
+求解式(10.16)呢? 对
+$\mathbf{X X}^{\top} \mathbf{W}=\mathbf{W} \boldsymbol{\Lambda}$
+两边同乘 $\mathbf{W}^{\top}$, 得
+
+
+$$
+
+\mathbf{W}^{\top} \mathbf{X} \mathbf{X}^{\top} \mathbf{W}=\mathbf{W}^{\top} \mathbf{W} \boldsymbol{\Lambda} = \boldsymbol{\Lambda}
+
+$$
+
+
+
+注意使用了约束条件 $\mathbf{W}^{\top} \mathbf{W}=\mathbf{I}$;
+上式左边与式(10.16)的优化目标对应矩阵相同, 而右边
+$\Lambda \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$ 是由
+$\mathbf{X X} \mathbf{X}^{\top}$ 的 $d^{\prime}$ 个特征值组成的对角阵,
+两边同时取矩阵的迹, 得
+
+
+$$
+
+\operatorname{tr}\left(\mathbf{W}^{\top} \mathbf{X} \mathbf{X}^{\top} \mathbf{W}\right)=\operatorname{tr}(\boldsymbol{\Lambda})=\sum_{i=1}^{d^{\prime}} \lambda_i
+
+$$
+
+
+$d$ 个特征值, 因此当然是取出最大的前 $d^{\prime}$ 个特征值, 而
+$\mathbf{W}$ 即特征值对应的标准化特征向量组 成的矩阵。
+
+特别注意, 图 $10.5$ 只是得到了投影矩阵 $\mathbf{W}$, 而降维后的样本为
+$\mathbf{Z}=\mathbf{W}^{\top} \mathbf{X}$。
+
+## 10.6 核化线性降维
+
+注意, 本节符号在第14次印刷中进行了修订,
+另外有一点需要注意的是,在上一节中用 $\boldsymbol{z}_i$ 表示
+$\boldsymbol{x}_i$ 降维后的像, 而本节用 $\boldsymbol{z}_i$ 表示
+$\boldsymbol{x}_i$ 在高 维特征空间中的像。
+
+本节推导实际上有一个前提, 以式(10.19)为例(式(10.21)仅将
+$\boldsymbol{z}_i$ 换为 $\phi\left(\boldsymbol{x}_i\right)$ 而已), 那就
+是 $\boldsymbol{z}_i$ 已经中心化 (计算方差要用样本减去均值,
+式(10.19)是均值为零时特殊形式, 详见式 (10.16)的解释), 但
+$\boldsymbol{z}_i=\phi\left(\boldsymbol{x}_i\right)$ 是
+$\boldsymbol{x}_i$ 高维特征空间中的像, 即使 $\boldsymbol{x}_i$
+已进行中心化, 但 $\boldsymbol{z}_i$ 却不 一定是中心化的,
+此时本节推导均不再成立。推广工作详见 KPCA[3]的附录
+A。
+
+### 10.6.1 式(10.19)的解释
+
+首先, 类似于式(10.14)的推导后半部分内容可知
+$\sum_{i=1}^m \boldsymbol{z}_i \boldsymbol{z}_i^{\top}=\mathbf{Z} \mathbf{Z}^{\top}$,
+其中 $\mathbf{Z}$ 的每一列 为一个样本, 设高维空间的维度为 $h$, 则
+$\mathbf{Z} \in \mathbb{R}^{h \times m}$, 其中 $m$ 为数据集样本数量。
+
+其次, 式(10.19)中的 $\mathbf{W}$ 为从高维空间降至低维 (维度为 $d$ )
+后的正交基, 在第 14 次印 刷中加入表述
+$\mathbf{W}=\left(\boldsymbol{w}_1, \boldsymbol{w}_2, \ldots, \boldsymbol{w}_d\right)$,
+其中 $\mathbf{W} \in \mathbb{R}^{h \times d}$, 降维过程为
+$\mathbf{X}=\mathbf{W}^{\top} \mathbf{Z}$ 。
+
+最后, 式(10.19)类似于式 (10.17), 是为了求解降维投影矩阵
+$\mathbf{W}=\left(\boldsymbol{w}_1, \boldsymbol{w}_2, \ldots, \boldsymbol{w}_d\right)$
+。 但问题在于 $\mathbf{Z Z}^{\top} \in \mathbb{R}^{h \times h}$, 当维度
+$h$ 很大时 (注意本节为核化线性降维, 第六章核方法中高
+斯核会把样本映射至无穷维), 此时根本无法求解 $\mathrm{Z}^{\top}$
+的特征值和特征向量。因此才有了后 面的式(10.20)。
+
+第 14 次印刷及之后印次, 式(10.19)为
+$\left(\sum_{i=1}^m \boldsymbol{z}_i \boldsymbol{z}_i^{\top}\right) \boldsymbol{w}_j=\lambda_j \boldsymbol{w}_j$,
+而在之前的印次中表 达有误, 实际应该为
+$\left(\sum_{i=1}^m \boldsymbol{z}_i \boldsymbol{z}_i^{\top}\right) \mathbf{W}=\mathbf{W} \boldsymbol{\Lambda}$,
+类似于式(10.17)。而这两种表达本质相同, $\lambda_j \boldsymbol{w}_j$ 为
+$\mathbf{W} \Lambda$ 的第 $j$ 列, 仅此而已。
+
+### 10.6.2 式(10.20)的解释
+
+本节为核化线性降维, 而式(10.19)是在维度为 $h$ 的高维空间运算,
+式(10.20)变形(咋一 看似乎有点无厘头)
+的目的是为了避免直接在高维空间运算, 即想办法能够使用式(6.22)的核技巧,
+也就是后面的式(10.24)。
+
+第 14 次印刷及之后印次该式没问题, 之前的式(10.20)应该是:
+
+
+$$
+
+\begin{aligned}
+\mathbf{W} & =\left(\sum_{i=1}^m \boldsymbol{z}_i \boldsymbol{z}_i^{\top}\right) \mathbf{W} \boldsymbol{\Lambda}^{-1}=\sum_{i=1}^m\left(\boldsymbol{z}_i\left(\boldsymbol{z}_i^{\top} \mathbf{W} \boldsymbol{\Lambda}^{-1}\right)\right) \\
+& =\sum_{i=1}^m\left(\boldsymbol{z}_i \boldsymbol{\alpha}_i\right)
+\end{aligned}
+
+$$
+
+ 其中
+$\boldsymbol{\alpha}_i=\boldsymbol{z}_i^{\top} \mathbf{W} \boldsymbol{\Lambda}^{-1} \in \mathbb{R}^{1 \times d}, \boldsymbol{z}_i^{\top} \in \mathbb{R}^{1 \times h}, \mathbf{W} \in \mathbb{R}^{h \times d}, \boldsymbol{\Lambda} \in \mathbb{R}^{d \times d}$
+为对角阵。这个结果 看似等号右侧也包含 $W$,
+但将此式代入式(10.19)后经化简可避免在高维空间的运算, 而将
+目标转化为求低维空间的
+$\boldsymbol{\alpha}_i \in \mathbb{R}^{1 \times d}$,
+详见式(10.24)的推导。
+
+### 10.6.3 式(10.21)的解释
+
+该式即为将式(10.19)中的 $\boldsymbol{z}_i$ 换为
+$\phi\left(\boldsymbol{x}_i\right)$ 的结果。
+
+### 10.6.4 式(10.22)的解释
+
+该式即为将式(10.20)中的 $\boldsymbol{z}_i$ 换为
+$\phi\left(\boldsymbol{x}_i\right)$ 的结果。
+
+### 10.6.5 式(10.24)的推导
+
+已知$\boldsymbol z_i=\phi(\boldsymbol x_i)$,类比$\mathbf{X}=\{\boldsymbol x_1,\boldsymbol x_2,...,\boldsymbol x_m\}$可以构造$\mathbf{Z}=\{\boldsymbol z_1,\boldsymbol z_2,...,\boldsymbol z_m\}$,所以公式(10.21)可变换为
+
+
+$$
+
+\left(\sum_{i=1}^{m} \phi(\boldsymbol{x}_{i}) \phi(\boldsymbol{x}_{i})^{\mathrm{T}}\right)\boldsymbol w_j=\left(\sum_{i=1}^{m} \boldsymbol z_i \boldsymbol z_i^{\mathrm{T}}\right)\boldsymbol w_j=\mathbf{Z}\mathbf{Z}^{\mathrm{T}}\boldsymbol w_j=\lambda_j\boldsymbol w_j
+
+$$
+
+
+又由公式(10.22)可知
+
+
+$$
+
+\boldsymbol w_j=\sum_{i=1}^{m} \phi\left(\boldsymbol{x}_{i}\right) \alpha_{i}^j=\sum_{i=1}^{m} \boldsymbol z_i \alpha_{i}^j=\mathbf{Z}\boldsymbol{\alpha}^j
+
+$$
+
+
+其中,$\boldsymbol{\alpha}^j=(\alpha_{1}^j;\alpha_{2}^j;...;\alpha_{m}^j)\in \mathbb{R}^{m \times 1}$。所以公式(10.21)可以进一步变换为
+
+
+$$
+
+\begin{aligned}
+\mathbf{Z}\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j&=\lambda_j\mathbf{Z}\boldsymbol{\alpha}^j \\
+\mathbf{Z}\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j&=\mathbf{Z}\lambda_j\boldsymbol{\alpha}^j
+\end{aligned}
+
+$$
+
+
+由于此时的目标是要求出$\boldsymbol w_j$,也就等价于要求出满足上式的$\boldsymbol{\alpha}^j$,显然,此时满足$\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j$的$\boldsymbol{\alpha}^j$一定满足上式,所以问题转化为了求解满足下式的$\boldsymbol{\alpha}^j$:
+
+
+$$
+
+\mathbf{Z}^{\mathrm{T}}\mathbf{Z}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j
+
+$$
+
+
+令$\mathbf{Z}^{\mathrm{T}}\mathbf{Z}=\mathbf{K}$,那么上式可化为
+
+
+$$
+
+\mathbf{K}\boldsymbol{\alpha}^j=\lambda_j\boldsymbol{\alpha}^j
+
+$$
+
+
+此式即为公式(10.24),其中矩阵$\mathbf{K}$的第i行第j列的元素$(\mathbf{K})_{ij}=\boldsymbol z_i^{\mathrm{T}}\boldsymbol z_j=\phi(\boldsymbol x_i)^{\mathrm{T}}\phi(\boldsymbol x_j)=\kappa\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right)$
+
+### 10.6.6 式(10.25)的解释
+
+式(10.25)仅需将第 14 次印刷中式(10.22)的 $\boldsymbol{w}_j$
+表达式转置后代入即可。
+
+该式的意义在于, 求解新样本 $\boldsymbol{x} \in \mathbb{R}^{d \times 1}$
+映射至高维空间 $\phi(\boldsymbol{x}) \in \mathbb{R}^{h \times 1}$
+后再降至低维空 高维空间 $\mathbb{R}^{h \times 1}$
+的运算。但是由于此处没有类似第 6 章支持向量的概念, 可以发现式(10.25)
+计算时需要对所有样本求和, 因此它的计算开销比较大。
+
+注意, 此处书中符号使用略有混乱, 因为在式(10.19)中 $\boldsymbol{z}_i$
+表示 $\boldsymbol{x}_i$ 在高维特征空间中的像, 而此处又用 $z_j$
+表示新样本 $\boldsymbol{x}$ 映射为 $\phi(\boldsymbol{x})$ 后再降维至
+$\mathbb{R}^{d^{\prime} \times 1}$ 空间时的第 $j$ 维坐标。
+
+## 10.7 流形学习
+
+不要被 "流形学习" 的名字所欺骗, 本节开篇就明确说了,
+它是一类借鉴了拓扑流形概 念的降维方法而已, 因此称为 "流形学习"。 $10.2$
+节 MDS 算法的降维准则是要求原始空间
+中样本之间的距离在低维空间中得以保持, $10.3$ 节 PCA
+算法的降维准则是要求低维子空间 对样本具有最大可分性,
+因为它们都是基于线性变换来进行降维的方法(参见式(10.13),
+故称为线性降维方法。
+
+### 10.7.1 等度量映射(Isomap)的解释
+
+如图"西瓜书"10.8所示, Isomap 算法与MDS 算法的区别仅在于距离矩阵
+$\mathbf{D} \in \mathbb{R}^{m \times m}$ 的计算方法不同。在 MDS 算法中,
+距离矩阵 $\mathbf{D} \in \mathbb{R}^{m \times m}$
+即为普通的样本之间欧氏距离; 而本节的 Isomap 算法中, 距离矩阵
+$\mathbf{D} \in \mathbb{R}^{m \times m}$ 由"西瓜书"图10.8的 Step1
+\~Step5 生成, 即 遵循流形假设。当然, 对新样本降维时也有不同,
+这在"西瓜书"图 10.8下的一段话中已阐明。
+
+另外解释一下测地线距离, 欧氏距离即两点之间的直线距离,
+而测地线距离是实际中可 以到达的路径, 如"西瓜书"图 10.7(a)中黑线
+(欧氏距离) 和红线 (测地线距离)。
+
+### 10.7.2 式(10.28)的推导
+
+
+
+$$
+
+w_{i j}=\frac{\sum\limits_{k \in Q_{i}} C_{j k}^{-1}}{\sum\limits_{l, s \in Q_{i}} C_{l s}^{-1}}
+
+$$
+
+
+由书中上下文可知,式(10.28)是如下优化问题的解。 
+
+$$
+
+\begin{aligned} 
+\min _{\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m}} & \sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{j}\right\|_{2}^{2} \\ 
+\text { s.t. } & \sum_{j \in Q_{i}} w_{i j}=1 
+\end{aligned}
+
+$$
+
+
+若令$\boldsymbol{x}_{i}\in \mathbb{R}^{d\times 1},Q_i=\{q_i^1,q_i^2,...,q_i^n\}$,则上述优化问题的目标函数可以进行如下恒等变形
+
+
+$$
+
+\begin{aligned} 
+\sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{j}\right\|_{2}^{2}&=\sum_{i=1}^{m}\left\|\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{i}-\sum_{j \in Q_{i}} w_{i j} \boldsymbol{x}_{j}\right\|_{2}^{2} \\ 
+&=\sum_{i=1}^{m}\left\|\sum_{j \in Q_{i}} w_{i j}(\boldsymbol{x}_{i}-\boldsymbol{x}_{j}) \right\|_{2}^{2} \\ 
+&=\sum_{i=1}^{m}\left\|\mathbf{X}_i\boldsymbol{w_i} \right\|_{2}^{2} \\
+&=\sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i} \\ 
+\end{aligned}
+
+$$
+
+
+其中$\boldsymbol{w_i}=(w_{iq_i^1},w_{iq_i^2},...,w_{iq_i^n})\in \mathbb{R}^{n\times 1}$,$\mathbf{X}_i=\left( \boldsymbol{x}_{i}-\boldsymbol{x}_{q_i^1}, \boldsymbol{x}_{i}-\boldsymbol{x}_{q_i^2},...,\boldsymbol{x}_{i}-\boldsymbol{x}_{q_i^n}\right)\in \mathbb{R}^{d\times n}$。同理,约束条件也可以进行如下恒等变形
+
+
+$$
+
+\sum_{j \in Q_{i}} w_{i j}=\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}=1
+
+$$
+
+
+其中$\boldsymbol{I}=(1,1,...,1)\in \mathbb{R}^{n\times 1}$为$n$行1列的元素值全为1的向量。因此,上述优化问题可以重写为
+
+
+$$
+
+\begin{aligned} 
+\min _{\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m}} & \sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i} \\ 
+\text { s.t. } & \boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}=1
+\end{aligned}
+
+$$
+
+
+显然,此问题为带约束的优化问题,因此可以考虑使用拉格朗日乘子法来进行求解。由拉格朗日乘子法可得此优化问题的拉格朗日函数为
+
+
+$$
+
+L(\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m},\lambda)=\sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}+\lambda\left(\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}-1\right)
+
+$$
+
+
+对拉格朗日函数关于$\boldsymbol{w_i}$求偏导并令其等于0可得
+
+
+$$
+
 \begin{aligned} 
 \cfrac{\partial L(\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{m},\lambda)}{\partial \boldsymbol{w_i}}&=\cfrac{\partial \left[\sum_{i=1}^{m}\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}+\lambda\left(\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}-1\right)\right]}{\partial \boldsymbol{w_i}}=0\\
 &=\cfrac{\partial \left[\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}+\lambda\left(\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}-1\right)\right]}{\partial \boldsymbol{w_i}}=0\\
 \end{aligned}
+
 $$
 
 
 又由矩阵微分公式$\cfrac{\partial \boldsymbol{x}^{T} \mathbf{B} \boldsymbol{x}}{\partial \boldsymbol{x}}=\left(\mathbf{B}+\mathbf{B}^{\mathrm{T}}\right) \boldsymbol{x},\cfrac{\partial \boldsymbol{x}^{T} \boldsymbol{a}}{\partial \boldsymbol{x}}=\boldsymbol{a}$可得
+
+
 $$
+
 \begin{aligned}
 \cfrac{\partial \left[\boldsymbol{w_i}^{\mathrm{T}}\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}+\lambda\left(\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}-1\right)\right]}{\partial \boldsymbol{w_i}}&=2\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}+\lambda \boldsymbol{I}=0\\
 \mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i\boldsymbol{w_i}&=-\frac{1}{2}\lambda \boldsymbol{I}
 \end{aligned}
+
 $$
-若$\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i$可逆,则
+
+ 若$\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i$可逆,则
+
+
 $$
+
 \boldsymbol{w_i}=-\frac{1}{2}\lambda(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}\boldsymbol{I}
+
 $$
 
 
 又因为$\boldsymbol{w_i}^{\mathrm{T}}\boldsymbol{I}=\boldsymbol{I}^{\mathrm{T}}\boldsymbol{w_i}=1$,则上式两边同时左乘$\boldsymbol{I}^{\mathrm{T}}$可得
+
+
 $$
+
 \begin{aligned}
 \boldsymbol{I}^{\mathrm{T}}\boldsymbol{w_i}&=-\frac{1}{2}\lambda\boldsymbol{I}^{\mathrm{T}}(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}\boldsymbol{I}=1\\
 -\frac{1}{2}\lambda&=\cfrac{1}{\boldsymbol{I}^{\mathrm{T}}(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}\boldsymbol{I}}
 \end{aligned}
+
 $$
+
+
 将其代回$\boldsymbol{w_i}=-\frac{1}{2}\lambda(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}\boldsymbol{I}$即可解得
+
+
 $$
+
 \boldsymbol{w_i}=\cfrac{(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}\boldsymbol{I}}{\boldsymbol{I}^{\mathrm{T}}(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}\boldsymbol{I}}
+
 $$
 
 
+
 若令矩阵$(\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i)^{-1}$第$j$行第$k$列的元素为$C_{jk}^{-1}$,则
+
+
 $$
+
 w_{ij}=w_{i q_i^j}=\frac{\sum\limits_{k \in Q_{i}} C_{j k}^{-1}}{\sum\limits_{l, s \in Q_{i}} C_{l s}^{-1}}
+
 $$
 
 
 此即为公式(10.28)。显然,若$\mathbf{X}_i^{\mathrm{T}}\mathbf{X}_i$可逆,此优化问题即为凸优化问题,且此时用拉格朗日乘子法求得的$\boldsymbol{w_i}$为全局最优解。
 
-## 10.31
+### 10.7.3 式(10.31)的推导
+
+以下推导需要使用预备知识中的10.2节:矩阵的 $\mathrm{F}$ 范数与迹。
+
+观察式(10.29), 求和号内实际是一个列向量的 2 范数平方, 令
+$\boldsymbol{v}_i=\boldsymbol{z}_i-\sum_{j \in Q_i} w_{i j} \boldsymbol{z}_j$,
+$\boldsymbol{v}_i$ 的维度与 $\boldsymbol{z}_i$ 相同,
+$\boldsymbol{v}_i \in \mathbb{R}^{d^{\prime} \times 1}$,
+则式(10.29)可重写为 
+
+$$
+
+\begin{aligned}
+\min _{\boldsymbol{z}_1, \boldsymbol{z}_2, \ldots, \boldsymbol{z}_m} & \sum_{i=1}^m\left\|\boldsymbol{v}_i\right\|_2^2 \\
+\text { s.t. } & \boldsymbol{v}_i=\boldsymbol{z}_i-\sum_{j \in Q_i} w_{i j} \boldsymbol{z}_j, i=1,2, \ldots, m
+\end{aligned}
+
+$$
+
+
+
+令
+$\mathbf{Z}=\left(\boldsymbol{z}_1, \boldsymbol{z}_2, \ldots, \boldsymbol{z}_i, \ldots, \boldsymbol{z}_m\right) \in \mathbb{R}^{d^{\prime} \times m}, \mathbf{I}_i=(0 ; 0 ; \ldots ; 1 ; \ldots ; 0) \in \mathbb{R}^{m \times 1}$,
+即 $\mathbf{I}_i$ 为$m \times 1$ 的列向量, 除第 $i$ 个元素等于 1
+之外其余元素均为零, 则 
+
+$$
+
+\boldsymbol{z}_i=\mathbf{Z I}_i
+
+$$
+
+ 令
+$(\mathbf{W})_{i j}=w_{i j}$ (P237 页第 1 行 ), 即
+$\mathbf{W}=\left(\boldsymbol{w}_1, \boldsymbol{w}_2, \ldots, \boldsymbol{w}_i, \ldots, \boldsymbol{w}_m\right)^{\top} \in \mathbb{R}^{m \times m}$,
+也就是说 $\mathbf{W}$ 的第 $i$ 行的转置(没错, 就是第 $i$ 行) 对应第 $i$
+个样 数 $\boldsymbol{w}_i$ (这里符号之所以别扭是因为 $w_{i j}$
+已用来表示列向量 $\boldsymbol{w}_i$ 的第 $j$ 个元素, 但为了与习惯保
+持一致即 $w_{i j}$ 表示 $\mathbf{W}$ 的第 $i$ 行第 $j$ 列元素, 只能忍忍,
+此处暂时别扭着), 即
+
+
+$$
+
+\mathbf{W}=\left(\boldsymbol{w}_1, \boldsymbol{w}_2, \ldots, \boldsymbol{w}_i, \ldots, \boldsymbol{w}_m\right)^{\top}=\left[\begin{array}{cccccc}
+w_{11} & w_{21} & \cdots & w_{i 1} & \cdots & w_{m 1} \\
+w_{12} & w_{22} & \cdots & w_{i 2} & \cdots & w_{m 2} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+w_{1 j} & w_{2 j} & \cdots & w_{i j} & \cdots & w_{m j} \\
+\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
+w_{1 m} & w_{2 m} & \cdots & w_{i m} & \cdots & w_{m m}
+\end{array}\right]^{\top}
+
+$$
+
+
+
+对于 $\boldsymbol{w}_i \in \mathbb{R}^{m \times 1}$ 来说, 只有
+$\boldsymbol{x}_i$ 的 $K$ 个近邻样本对应的下标对应的
+$w_{i j} \neq 0, j \in Q_i$, 且它们 的和等于 1 , 则
+
+
+$$
+
+\sum_{j \in Q_i} w_{i j} \boldsymbol{z}_j=\mathbf{Z} \boldsymbol{w}_i
+
+$$
+
+
+
+因此
+
+
+$$
+
+\boldsymbol{v}_i=\boldsymbol{z}_i-\sum_{j \in Q_i} w_{i j} \boldsymbol{z}_j=\mathbf{Z I}_i-\mathbf{Z} \boldsymbol{w}_i=\mathbf{Z}\left(\mathbf{I}_i-\boldsymbol{w}_i\right)
+
+$$
+
+
+
+令
+$\mathbf{V}=\left(\boldsymbol{v}_1, \boldsymbol{v}_2, \ldots, \boldsymbol{v}_i, \ldots, \boldsymbol{v}_m\right) \in \mathbb{R}^{d^{\prime} \times m}, \mathbf{I}=\left(\mathbf{I}_1, \mathbf{I}_2, \ldots, \mathbf{I}_i, \ldots, \mathbf{I}_m\right) \in \mathbb{R}^{m \times m}$,
+则
+
+
+$$
+
+\mathbf{V}=\mathbf{Z}\left(\mathbf{I}-\mathbf{W}^{\top}\right)=\mathbf{Z}\left(\mathbf{I}^{\top}-\mathbf{W}^{\top}\right)=\mathbf{Z}(\mathbf{I}-\mathbf{W})^{\top}
+
+$$
+
+
+
+根据前面的预备知识, 并将上式 $V$ 和式(10.30)代入, 得式(10.31)目标函数:
+
+
+$$
+
+\begin{aligned}
+\sum_{i=1}^m\left\|\boldsymbol{v}_i\right\|_2^2 & =\|\mathbf{V}\|_F^2 \\
+& =\operatorname{tr}\left(\mathbf{V} \mathbf{V}^{\top}\right) \\
+& =\operatorname{tr}\left(\left(\mathbf{Z}(\mathbf{I}-\mathbf{W})^{\top}\right)\left(\mathbf{Z}(\mathbf{I}-\mathbf{W})^{\top}\right)^{\top}\right) \\
+& =\operatorname{tr}\left(\mathbf{Z}(\mathbf{I}-\mathbf{W})^{\top}(\mathbf{I}-\mathbf{W}) \mathbf{Z}^{\top}\right) \\
+& =\operatorname{tr}\left(\mathbf{Z}\mathbf{M}\mathbf{Z}^{\top}\right)
+\end{aligned}
+
+$$
+
+
+
+接下来求解式(10.31)。
+
+参考式(10.17)的推导, 应用拉格朗日乘子法, 先写出拉格朗日函数
+
+
+$$
+
+L(\mathbf{Z}, \boldsymbol{\Lambda})=\operatorname{tr}\left(\mathbf{Z M Z}^{\top}\right)+\left(\mathbf{Z Z}^{\top}-\mathbf{I}\right) \boldsymbol{\Lambda}
+
+$$
+
+
+
+令 $\mathbf{P}=\mathbf{Z}^{\top}$ (否则有点别扭), 则拉格朗日函数变为
+
+
+$$
+
+L(\mathbf{P}, \boldsymbol{\Lambda})=\operatorname{tr}\left(\mathbf{P}^{\top} \mathbf{M} \mathbf{P}\right)+\left(\mathbf{P}^{\top} \mathbf{P}-\mathbf{I}\right) \mathbf{\Lambda}
+
+$$
+
+
+
+求导并令导数等于 0 : 
+
 $$
+
 \begin{aligned}
-&\min\limits_{\boldsymbol Z}\operatorname{tr}(\boldsymbol Z \boldsymbol M \boldsymbol Z^T)\\
-&s.t. \boldsymbol Z^T\boldsymbol Z=\boldsymbol I. 
+\frac{\partial L(\mathbf{P}, \boldsymbol{\Lambda})}{\partial \mathbf{P}} & =\frac{\partial \operatorname{tr}\left(\mathbf{P}^{\top} \mathbf{M} \mathbf{P}\right)}{\partial \mathbf{P}}+\frac{\partial\left(\mathbf{P}^{\top} \mathbf{P}-\mathbf{I}\right)}{\partial \mathbf{P}} \boldsymbol{\Lambda} \\
+& =2 \mathbf{M} \mathbf{P}-2 \mathbf{P} \boldsymbol{\Lambda}=\mathbf{0}
 \end{aligned}
+
 $$
 
 
 
-[推导]:
+特征值对角阵; 然后两边再同时左乘 $\mathbf{P}^{\top}$ 并取矩阵的迹, 注意
+$\mathbf{P}^{\top} \mathbf{P}=\mathbf{I} \in \mathbb{R}^{d^{\prime} \times d^{\prime}}$,
+得
+$\operatorname{tr}\left(\mathbf{P}^{\top} \mathbf{M} \mathbf{P}\right)=\operatorname{tr}\left(\mathbf{P}^{\top} \mathbf{P} \boldsymbol{\Lambda}\right)=\operatorname{tr}(\boldsymbol{\Lambda})$
+因此, $\mathbf{P}=\mathbf{Z}^{\top}$ 是由
+$\mathrm{M} \in \mathbb{R}^{m \times m}$ 最小的 $d^{\prime}$
+个特征值对应的特征向量组成的矩阵。
+
+## 10.8 度量学习
+
+回忆10.5.1节的Isomap算法相比与10.2节的MDS算法的区别在于距离矩阵的计算方法不同,Isomap算法在计算样本间距离时使用的(近似)测地线距离,而MDS算法使用的是欧氏距离,也就是说二者的距离度量不同。
+
+### 10.8.1 式(10.34)的解释
+
+为了推导方便, 令
+$\boldsymbol{u}=\left(u_1 ; u_2 ; \ldots ; u_d\right)=\boldsymbol{x}_i-\boldsymbol{x}_j \in \mathbb{R}^{d \times 1}$,
+其中 $u_k=x_{i k}-x_{j k}$, 则式(10.34)重写为
+$\boldsymbol{u}^{\top} \mathbf{M} \boldsymbol{u}=\|\boldsymbol{u}\|_{\mathbf{M}}^2$,
+其中 $\mathbf{M} \in \mathbb{R}^{d \times d}$, 具体到元素级别的表达:
+
+
 $$
+
 \begin{aligned}
-\min\limits_{\boldsymbol Z}\sum^m_{i=1}\| \boldsymbol z_i-\sum_{j \in Q_i}w_{ij}\boldsymbol z_j \|^2_2&=\sum^m_{i=1}\|\boldsymbol Z\boldsymbol I_i-\boldsymbol Z\boldsymbol W_i\|^2_2\\
-&=\sum^m_{i=1}\|\boldsymbol Z(\boldsymbol I_i-\boldsymbol W_i)\|^2_2\\
-&=\sum^m_{i=1}(\boldsymbol Z(\boldsymbol I_i-\boldsymbol W_i))^T\boldsymbol Z(\boldsymbol I_i-\boldsymbol W_i)\\
-&=\sum^m_{i=1}(\boldsymbol I_i-\boldsymbol W_i)^T\boldsymbol Z^T\boldsymbol Z(\boldsymbol I_i-\boldsymbol W_i)\\
-&=\operatorname{tr}((\boldsymbol I-\boldsymbol W)^T\boldsymbol Z^T\boldsymbol Z(\boldsymbol I-\boldsymbol W))\\
-&=\operatorname{tr}(\boldsymbol Z(\boldsymbol I-\boldsymbol W)(\boldsymbol I-\boldsymbol W)^T\boldsymbol Z^T)\\
-&=\operatorname{tr}(\boldsymbol Z\boldsymbol M\boldsymbol Z^T)
+\boldsymbol{u}^{\top} \mathbf{M} \boldsymbol{u} & =\left[\begin{array}{llll}
+u_1 & u_2 & \ldots & u_d
+\end{array}\right]\left[\begin{array}{cccc}
+m_{11} & m_{12} & \ldots & m_{1 d} \\
+m_{21} & m_{22} & \ldots & m_{2 d} \\
+\vdots & \vdots & \ddots & \vdots \\
+m_{d 1} & m_{d 2} & \ldots & m_{d d}
+\end{array}\right]\left[\begin{array}{c}
+u_1 \\
+u_2 \\
+\vdots \\
+u_d
+\end{array}\right] \\
+& =\left[\begin{array}{llll}
+u_1 & u_2 & \ldots & u_d
+\end{array}\right]\left[\begin{array}{c}
+u_1 m_{11}+u_2 m_{12}+\ldots+u_d m_{1 d} \\
+u_1 m_{21}+u_2 m_{22}+\ldots+u_d m_{2 d} \\
+\vdots \\
+u_1 m_{d 1}+u_2 m_{d 2}+\ldots+u_d m_{d d}
+\end{array}\right] \\
+& =u_1 u_1 m_{11}+u_1 u_2 m_{12}+\ldots+u_1 u_d m_{1 d} \\
+& +u_2 u_1 m_{21}+u_2 u_2 m_{22}+\ldots+u_2 u_d m_{2 d} \\
+& \ldots \\
+& +u_d u_1 m_{d 1}+u_d u_2 m_{d 2}+\ldots+u_d u_d m_{d d}
 \end{aligned}
+
+$$
+
+ 注意, 对应到本式符号,
+式(10.33)的结果即为上面最后一个等式的对角线部分, 即
+
+
+$$
+
+u_1 u_1 m_{11}+u_2 u_2 m_{22}+\ldots+u_d u_d m_{d d}
+
+$$
+
+
+而式(10.32)的结果则要更进一步, 去除对角线部分中的权重
+$m_{i i}(1 \leqslant i \leqslant d)$ 部分, 即
+
+
+$$
+
+u_1 u_1+u_2 u_2+\ldots+u_d u_d
+
+$$
+
+ 对比以上三个结果,
+即式(10.32)的平方欧氏距离, 式(10.33)的加权平方欧氏距离, 式(10.34)
+的马氏距离, 可以细细体会度量矩阵究竟带来了什么。
+
+因此, 所谓 "度量学习", 即将系统中的平方欧氏距离换为式(10.34)的马氏距离,
+通过 优化某个目标函数, 得到最恰当的度量矩阵 $\mathbf{M}$
+(新的距离度量计算方法)的过程。书中在 式(10.34) (10.38)介绍的 NCA
+即为一个具体的例子, 可以从中品味 "度量学习"的本质。
+
+对于度量矩阵 $\mathbf{M}$ 要求半正定, 文中提到必有正交基 $\mathbf{P}$
+使得 $\mathbf{M}$ 能写为 $\mathbf{M}=\mathbf{P P}^{\top}$, 此时 马氏距离
+$\boldsymbol{u}^{\top} \mathbf{M} \boldsymbol{u}=\boldsymbol{u}^{\top} \mathbf{P} \mathbf{P}^{\top} \boldsymbol{u}=\left\|\mathbf{P}^{\top} \boldsymbol{u}\right\|_2^2$
+。
+
+### 10.8.2 式(10.35)的解释
+
+这就是一种定义而已,没什么别的意思。传统近邻分类器使用多数投票法,有投票权的样本为
+$\boldsymbol{x}_i$ 最近的 $\mathrm{K}$ 个近邻, 即 $\mathrm{KNN}$;
+但也可以将投票范围扩大到整个样本集, 但每个样本 的投票权重不一样,距离
+$\boldsymbol{x}_i$ 越近的样本投票权重越大,例如可取为第 5 章式(5.19)当
+$\beta_i=1$ 时的高斯径向基函数
+$\exp \left(-\left\|\boldsymbol{x}_i-\boldsymbol{x}_j\right\|^2\right)$
+。从式中可以看出, 若 $\boldsymbol{x}_j$ 与 $\boldsymbol{x}_i$ 重合,
+则投票权重 为 1 ,
+距离越大该值越小。式(10.35)的分母是对所有投票值规一化至 $[0,1]$ 范围,
+使之为概率。
+
+可能会有疑问: 式(10.35)分母求和变量 $l$ 是否应该包含 $\boldsymbol{x}_i$
+的下标即 $l=i$ ? 其实无所谓, 进一步说其实是否进行规一化也无所谓, 熟悉
+$\mathrm{KNN}$ 的话就知道, 在预测时是比较各类投票 数的相对大小,
+各类样本对 $\boldsymbol{x}_i$ 的投票权重的分母在式(10.35)中相同,
+因此不影响相对大小。
+
+注意啊, 这里有计算投票权重时用到了距离度量,
+所以可以进一步将其换为马氏距离, 通过优化某个目标
+(如式(10.38))得到最优的度量矩阵 $\mathbf{M}$。
+
+### 10.8.3 式(10.36)的解释
+
+先简单解释留一法(LOO), $\mathrm{KNN}$ 是选出样本 $\boldsymbol{x}_i$
+的在样本集中最近的 $\mathrm{K}$ 个近邻, 而现在 将范围扩大,
+使用样本集中的所有样本进行投票, 每个样本的投票权重为式(10.35), 将各类
+样本的投票权重分别求和, 注意 $\boldsymbol{x}_i$
+自己的类别肯定与自己相同(现在是训练阶段, 还没到 对末见样本的预测阶段,
+训练集样本的类别信息均已知), 但自己不能为自己投票吧, 所以 要将自己除外,
+即留一法。
+
+假设训练集共有 $N$ 个类别, $\Omega_n$ 表示第 $n$ 类样本的下标集合
+$(1 \leqslant n \leqslant N)$, 对于样本 $\boldsymbol{x}_i$ 来说,
+可以分别计算 $N$ 个概率:
+
+
+$$
+
+p_n^{\boldsymbol{x}_i}=\sum_{j \in \Omega_n} p_{i j}, 1 \leqslant n \leqslant N
+
 $$
 
-其中,$\boldsymbol M=(\boldsymbol I-\boldsymbol W)(\boldsymbol I-\boldsymbol W)^T$。
-[解析]:约束条件$\boldsymbol Z^T\boldsymbol Z=\boldsymbol I$是为了得到标准化(标准正交空间)的低维数据。
 
-## 参考文献
-<span id="ref1">[1][How to set up Lagrangian optimization with matrix constrains](https://math.stackexchange.com/questions/1104376/how-to-set-up-lagrangian-optimization-with-matrix-constrains)</span><br>
-<span id="ref2">[2][Frobenius inner product](https://en.wikipedia.org/wiki/Frobenius_inner_product)</span>
+注意, 若样本 $\boldsymbol{x}_i$ 的类别为 $n_*$, 则在根据上式计算
+$p_{n_*}^{\boldsymbol{x}_i}$ 时要将 $\boldsymbol{x}_i$ 的下标去除,
+即刚刚解释的留 一法 (自己不能为自己投票)。 $p_{n_*}^{\boldsymbol{x}_i}$
+即为训练集将样本 $\boldsymbol{x}_i$ 预测为第 $n_*$ 类的概率, 若
+$p_{n_*}^{\boldsymbol{x}_i}$ 在所有的
+$p_n^{\boldsymbol{x}_i}(1 \leqslant n \leqslant N)$ 中最大, 则预测正确,
+反之预测错误。
+
+其中$p_{n_*}^{\boldsymbol{x}_i}$即为式(10.36)。
+
+### 10.8.4 式(10.37)的解释
+
+换为刚才式(10.36)的符号, 式(10.37)即为 $\sum_{i=1}^m p_{n_*}^{x_i}$,
+也就是所有训练样本被训练集预测
+正确的概率之和。我们当然希望这个概率和最大, 但若采用平方欧氏距离时,
+对于某个训练 集来说这个概率和是固定的; 但若采用了马氏距离,
+这个概率和与度量矩阵 $M$ 有关。
+
+### 10.8.5 式(10.38)的解释
+
+刚才式(10.37)中提到希望寻找一个度量矩阵 $\mathrm{M}$
+使训练样本被训练集预测正确的概率之 和最大, 即
+$\max _{\mathrm{M}} \sum_{i=1}^m p_{n_*}^{\boldsymbol{x}_i}$,
+但优化问题习惯是最小化, 所以改为
+$\min _{\mathrm{M}}-\sum_{i=1}^m p_{n_*}^{\boldsymbol{x}_i}$ 即可,
+而式(10.38)目标函数中的常数 1 并不影响优化结果, 有没有无所谓的。
+
+式(10.38)中有关将 $\mathbf{M}=\mathbf{P} \mathbf{P}^{\top}$
+代入的形式参见前面式(10.34)的解释最后一段。
+
+### 10.8.6 式(10.39)的解释
+
+式(10.39)是本节第二个 "度量学习"
+的具体例子。优化目标函数是要求必连约束集合 $\mathcal{M}$
+中的样本对之间的距离之和尽可能的小,而约束条件则是要求勿连约束集合
+$\mathcal{C}$ 中的样本对之 间的距离之和大于 1 。
+
+这里的 "1"应该类似于第 6 章 SVM 中间隔大于 "1", 纯属约定, 没有推导。
+
+# 参考文献
+[1] Michael Grant. Lagrangian optimization with matrix constrains, 2015.
+
+[2] Wikipedia contributors. Frobenius inner product, 2020.
+
+[3] Bernhard Schölkopf, Alexander Smola, and Klaus-Robert Müller. Kernel principal component analy-
+sis. In Artificial Neural Networks—ICANN’97: 7th International Conference Lausanne, Switzerland,
+October 8–10, 1997 Proceeedings, pages 583–588. Springer, 2005.

+ 501 - 118
docs/chapter11/chapter11.md

@@ -1,70 +1,215 @@
-## 11.1
+# 第11章 特征选择与稀疏学习
 
-$$
-\operatorname{Gain}(A)=\operatorname{Ent}(D)-\sum_{v=1}^{V} \frac{\left|D^{v}\right|}{|D|} \operatorname{Ent}\left(D^{v}\right)
-$$
+## 11.1 子集搜索与评价
+
+开篇给出了 "特征选择" 的概念, 并谈到特征选择与第 10
+章的降维有相似的动机。特征选择与降维的区别在于特征选择是从所有特征中简单地选出相关特征,
+选择出来的特征就 是原来的特征; 降维则对原来的特征进行了映射变换,
+降维后的特征均不再是原来的特征。
+
+本节涉及 "子集评价" 的式(14.1)和式(14.2)与第 4 章的式(4.2)和式(4.1)相同,
+这是因为 "决策树算法在构建树的同时也可看作进行了特征选择" (参见 "11.7
+阅读材料")。 接下来在 11.2节、11.3 节、11.4
+节分别介绍的三类特征选择方法: 过滤式(filter)、包裹
+式(wrapper)和嵌入式(embedding)。
+
+### 11.1.1 式(11.1)的解释
+
+此为信息增益的定义式,对数据集 $D$ 和属性子集 $A$, 假设根据 $A$ 的取值将
+$D$ 分为了 $V$ 个子集 $\left\{D^1, D^2, \ldots, D^V\right\}$,
+那么信息增益的定义为划分之前数据集 $D$ 的信息樀和划分之后每个子数据集
+$D^v$ 的信息樀的差。樀用来衡量一个系统的混舌程度,
+因此划分前和划分后樀的差越大, 表示划分越有效, 划分带来的"信息增
+益"越大。
+
+### 11.1.2 式(11.2)的解释
 
-[解析]:此为信息增益的定义式,对数据集$D$和属性子集$A$,假设根据$A$的取值将$D$分为了$V$个子集$\{D^1,D^2,\dots,D^V\}$,那么信息增益的定义为划分之前数据集$D$的信息熵和划分之后每个子数据集$D^v$的信息熵的差。熵用来衡量一个系统的混乱程度,因此划分前和划分后熵的差越大,表示划分越有效,划分带来的”信息增益“越大。
 
-## 11.2
 
 $$
+
+
 \operatorname{Ent}(D)=-\sum_{i=1}^{| \mathcal{Y |}} p_{k} \log _{2} p_{k}
+
 $$
 
-[解析]:此为信息熵的定义式,其中$p_k, k=1, 2, \dots \vert\mathcal{Y}\vert$表示$D$中第$i$类样本所占的比例。可以看出,样本越纯,即$p_k\rightarrow 0$或$p_k\rightarrow 1$时,$\mathrm{Ent}(D)$越小,其最小值为0。
 
-## 11.5
 
-$$
-\min _{\boldsymbol{w}} \sum_{i=1}^{m}\left(y_{i}-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}\right)^{2}
-$$
+此为信息熵的定义式,其中$p_k, k=1, 2, \dots \vert\mathcal{Y}\vert$表示$D$中第$i$类样本所占的比例。可以看出,样本越纯,即$p_k\rightarrow 0$或$p_k\rightarrow 1$时,$\mathrm{Ent}(D)$越小,其最小值为0。此时必有$p_i=1, p_{\backslash i}=0, i=1, 2, \dots, \vert\mathcal{Y}\vert$。
 
-[解析]:该式为线性回归的优化目标式,$y_i$表示样本$i$的真实值,而$w^\top x_i$表示其预测值,这里使用预测值和真实值差的平方衡量预测值偏离真实值的大小。
+## 11.2 过滤式选择
 
-## 11.6
+"过滤式方法先对数据集进行特征选择, 然后再训练学习器,
+特征选择过程与后续学习 器无关。这相当于先用特征选择过程对初始特征进行
+'过滤', 再用过滤后的特征来训练模 型。", 这是本节开篇第一段原话,
+之所以重写于此, 是因为这段话里包含了 "过滤"的概念,
+该概念并非仅针对特征选择, 那些所有先对数据集进行某些预处理,
+然后基于预处理结果再 训练学习器的方法 (预处理过程独立于训练学习器过程)
+均可以称之为 "过滤式算法"。特 别地, 本节介绍的 Relief
+方法只是过滤式特征选择方法的其中一种而已。
 
-$$
-\min _{\boldsymbol{w}} \sum_{i=1}^{m}\left(y_{i}-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}\right)^{2}+\lambda\|\boldsymbol{w}\|_{2}^{2}
-$$
+从式(11.3)可以看出, Relief 方法本质上基于
+"空间上相近的样本具有相近的类别标记" 假设。Relief
+基于样本与同类和异类的最近邻之间的距离来计算相关统计量 $\delta^j$,
+越是满足前 提假设, 原则上样本与同类最近邻之间的距离
+$\operatorname{diff}\left(x_i^j, x_{i, \mathrm{nh}}^j\right)^2$ 会越小,
+样本与异类最近邻之 间的距离
+$\operatorname{diff}\left(x_i^j, x_{i, \mathrm{~nm}}^j\right)^2$
+会越大,因此相关统计量 $\delta^j$ 越大,对应属性的分类能力就越强。
+
+对于能处理多分类问题的扩展变量 Relief-F, 由于有多个异类,
+因此对所有异类最近邻 进行加权平均,
+各异类的权重为其在数据集中所占的比例。
+
+### 11.2.1 包裹式选择
+
+"与过滤式特征选择不考虑后续学习器不同,
+包裹式特征选择直接把最终将要使用的学
+习器的性能作为特征子集的评价准则。换言之,
+包裹式特征选择的目的就是为给定学习器选 择最有利于其性能、"量身定做'
+的特征子集。", 这是本节开篇第一段原话, 之所以重写于 此,
+是因为这段话里包含了 "包裹" 的概念, 该概念并非仅针对特征选择,
+那些所有基于学 习器的性能作为评价准则对数据集进行预处理的方法
+(预处理过程依赖训练所得学习器的 测试性能)均可以称之为
+"包裹式算法"。特别地, 本节介绍的 LVW 方法只是包裹式特征
+选择方法的其中一种而已。
+
+图 $11.1$ 中, 第 1 行 $E=\infty$ 表示初始化学习器误差为无穷大, 以至于第
+1 轮迭代第 9 行 的条件就一定为真; 第 2 行 $d=|A|$ 中的 $|A|$ 表示特征集
+$A$ 的包含的特征个数; 第 9 行 $E^{\prime}<E$ 表示学习器 $\mathfrak{L}$
+在特征子集 $A^{\prime}$ 上的误差比当前特征子集 $A$ 上的误差更小,
+$\left(E^{\prime}=E\right) \vee\left(d^{\prime}<d\right)$ 表示学习器
+$\mathfrak{L}$ 在特征子集 $A^{\prime}$ 上的误差与当前特征子集 $A$
+上的误差相当 但 $A^{\prime}$ 中包含的特征数更小; 表示 "逻辑与", $V$
+表示 "逻辑或"。注意到, 第 5 行至第 17 行的while循环中 $t$ 并非一直增加,
+当第 9 行条件满足时 $t$ 会被清零。
+
+最后, 本节 LVW 算法基于拉斯维加斯方法框架,
+可以仔细琢磨体会拉斯维加斯方法和
+蒙特卡罗方法的区别。一个通俗的解释如下:
+
+蒙特卡罗算法------采样越多, 越近似最优解;
+
+拉斯维加斯算法------采样越多, 越有机会找到最优解。
+
+举个例子, 假如筐里有 100 个苹果, 让我每次闭眼拿 1 个,
+挑出最大的。于是我随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个\...\...我每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,
+挑出的苹果就越大, 但我除非拿 100 次, 否则无法肯定挑出
+了最大的。这个挑苹果的算法, 就属于蒙特卡罗算法一一尽量找好的,
+但不保证是最好的。 而拉斯维加斯算法, 则是另一种情况。假如有一把锁, 给我
+100 把钥匙, 只有 1 把是对 的。于是我每次随机拿 1 把钥匙去试,
+打不开就再换 1 把。我试的次数越多, 打开 (最优解) 的机会就越大,
+但在打开之前, 那些错的钥匙都是没有用的。这个试钥匙的算法,
+就是拉斯维加斯的一一尽量找最好的, 但不保证能找到。
+
+## 11.3 嵌入式选择与L1正则化
+
+"嵌入式特征选择是将特征选择过程与学习器训练过程融为一体,两者在同一个优化过程中完成,即在学习器训练过程中自动地进行了特征选择。",具体可以对比本节式(11.7)的例子与前两节方法的本质区别,细细体会本节第一段的这句有关"嵌入式"的概念描述。
+
+### 11.3.1 式(11.5)的解释
+
+该式为线性回归的优化目标式,$y_i$表示样本$i$的真实值,而$w^\top x_i$表示其预测值,这里使用预测值和真实值差的平方衡量预测值偏离真实值的大小。
+
+### 11.3.2 式(11.6)的解释
+
+该式为加入了$\mathrm{L}_2$正规化项的优化目标,也叫"岭回归",$\lambda$用来调节误差项和正规化项的相对重要性,引入正规化项的目的是为了防止$w$的分量过大而导致过拟合的风险。
+
+### 11.3.3 式(11.7)的解释
+
+该式将11.6中的$\mathrm{L}_2$正规化项替换成了$\mathrm{L}_1$正规化项,也叫LASSO回归。关于$\mathrm{L}_2$和$\mathrm{L}_1$两个正规化项的区别,"西瓜书"图11.2给出了很形象的解释。具体来说,结合$\mathrm{L}_1$范数优化的模型参数分量取值尽量稀疏,即非零分量个数尽量小,因此更容易取得稀疏解。
+
+### 11.3.4 式(11.8)的解释
 
-[解析]:该式为加入了$\mathrm{L}_2$正规化项的优化目标,也叫"岭回归",$\lambda$用来调节误差项和正规化项的相对重要性,引入正规化项的目的是为了防止$w$的分量过太而导致过拟合的风险。
+从本式开始至本节结束, 都在介绍近端梯度下降求解 $L_1$
+正则化问题。若将本式对应到 式(11.7), 则本式中
+$f(\boldsymbol{w})=\sum_{i=1}^m\left(y^i-\boldsymbol{w}^{\top} \boldsymbol{x}_i\right)^2$,
+注意变量为 $\boldsymbol{w}$ (若感觉不习惯就将其用 $\boldsymbol{x}$
+替换好了)。最终推导结果仅含 $f(\boldsymbol{w})$ 的一阶导数
+$\nabla f(\boldsymbol{w})=-\sum_{i=1}^m 2\left(y^i-\boldsymbol{w}^{\top} \boldsymbol{x}_i\right) \boldsymbol{x}_i$
+。
+
+### 11.3.5 式(11.9)的解释
+
+该式即为 $L$-Lipschitz(利普希茨)条件的定义。简单来说,
+该条件约束函数的变化不能太快。将式(11.9)变形则更为直观 (注: 式中应该是 2
+范数, 而非 2 范数平方):
 
-## 11.7
 
 $$
-\min _{\boldsymbol{w}} \sum_{i=1}^{m}\left(y_{i}-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}\right)^{2}+\lambda\|\boldsymbol{w}\|_{1}
+
+
+\frac{\left\|\nabla f\left(\boldsymbol{x}^{\prime}\right)-\nabla f(\boldsymbol{x})\right\|_2}{\left\|\boldsymbol{x}^{\prime}-\boldsymbol{x}\right\|_2} \leqslant L, \quad\left(\forall \boldsymbol{x}, \boldsymbol{x}^{\prime}\right)
+
 $$
 
-[解析]:该式将11.6中的$\mathrm{L}_2$正规化项替换成了$\mathrm{L}_1$正规化项,也叫LASSO回归。关于$\mathrm{L}_2$和$\mathrm{L}_1$两个正规化项的区别,原书图11.2给出了很形象的解释。具体来说,结合$\mathrm{L}_1$范数优化的模型参数分量更偏向于取0,因此更容易取得稀疏解。
 
-## 11.10
+
+进一步地, 若 $\boldsymbol{x}^{\prime} \rightarrow \boldsymbol{x}$, 即
+
 
 $$
-\begin{aligned}
-\hat{f}(\boldsymbol{x}) & \simeq f\left(\boldsymbol{x}_{k}\right)+\left\langle\nabla f\left(\boldsymbol{x}_{k}\right), \boldsymbol{x}-\boldsymbol{x}_{k}\right\rangle+\frac{L}{2}\left\|\boldsymbol{x}-\boldsymbol{x}_{k}\right\|^{2} \\
-&=\frac{L}{2}\left\|\boldsymbol{x}-\left(\boldsymbol{x}_{k}-\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)\right)\right\|_{2}^{2}+\mathrm{const}
-\end{aligned}
+
+
+\lim _{\boldsymbol{x}^{\prime} \rightarrow \boldsymbol{x}} \frac{\left\|\nabla f\left(\boldsymbol{x}^{\prime}\right)-\nabla f(\boldsymbol{x})\right\|_2}{\left\|\boldsymbol{x}^{\prime}-\boldsymbol{x}\right\|_2}
+
 $$
 
-[解析]:首先注意优化目标式和11.7 LASSO回归的联系和区别,该式中的$x$对应到式11.7的$w$,即我们优化的目标。再解释下什么是[$L\mathrm{-Lipschitz}$条件](https://zh.wikipedia.org/wiki/利普希茨連續),根据维基百科的定义:它是一个比通常[连续](https://zh.wikipedia.org/wiki/連續函數)更强的光滑性条件。直觉上,利普希茨连续函数限制了函数改变的速度,符合利普希茨条件的函数的斜率,必小于一个称为利普希茨常数的实数(该常数依函数而定)。
 
+
+这明显是在求解函数 $\nabla f(\boldsymbol{x})$ 的导数绝对值(模值。 因此,
+式(11.9)即要求 $f(\boldsymbol{x})$ 的二阶导数不大于 $L$, 其中 $L$
+称为Lipschitz常数。
+
+"Lipschitz连续" 可以形象得理解为: 以陆地为例,
+Lipschitz连续就是说这块地上没有特别陡的坡; 其中最陡的地方有多陡呢?
+这就是所谓的Lipschitz常数。
+
+### 11.3.6 式(11.10)的推导
+
+首先注意优化目标式和11.7
+LASSO回归的联系和区别,该式中的$x$对应到式11.7的$w$,即我们优化的目标。再解释下什么是$L\mathrm{-Lipschitz}$条件,根据维基百科的定义:它是一个比通常连续更强的光滑性条件。直觉上,利普希茨连续函数限制了函数改变的速度,符合利普希茨条件的函数的斜率,必小于一个称为利普希茨常数的实数(该常数依函数而定)。
 注意这里存在一个笔误,在wiki百科的定义中,式11.9应该写成
+
+
 $$
+
+
 \left\vert\nabla f\left(\boldsymbol{x}^{\prime}\right)-\nabla f(\boldsymbol{x})\right\vert \leqslant L\left\vert\boldsymbol{x}^{\prime}-\boldsymbol{x}\right\vert \quad\left(\forall \boldsymbol{x}, \boldsymbol{x}^{\prime}\right)
+
 $$
+
+
+
 移项得
+
+
 $$
+
+
 \frac{\left|\nabla f\left(\boldsymbol{x}^{\prime}\right)-\nabla f(\boldsymbol{x})\right|}{\vert x^\prime - x\vert}\leqslant L \quad\left(\forall \boldsymbol{x}, \boldsymbol{x}^{\prime}\right)
+
 $$
-由于上式对所有的$x, x^\prime$都成立,由[导数的定义](https://zh.wikipedia.org/wiki/导数),上式可以看成是$f(x)$的二阶导数恒不大于$L$。即
+
+
+
+由于上式对所有的$x, x^\prime$都成立,由导数的定义,上式可以看成是$f(x)$的二阶导数恒不大于$L$。即
+
+
 $$
+
+
 \nabla^2f(x)\leqslant L
+
 $$
-得到这个结论之后,我们来推导式11.10。
 
-由[泰勒公式](https://zh.wikipedia.org/wiki/泰勒公式),$x_k$附近的$f(x)$通过二阶泰勒展开式可近似为
+
+ 得到这个结论之后,我们来推导式11.10。
+由泰勒公式,$x_k$附近的$f(x)$通过二阶泰勒展开式可近似为
+
+
 $$
+
+
 \begin{aligned}
 \hat{f}(\boldsymbol{x}) & \simeq f\left(\boldsymbol{x}_{k}\right)+\left\langle\nabla f\left(\boldsymbol{x}_{k}\right), \boldsymbol{x}-\boldsymbol{x}_{k}\right\rangle+\frac{\nabla^2f(x_k)}{2}\left\|\boldsymbol{x}-\boldsymbol{x}_{k}\right\|^{2} \\
 &\leqslant
@@ -75,165 +220,234 @@ $$
 &=f(x_k)+\frac{L}{2}\left(\left(\boldsymbol{x}-\boldsymbol{x}_{k}\right)+\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)\right)^{\top}\left(\left(\boldsymbol{x}-\boldsymbol{x}_{k}\right)+\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)\right)-\frac{1}{2L}\nabla f(x_k)^\top\nabla f(x_k)\\
 &=\frac{L}{2}\left\|\boldsymbol{x}-\left(\boldsymbol{x}_{k}-\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)\right)\right\|_{2}^{2}+\mathrm{const}
 \end{aligned}
+
 $$
+
+
+
 其中$\mathrm{const}=f(x_k)-\frac{1}{2 L} \nabla f\left(x_{k}\right)^{\top} \nabla f\left(x_{k}\right)$
 
+### 11.3.7 式(11.11)的解释
 
+这个很容易理解,因为2范数的最小值为0,当$\boldsymbol{x}_{k+1}=\boldsymbol{x}_{k}-\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)$时,$\hat{f}(x_{k+1})\leqslant\hat{f}(x_k)$恒成立,同理$\hat{f}(x_{k+2})\leqslant\hat{f}(x_{k+1}), \cdots$,因此反复迭代能够使$\hat{f}(x)$的值不断下降。
 
-## 11.11
+### 11.3.8 式(11.12)的解释
 
-$$
-\boldsymbol{x}_{k+1}=\boldsymbol{x}_{k}-\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)
-$$
-[解析]:这个很容易理解,因为2范数的最小值为0,当$\boldsymbol{x}_{k+1}=\boldsymbol{x}_{k}-\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)$时,$\hat{f}(x_{k+1})\leqslant\hat{f}(x_k)$恒成立,同理$\hat{f}(x_{k+2})\leqslant\hat{f}(x_{k+1}), \cdots$,因此反复迭代能够使$\hat{f}(x)$的值不断下降。
+注意 $\hat{f}(\boldsymbol{x})$ 在式(11.11)处取得最小值, 因此,
+以下不等式肯定成立:
 
-## 11.12
 
 $$
-\boldsymbol{x}_{k+1}=\underset{\boldsymbol{x}}{\arg \min } \frac{L}{2}\left\|\boldsymbol{x}-\left(\boldsymbol{x}_{k}-\frac{1}{L} \nabla f\left(\boldsymbol{x}_{k}\right)\right)\right\|_{2}^{2}+\lambda\|\boldsymbol{x}\|_{1}
+
+
+\hat{f}\left(\boldsymbol{x}_k-\frac{1}{L} \nabla f\left(\boldsymbol{x}_k\right)\right) \leqslant \hat{f}\left(\boldsymbol{x}_k\right)
+
 $$
 
-[解析]:式11.11是用来优化$\hat{f}(x)$的,而对于式11.8,优化的函数为$f(x)+\lambda\left\Vert x\right\Vert_1$,由泰勒展开公式,优化的目标可近似为$\hat{f}(x)+\lambda\Vert x\Vert_1$,根据式11.10可知,$x$的更新由式11.12决定。
 
-## 11.13
+
+
+在式(11.10)推导中有
+$f(\boldsymbol{x}) \leqslant \hat{f}(\boldsymbol{x})$ 恒成立, 因此,
+以下不等式肯定成立:
+
 
 $$
-\boldsymbol{x}_{k+1}=\underset{\boldsymbol{x}}{\arg \min } \frac{L}{2}\|\boldsymbol{x}-\boldsymbol{z}\|_{2}^{2}+\lambda\|\boldsymbol{x}\|
+
+
+f\left(\boldsymbol{x}_k-\frac{1}{L} \nabla f\left(\boldsymbol{x}_k\right)\right) \leqslant \hat{f}\left(\boldsymbol{x}_k-\frac{1}{L} \nabla f\left(\boldsymbol{x}_k\right)\right)
+
 $$
 
-[解析]:这里将式11.12的优化步骤拆分成了两步,首先令$z=x_{k}-\frac{1}{L} \nabla f\left(x_{k}\right)$以计算$z$,然后再求解式11.13,得到的结果是一致的。
 
-## 11.14
+
+
+在式(11.10)推导中还知道
+$f\left(\boldsymbol{x}_k\right)=\hat{f}\left(\boldsymbol{x}_k\right)$,
+因此
+
 
 $$
-x_{k+1}^{i}=\left\{\begin{array}{ll}
-{z^{i}-\lambda / L,} & {\lambda / L<z^{i}} \\
-{0,} & {\left|z^{i}\right| \leqslant \lambda / L} \\
-{z^{i}+\lambda / L,} & {z^{i}<-\lambda / L}
-\end{array}\right.
+
+
+f\left(\boldsymbol{x}_k-\frac{1}{L} \nabla f\left(\boldsymbol{x}_k\right)\right) \leqslant \hat{f}\left(\boldsymbol{x}_k-\frac{1}{L} \nabla f\left(\boldsymbol{x}_k\right)\right) \leqslant \hat{f}\left(\boldsymbol{x}_k\right)=f\left(\boldsymbol{x}_k\right)
+
 $$
 
-[解析]:令优化函数
+
+
+
+也就是说通过迭代
+$\boldsymbol{x}_{k+1}=\boldsymbol{x}_k-\frac{1}{L} \nabla f\left(\boldsymbol{x}_k\right)$
+可以使 $f(\boldsymbol{x})$ 的函数值逐步下降。
+
+同理, 对于函数
+$g(\boldsymbol{x})=f(\boldsymbol{x})+\lambda\|\boldsymbol{x}\|_1$,
+可以通过最小化
+$\hat{g}(\boldsymbol{x})=\hat{f}(\boldsymbol{x})+\lambda\|\boldsymbol{x}\|_1$
+逐步 求解。式(11.12)就是在最小化
+$\hat{g}(\boldsymbol{x})=\hat{f}(\boldsymbol{x})+\lambda\|\boldsymbol{x}\|_{1^{\circ}}$
+。
+
+以上优化方法被称为Majorization-Minimization。可以搜索相关资料做详细了解。
+
+### 11.3.9 式(11.13)的解释
+
+这里将式11.12的优化步骤拆分成了两步,首先令$z=x_{k}-\frac{1}{L} \nabla f\left(x_{k}\right)$以计算$z$,然后再求解式11.13,得到的结果是一致的。
+
+### 11.3.10 式(11.14)的推导
+
+令优化函数 
+
 $$
+
+
 \begin{aligned}
 g(\boldsymbol{x}) &=\frac{L}{2}\|\boldsymbol{x}-\boldsymbol{z}\|_{2}^{2}+\lambda\|\boldsymbol{x}\|_{1} \\
 &=\frac{L}{2} \sum_{i=1}^{d}\left\|x^{i}-z^{i}\right\|_{2}^{2}+\lambda \sum_{i=1}^{d}\left\|x^{i}\right\|_{1} \\
 &=\sum_{i=1}^{d}\left(\frac{L}{2}\left(x^{i}-z^{i}\right)^{2}+\lambda\left|x^{i}\right|\right)
 \end{aligned}
+
 $$
 
-这个式子表明优化$g(\boldsymbol{x})$可以被拆解成优化$\boldsymbol{x}$的各个分量的形式,对分量$x_i$,其优化函数
+
+
+
+这个式子表明优化$g(\boldsymbol{x})$可以被拆解成优化$\boldsymbol{x}$的各个分量的形式,对分量$x^i$,其优化函数
+
+
 $$
+
+
 g\left(x^{i}\right)=\frac{L}{2}\left(x^{i}-z^{i}\right)^{2}+\lambda\left|x^{i}\right|
+
 $$
+
+
+
+
 求导得
+
+
 $$
+
+
 \frac{d g\left(x^{i}\right)}{d x^{i}}=L\left(x^{i}-z^{i}\right)+\lambda s g n\left(x^{i}\right)
+
 $$
-其中
+
+
+
+
+其中 
+
 $$
+
+
 \operatorname{sign}\left(x^{i}\right)=\left\{\begin{array}{ll}
 {1,} & {x^{i}>0} \\
 {-1,} & {x^{i}<0}
 \end{array}\right.
+
 $$
-称为[符号函数](https://en.wikipedia.org/wiki/Sign_function),对于$x_i=0$的特殊情况,由于$\vert x_i \vert$在$x_i=0$点出不光滑,所以其不可导,需单独讨论。令$\frac{d g\left(x^{i}\right)}{d x^{i}}=0$有
+
+
+
+
+称为符号函数[1],对于$x^i=0$的特殊情况,由于$\vert x^i \vert$在$x^i=0$点出不光滑,所以其不可导,需单独讨论。令$\frac{d g\left(x^{i}\right)}{d x^{i}}=0$有
+
+
 $$
+
+
 x^{i}=z^{i}-\frac{\lambda}{L} \operatorname{sign}\left(x^{i}\right)
+
 $$
-此式的解即为优化目标$g(x^i)$的极值点,因为等式两端均含有未知变量$x^i$,故分情况讨论。
 
-1. 当$z^i>\frac{\lambda}{L}$时:
 
-   a. 假设$x^i<0$,则$\operatorname{sign}(x^i)=-1$,那么有$x^i=z^i+\frac{\lambda}{L}>0$与假设矛盾;
 
-   b. 假设$x^i>0$,则$\operatorname{sign}(x^i)=1$,那么有$x^i=z^i-\frac{\lambda}{L}>0$和假设相符合,下面来检验$x^i=z^i-\frac{\lambda}{L}$是否是使函数$g(x^i)$的取得最小值。当$x^i>0$时,
-   $$
-   \frac{d g\left(x^{i}\right)}{d x^{i}}=L\left(x^{i}-z^{i}\right)+\lambda
-   $$
-   在定义域内连续可导,则$g(x^i)$的二阶导数
-   $$
-   \frac{d^2 g\left(x^{i}\right)}{{d x^{i}}^2}=L
-   $$
-   由于$L$是Lipschitz常数恒大于0,因为$x^i=z^i-\frac{\lambda}{L}$是函数$g(x^i)$的最小值。
 
-2. 当$z_i<-\frac{\lambda}{L}$时:
+此式的解即为优化目标$g(x^i)$的极值点,因为等式两端均含有未知变量$x^i$,故分情况讨论。
 
-   a. 假设$x^i>0$,则$\operatorname{sign}(x^i)=1$,那么有$x^i=z^i-\frac{\lambda}{L}<0$与假设矛盾;
+(1)当$z^i>\frac{\lambda}{L}$时:a. 假设$x^i<0$,则$\operatorname{sign}(x^i)=-1$,那么有$x^i=z^i+\frac{\lambda}{L}>0$与假设矛盾;b. 假设$x^i>0$,则$\operatorname{sign}(x^i)=1$,那么有$x^i=z^i-\frac{\lambda}{L}>0$和假设相符和,下面来检验$x^i=z^i-\frac{\lambda}{L}$是否是使函数$g(x^i)$的取得最小值。当$x^i>0$时,
 
-   b. 假设$x^i<0$,则$\operatorname{sign}(x^i)=-1$,那么有$x^i=z^i+\frac{\lambda}{L}<0$与假设相符,由上述二阶导数恒大于0可知,$x^i=z^i+\frac{\lambda}{L}$是$g(x^i)$的最小值。
+$$
+\frac{d g\left(x^{i}\right)}{d x^{i}}=L\left(x^{i}-z^{i}\right)+\lambda
+$$
+在定义域内连续可导,则$g(x^i)$的二阶导数
+    
 
-3. 当$-\frac{\lambda}{L} \leqslant z_i \leqslant \frac{\lambda}{L}$时:
+$$
 
-   a. 假设$x^i>0$,则$\operatorname{sign}(x^i)=1$,那么有$x^i=z^i-\frac{\lambda}{L}\leqslant 0$与假设矛盾;
 
-   b. 假设$x^i<0$,则$\operatorname{sign}(x^i)=-1$,那么有$x^i=z^i+\frac{\lambda}{L}\geqslant 0$与假设矛盾。
+\frac{d^2 g\left(x^{i}\right)}{{d x^{i}}^2}=L
 
-4. 最后讨论$x_i=0$的情况,此时$g(x^i)=\frac{L}{2}\left({z^i}\right)^2$
+$$
 
-   a. 当$\vert z^i\vert>\frac{\lambda}{L}$时,由上述推导可知$g(x_i)$的最小值在$x^i=z^i-\frac{\lambda}{L}$处取得,因为
-   $$
-   \begin{aligned}
-   g(x^i)\vert_{x^i=0}-g(x^i)\vert_{x_i=z^i-\frac{\lambda}{L}}
-   &=\frac{L}{2}\left({z^i}\right)^2 - \left(\lambda z^i-\frac{\lambda^2}{2L}\right)\\
-   &=\frac{L}{2}\left(z^i-\frac{\lambda}{L}\right)^2\\
-   &>0
-   \end{aligned}
-   $$
-   
 
-   因此当$\vert z^i\vert>\frac{\lambda}{L}$时,$x_i=0$不会是函数$g(x_i)$的最小值。
+由于$L$是Lipschitz常数恒大于0,因为$x^i=z^i-\frac{\lambda}{L}$是函数$g(x^i)$的最小值。
 
-   b. 当$-\frac{\lambda}{L} \leqslant z_i \leqslant \frac{\lambda}{L}$时,对于任何$\Delta x\neq 0$有
-   $$
-   \begin{aligned}
-   g(\Delta x) &=\frac{L}{2}\left(\Delta x-z^{i}\right)^{2}+\lambda|\Delta x| \\
-   &=\frac{L}{2}\left((\Delta x)^{2}-2 \Delta x \cdot z^{i}+\frac{2 \lambda}{L}|\Delta x|\right)+\frac{L}{2}\left(z^{i}\right)^{2} \\
-   &\ge\frac{L}{2}\left((\Delta x)^{2}-2 \Delta x \cdot z^{i}+\frac{2 \lambda}{L}\Delta x\right)+\frac{L}{2}\left(z^{i}\right)^{2}\\
-   &\ge\frac{L}{2}\left(\Delta x\right)^2+\frac{L}{2}\left(z^{i}\right)^{2}\\
-   &>g(x^i)\vert_{x^i=0}
-   \end{aligned}
-   $$
-   因此$x^i=0$是$g(x^i)$的最小值点。
+(2)当$z^i<-\frac{\lambda}{L}$时:a. 假设$x^i>0$,则$\operatorname{sign}(x^i)=1$,那么有$x^i=z^i-\frac{\lambda}{L}<0$与假设矛盾;b. 假设$x^i<0$,则$\operatorname{sign}(x^i)=-1$,那么有$x^i=z^i+\frac{\lambda}{L}<0$与假设相符,由上述二阶导数恒大于0可知,$x^i=z^i+\frac{\lambda}{L}$是$g(x^i)$的最小值。
 
-5. 综上所述,11.14成立
+(3)当$-\frac{\lambda}{L} \leqslant z^i \leqslant \frac{\lambda}{L}$时:a. 假设$x^i>0$,则$\operatorname{sign}(x^i)=1$,那么有$x^i=z^i-\frac{\lambda}{L}\leqslant 0$与假设矛盾;b. 假设$x^i<0$,则$\operatorname{sign}(x^i)=-1$,那么有$x^i=z^i+\frac{\lambda}{L}\geqslant 0$与假设矛盾。
 
-   
+(4)最后讨论$x^i=0$的情况,此时$g(x^i)=\frac{L}{2}\left({z^i}\right)^2$。当$\vert z^i\vert>\frac{\lambda}{L}$时,由上述推导可知$g(x^i)$的最小值在$x^i=z^i-\frac{\lambda}{L}$处取得,因为
+        
+$$
 
-## 11.15
+\begin{aligned}
+           g(x^i)\vert_{x^i=0}-g(x^i)\vert_{x^i=z^i-\frac{\lambda}{L}}
+           &=\frac{L}{2}\left({z^i}\right)^2 - \left(\lambda z^i-\frac{\lambda^2}{2L}\right)\\
+           &=\frac{L}{2}\left(z^i-\frac{\lambda}{L}\right)^2\\
+           &>0
+           \end{aligned}
 
 $$
-\min _{\mathbf{B}, \boldsymbol{\alpha}_{i}} \sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\mathbf{B} \boldsymbol{\alpha}_{i}\right\|_{2}^{2}+\lambda \sum_{i=1}^{m}\left\|\boldsymbol{\alpha}_{i}\right\|_{1}
-$$
-[解析]:这个式子表达的意思很容易理解,即希望样本$x_i$的稀疏表示$\boldsymbol{\alpha}_i$通过字典$\mathbf{B}$重构后和样本$x_i$的原始表示尽量相似,如果满足这个条件,那么稀疏表示$\boldsymbol{\alpha}_i$是比较好的。后面的1范数项是为了使表示更加稀疏。
 
-## 11.16
+因此当$\vert z^i\vert>\frac{\lambda}{L}$时,$x^i=0$不会是函数$g(x^i)$的最小值。当$-\frac{\lambda}{L} \leqslant z^i \leqslant \frac{\lambda}{L}$时,对于任何$\Delta x\neq 0$有
 
 $$
-\min _{\boldsymbol{\alpha}_{i}}\left\|\boldsymbol{x}_{i}-\mathbf{B} \boldsymbol{\alpha}_{i}\right\|_{2}^{2}+\lambda\left\|\boldsymbol{\alpha}_{i}\right\|_{1}
+
+\begin{aligned}
+           g(\Delta x) &=\frac{L}{2}\left(\Delta x-z^{i}\right)^{2}+\lambda|\Delta x| \\
+           &=\frac{L}{2}\left((\Delta x)^{2}-2 \Delta x \cdot z^{i}+\frac{2 \lambda}{L}|\Delta x|\right)+\frac{L}{2}\left(z^{i}\right)^{2} \\
+           &\ge\frac{L}{2}\left((\Delta x)^{2}-2 \Delta x \cdot z^{i}+\frac{2 \lambda}{L}\Delta x\right)+\frac{L}{2}\left(z^{i}\right)^{2}\\
+           &\ge\frac{L}{2}\left(\Delta x\right)^2+\frac{L}{2}\left(z^{i}\right)^{2}\\
+           &>g(x^i)\vert_{x^i=0}
+           \end{aligned}
+
 $$
 
-[解析]:为了优化11.15,我们采用变量交替优化的方式(有点类似EM算法),首先固定变量$\mathbf{B}$,则11.15求解的是$m$个样本相加的最小值,因为公式里没有样本之间的交互(即文中所述$\alpha_{i}^{u} \alpha_{i}^{v}(u \neq v)$这样的形式),因此可以对每个变量做分别的优化求出$\boldsymbol{\alpha}_i$,求解方法见11.13,11.14。
+因此$x^i=0$是$g(x^i)$的最小值点
 
-## 11.17
+综上所述,11.14成立。
 
-$$
-\min _{\mathbf{B}}\|\mathbf{X}-\mathbf{B} \mathbf{A}\|_{F}^{2}
-$$
+该式称为软阈值(Soft Thresholding)函数,很常见,建议掌握。另外,常见的变形是式(11.13)中的$L=1$或$L=2$时的形式,其解直接代入式(11.14)即可。与软阈值函数相对的是硬阈值函数,是将式(11.13)中的1范数替换为0范数的优化问题的闭式解。
 
-[解析]:这是优化11.15的第二步,固定住$\boldsymbol{\alpha}_i, i=1, 2,\dots,m$,此时式11.15的第二项为一个常数,优化11.15即优化$\min _{\mathbf{B}} \sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\mathbf{B} \boldsymbol{\alpha}_{i}\right\|_{2}^{2}$。其写成矩阵相乘的形式为$\min _{\mathbf{B}}\|\mathbf{X}-\mathbf{B} \mathbf{A}\|_{2}^{2}$,将2范数扩展到$F$范数即得优化目标为$\min _{\mathbf{B}}\|\mathbf{X}-\mathbf{B} \mathbf{A}\|_{F}^{2}$。
+## 11.4 稀疏表示与字典学习
+
+稀疏表示与字典学习实际上是信号处理领域的概念。本节内容核心就是K-SVD算法。
+
+### 11.4.1 式(11.15)的解释
+
+这个式子表达的意思很容易理解,即希望样本$x_i$的稀疏表示$\boldsymbol{\alpha}_i$通过字典$\mathbf{B}$重构后和样本$x_i$的原始表示尽量相似,如果满足这个条件,那么稀疏表示$\boldsymbol{\alpha}_i$是比较好的。后面的1范数项是为了使表示更加稀疏。
+
+### 11.4.2 式(11.16)的解释
+
+为了优化11.15,我们采用变量交替优化的方式(有点类似EM算法),首先固定变量$\mathbf{B}$,则11.15求解的是$m$个样本相加的最小值,因为公式里没有样本之间的交互(即文中所述$\alpha_{i}^{u} \alpha_{i}^{v}(u \neq v)$这样的形式),因此可以对每个变量做分别的优化求出$\boldsymbol{\alpha}_i$,求解方法见式(11.13),式(11.14)。
+
+### 11.4.3 式(11.17)的推导
+
+这是优化11.15的第二步,固定住$\boldsymbol{\alpha}_i, i=1, 2,\dots,m$,此时式11.15的第二项为一个常数,优化11.15即优化$\min _{\mathbf{B}} \sum_{i=1}^{m}\left\|\boldsymbol{x}_{i}-\mathbf{B} \boldsymbol{\alpha}_{i}\right\|_{2}^{2}$。其写成矩阵相乘的形式为$\min _{\mathbf{B}}\|\mathbf{X}-\mathbf{B} \mathbf{A}\|_{2}^{2}$,将2范数扩展到$F$范数即得优化目标为$\min _{\mathbf{B}}\|\mathbf{X}-\mathbf{B} \mathbf{A}\|_{F}^{2}$。
+
+### 11.4.4 式(11.18)的推导
+
+这个公式难点在于推导$\mathbf{B}\mathbf{A}=\sum_{j=1}^k\boldsymbol{b}_j\boldsymbol{\alpha}^j$。大致的思路是$\boldsymbol{b}_{j} \boldsymbol{\alpha}^{j}$会生成和矩阵$\mathbf{B}\mathbf{A}$同样维度的矩阵,这个矩阵对应位置的元素是$\mathbf{B}\mathbf{A}$中对应位置元素的一个分量,这样的分量矩阵一共有$k$个,把所有分量矩阵加起来就得到了最终结果。推导过程如下:
 
-## 11.18
 
 $$
-\begin{aligned}
-\min _{\mathbf{B}}\|\mathbf{X}-\mathbf{B} \mathbf{A}\|_{F}^{2} &=\min _{\boldsymbol{b}_{i}}\left\|\mathbf{X}-\sum_{j=1}^{k} \boldsymbol{b}_{j} \boldsymbol{\alpha}^{j}\right\|_{F}^{2} \\
-&=\min _{\boldsymbol{b}_{i}}\left\|\left(\mathbf{X}-\sum_{j \neq i} \boldsymbol{b}_{j} \boldsymbol{\alpha}^{j}\right)-\boldsymbol{b}_{i} \boldsymbol{\alpha}^{i}\right\| _{F}^{2} \\
-&=\min _{\boldsymbol{b}_{i}}\left\|\mathbf{E}_{i}-\boldsymbol{b}_{i} \boldsymbol{\alpha}^{i}\right\|_{F}^{2}
-\end{aligned}
-$$
-[解析]:这个公式难点在于推导$\mathbf{B}\mathbf{A}=\sum_{j=1}^k\boldsymbol{b}_j\boldsymbol{\alpha}^j$。大致的思路是$\boldsymbol{b}_{j} \boldsymbol{\alpha}^{j}$会生成和矩阵$\mathbf{B}\mathbf{A}$同样维度的矩阵,这个矩阵对应位置的元素是$\mathbf{B}\mathbf{A}$中对应位置元素的一个分量,这样的分量矩阵一共有$k$个,把所有分量矩阵加起来就得到了最终结果。推导过程如下:
-$$
+
+
 \begin{aligned}
 \boldsymbol B\boldsymbol A
 & =\begin{bmatrix}
@@ -261,9 +475,17 @@ b_{1}^{2} &b_{2}^{2}  & \cdot  & \cdot  & \cdot  & b_{k}^{2}\\
 \sum_{j=1}^{k}b_{j}^{d}\alpha _{1}^{j}& \sum_{j=1}^{k}b_{j}^{d}\alpha _{2}^{j}  & \cdot  & \cdot  &\cdot   &  \sum_{j=1}^{k}b_{j}^{d}\alpha _{m}^{j}
 \end{bmatrix}_{d\times m} &
 \end{aligned}
+
 $$
 
+
+
+
+
+
 $$
+
+
 \begin{aligned}
 \boldsymbol b_{\boldsymbol j}\boldsymbol \alpha ^{\boldsymbol j}
 & =\begin{bmatrix}
@@ -285,10 +507,17 @@ b_{j}^{2}\alpha _{1}^{j} &b_{j}^{2}\alpha _{2}^{j}  & \cdot  & \cdot  & \cdot  &
 b_{j}^{d}\alpha _{1}^{j}& b_{j}^{d}\alpha _{2}^{j}  & \cdot  & \cdot  &\cdot   &  b_{j}^{d}\alpha _{m}^{j}
 \end{bmatrix}_{d\times m} &
 \end{aligned}
+
 $$
 
-求和可得:
+
+
+
+求和可得: 
+
 $$
+
+
 \begin{aligned}
 \sum_{j=1}^{k}\boldsymbol b_{\boldsymbol j}\boldsymbol \alpha ^{\boldsymbol j} 
 & = \sum_{j=1}^{k}\left (\begin{bmatrix}
@@ -297,7 +526,7 @@ b_{j}^{1}\\ b_{j}^{2}
 \\ \cdot 
 \\ \cdot 
 \\ b_{j}^{d}
-\end{bmatrix}`\cdot 
+\end{bmatrix}\cdot 
 \begin{bmatrix}
  \alpha _{1}^{j}& \alpha _{2}^{j} & \cdot  & \cdot  & \cdot  & \alpha _{m}^{j}
 \end{bmatrix} \right )\\
@@ -310,8 +539,162 @@ b_{j}^{1}\\ b_{j}^{2}
 \sum_{j=1}^{k}b_{j}^{d}\alpha _{1}^{j}& \sum_{j=1}^{k}b_{j}^{d}\alpha _{2}^{j}  & \cdot  & \cdot  &\cdot   &  \sum_{j=1}^{k}b_{j}^{d}\alpha _{m}^{j}
 \end{bmatrix}_{d\times m} &
 \end{aligned}
+
 $$
-得证。
 
-将矩阵$\mathbf{B}$分解成矩阵列$\boldsymbol{b}_j,j=1,2,\dots,k$带来一个好处,即和11.16的原理相同,矩阵列与列之间无关,因此可以分别优化各个列,即将$\min_\mathbf{B}\Vert\dots\mathbf{B}\dots\Vert^2_F$转化成了$\min_{b_i}\Vert\cdots\boldsymbol{b}_i\cdots\Vert^2_F$,得到第三行的等式之后,再利用文中介绍的KSVD算法求解即可。
 
+ 得证。
+
+将矩阵$\mathbf{B}$分解成矩阵列$\boldsymbol{b}_j,j=1,2,\dots,k$带来一个好处,即和11.16的原理相同,矩阵列与列之间无关,因此可以分别优化各个列,即将$\min\limits_\mathbf{B}\Vert\dots\mathbf{B}\dots\Vert^2_F$转化成了$\min\limits_{b_i}\Vert\dots\boldsymbol{b}_i\dots\Vert^2_F$,得到第三行的等式之后,再利用文中介绍的K-SVD算法求解即可。
+
+## 11.5 K-SVD算法
+
+本节前半部分铺垫概念,后半部分核心就是K-SVD。作为字典学习的最经典的算法,K-SVD[2]自2006年发表以来已逾万次引用。理解K-SVD的基础是SVD,即奇异值分解,参见"西瓜书"附录A.3。
+
+对于任意实矩阵 $\mathbf{A} \in \mathbb{R}^{m \times n}$, 都可分解为
+$\mathbf{A}=\mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^{\top}$, 其中
+$\mathbf{U} \in \mathbb{R}^{m \times m}, \mathbf{V} \in \mathbb{R}^{n \times n}$,
+分别为 $m$ 阶和 $n$ 阶正交矩阵 (复数域时称为酉矩阵), 即
+$\mathbf{U}^{\top} \mathbf{U}=\mathbf{I}, \mathbf{V}^{\top} \mathbf{V}=\mathbf{I}$
+(逆矩阵等于 自身的转置),
+$\boldsymbol{\Sigma} \in \mathbb{R}^{m \times n}$, 且除
+$(\boldsymbol{\Sigma})_{i i}=\sigma_i$ 之外其它位置的元素均为零,
+$\sigma_i$ 称为奇异值, 可以证明, 矩阵 $\mathrm{A}$
+的秩等于非零奇异值的个数。
+
+正如西瓜书附录 A.3 所述, K-SVD 分解中主要使用 SVD
+解决低秩矩阵近似问题。之所 以称为 K-SVD, 原文献中专门有说明:
+
+We shall call this algorithm \"K-SVD\" to parallel the name
+$\mathrm{K}$-means. While K-means applies K computations of means to
+update the codebook, K-SVD obtains the updated dictionary by K SVD
+computations, each determining one column.
+
+具体来说, 就是原文献中的字典共有 $\mathrm{K}$ 个原子 (列), 因此需要迭代
+$\mathrm{K}$ 次,这类似于 $\mathrm{K}$均值算法欲将数据聚成 $\mathrm{K}$
+个簇, 需要计算 $\mathrm{K}$ 次均值。
+
+K-SVD算法伪代码详如图11-1所示, 其中符号与本节符号有差异。具体来说,
+原文献中字典矩阵用 $\mathbf{D}$ 表示 (书中用 $\mathrm{B}$ ), 稀疏系数用
+$\mathbf{x}_i$ 表示 (书中用 $\boldsymbol{\alpha}_i$ ), 数据集用
+$\mathbf{Y}$ 表示 (书中用$\mathrm{X}$)。
+
+![图11-1 K-SVD算法在论文中的描述](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/3659/dashboard/1729869698433/ksvd.svg)
+
+在初始化字典矩阵D以后, K-SVD 算法迭代过程分两步: 第 1 步 Sparse Coding
+Stage 就是普通的已知字典矩阵 $\mathbf{D}$ 的稀疏表示问题,
+可以使用很多现成的算法完成此步, 不再详述; K-SVD 的核心创新点在第 2 步
+Codebook Update Stage, 在该步骤中分 K 次分别更新字典矩 阵 $\mathbf{D}$
+中每一列, 更新第 $k$ 列 $\mathbf{d}_k$ 时其它各列都是固定的,
+如原文献式(21)所示: 
+
+$$
+
+
+\begin{aligned}
+\|\mathbf{Y}-\mathbf{D X}\|_F^2 & =\left\|\mathbf{Y}-\sum_{j=1}^K \mathbf{d}_j \mathbf{x}_T^j\right\|_F^2 \\
+& =\left\|\left(\mathbf{Y}-\sum_{j \neq k} \mathbf{d}_j \mathbf{x}_T^j\right)-\mathrm{d}_k \mathbf{x}_T^k\right\|_F^2 \\
+& =\left\|\mathbf{E}_k-\mathbf{d}_k \mathrm{x}_T^k\right\|_F^2 .
+\end{aligned}
+
+$$
+
+
+
+
+注意, 矩阵 $\mathbf{d}_k \mathbf{x}_T^k$ 的秩为 1 (其中,
+$\mathbf{x}_T^k$ 表示稀疏系数矩阵 $\mathbf{X}$ 的第 $k$ 行, 以区别于其第
+$k$ 列 $\mathbf{x}_k$ ), 对比西瓜书附录 A.3 中的式(A.34),
+这就是一个低秩矩阵近似问题, 即对于给定矩阵 $\mathbf{E}_k$, 求 其最优 1
+秩近似矩阵 $\mathbf{d}_k \mathbf{x}_T^k$; 此时可对 $\mathbf{E}_k$ 进行
+SVD 分解, 类似于西瓜书附录式(A.35), 仅保 留最大的 1 个奇异值; 具体来说
+$\mathbf{E}_k=\mathbf{U} \Delta \mathbf{V}^{\top}$, 仅保留 $\Delta$
+中最大的奇异值 $\Delta(1,1)$, 则
+$\mathbf{d}_k \mathbf{x}_T^k=\mathbf{U}_1 \boldsymbol{\Delta}(1,1) \mathbf{V}_1^{\top}$,
+其 中 $\mathbf{U}_1, \mathbf{V}_1$ 分 别 为 $\mathbf{U}, \mathbf{V}$ 的
+第 1 列, 此时 $\mathbf{d}_k=\mathbf{U}_1$,
+$\mathbf{x}_T^k=\boldsymbol{\Delta}(1,1) \mathbf{V}_1^{\top}$
+。但这样更新会破坏第 1 步中得到的稀疏系数的稀疏性 !
+
+为了保证第 1 步中得到的稀疏系数的稀疏性, K-SVD 并不直接对 $\mathbf{E}_k$
+进行 SVD 分解, 而是根据 $\mathbf{x}_T^k$ 仅取出与 $\mathrm{x}_T^k$
+非零元素对应的部分列, 例如行向量 $\mathbf{x}_T^k$ 只有第 1、3、5、8、9
+个元 素非零, 则仅取出 $\mathbf{E}_k$ 的第 1、3、5、8、9 列组成矩阵进行
+$\operatorname{SVD}$ 分解
+$\mathbf{E}_k^R=\mathbf{U} \Delta \mathrm{V}^{\top}$, 则
+
+
+$$
+
+
+\tilde{\mathbf{d}}_k=\mathbf{U}_1, \quad \tilde{\mathbf{x}}_T^k=\boldsymbol{\Delta}(1,1) \mathbf{V}_1^{\top}
+
+$$
+
+
+
+
+即得到更新后的 $\tilde{\mathbf{d}}_k$ 和 $\tilde{\mathbf{x}}_T^k$ (注意,
+此时的行向量 $\tilde{\mathbf{x}}_T^k$ 长度仅为原 $\mathbf{x}_T^k$
+非零元素个数, 需要按原 $\mathbf{x}_T^k$ 对其余位置填 0)。如此迭代 K
+次即得更新后的字典矩阵 $\tilde{\mathbf{D}}$, 以供下一轮 Sparse Coding
+使用。 $\mathrm{K}-\mathrm{SVD}$ 原文献中特意提到, 在 K
+次迭代中要使用最新的稀疏系数 $\tilde{\mathbf{x}}_T^k$,
+但并没有说是否要用 最新的 $\tilde{\mathbf{d}}_k$ (推测应该也要用最新的
+$\tilde{\mathbf{d}}_k$ )。
+
+## 11.6 压缩感知
+
+虽然压缩感知与稀疏表示关系密切, 但它是彻彻底底的信号处理领域的概念。
+"西瓜书"在本章有几个专业术语翻译与信号处理领域人士的习惯翻译略不一样:比如第
+258 页的 Restricted Isometry Property (RIP)"西瓜书"翻译为 "限定等距性",
+信号处理领域一般翻译为 "有限等距性质"; 第 259 页的 Basis Pursuit
+De-Noising、第 261 页 的 Basis Pursuit 和 Matching Pursuit 中的
+"Pursuit" "西瓜书"翻译为 "寻踪", 信号处理领域一般 翻译为 "追踪",
+即基追踪降噪、基追踪、匹配追踪。
+
+### 11.6.1 式(11.21)的解释
+
+将式(11.21)进行变形
+
+
+$$
+
+
+\left(1-\delta_k\right) \leqslant \frac{\left\|\mathbf{A}_k \boldsymbol{s}\right\|_2^2}{\|\boldsymbol{s}\|_2^2} \leqslant\left(1+\delta_k\right)
+
+$$
+
+
+
+注意不等式中间, 若 $s$ 为输入信号, 则分母 $\|\boldsymbol{s}\|_2^2$
+为输入信号的能量, 分子 $\left\|\mathrm{A}_k \boldsymbol{s}\right\|_2^2$
+为对应的 观测信号的能量, 即 RIP
+要求观测信号与输入信号的能量之比在一定的范围之内; 例如当 $\delta_k$ 等于
+0 时, 观测信号与输入信号的能量相等,
+即实现了等距变换,相关文献可以参考[3];
+RIP 放松了对矩阵A 的约 束 (而且 $\mathrm{A}$ 并非方阵), 因此称为 "有限"
+等距性质。
+
+### 11.6.2 式(11.25)的解释
+
+该式即为核范数定义: 矩阵的核范数(迹范数)为矩阵的奇异值之和。
+
+有关 "凸包" 的概念, 引用百度百科里的两句原话: 在二维欧几里得空间中,
+凸包可想 象为一条刚好包著所有点的橡皮圈; 用不严谨的话来讲,
+给定二维平面上的点集, 凸包就是将最外层的点连接起来构成的凸多边形,
+它能包含点集中所有的点。
+
+个人理解, 将 $\operatorname{rank}(\mathbf{X})$ 的 "凸包" 是 $\mathbf{X}$
+的核范数 $\|\mathbf{X}\|_*$ 这件事简单理解为 $\|\mathbf{X}\|_*$ 是
+$\operatorname{rank}(\mathbf{X})$ 的上限即可, 即 $\|\mathbf{X}\|_*$
+恒大于 $\operatorname{rank}(\mathbf{X})$, 类似于式(11.10)中的式子恒大于
+$f(\boldsymbol{x})$ 。
+
+## 参考文献
+[1] Wikipedia contributors. Sign function, 2020.
+
+[2] Michal Aharon, Michael Elad, and Alfred Bruckstein. K-svd: An algorithm for designing overcomplete
+dictionaries for sparse representation. IEEE Transactions on signal processing, 54(11):4311–4322, 2006.
+
+[3] 杨孝春. 欧氏空间中的等距变换与等距映射. 四川工业学院学报, 1999.

+ 737 - 309
docs/chapter12/chapter12.md

@@ -1,210 +1,257 @@
-## 12.1
+# 第12章 计算学习理论
 
-$$
-E(h ; \mathcal{D})=P_{\boldsymbol{x} \sim \mathcal{D}}(h(\boldsymbol{x}) \neq y)
-$$
+正如本章开篇所述,计算学习理论研究目的是分析学习任务的困难本质,为学习算法提供理论保证,并根据分析结果指导算法设计。例如,"西瓜书"定理12.1、定理12.3、定理12.6所表达意思的共同点是,泛化误差与经验误差之差的绝对值以很大概率($1-\delta$)很小,且这个差的绝对值随着训练样本个数($m$)的增加而减小,随着模型复杂度(定理12.1为假设空间包含的假设个数$\vert\mathcal{H}\vert$,定理12.3中为假设空间的VC维,定理12.6中为(经验)Rademacher复杂度)的减小而减小。因此,若想要得到一个泛化误差很小的模型,足够的训练样本是前提,最小化经验误差是实现途径,另外还要选择性能相同的模型中模型复杂度最低的那一个;"最小化经验误差"即常说的经验风险最小化,"选择模型复杂度最低的那一个"即结构风险最小化,可以参见"西瓜书"6.4节最后一段的描述,尤其是式(6.42)所表达的含义。
 
-[解析]:该式为泛化误差的定义式,所谓泛化误差,是指当样本$x$从真实的样本分布$\mathcal{D}$中采样后其预测值$h(\boldsymbol{x})$不等于真实值$y$的概率。在现实世界中,我们很难获得样本分布$\mathcal{D}$,我们拿到的数据集可以看做是从样本分布$\mathcal{D}$中独立同分布采样得到的。在西瓜书中,我们拿到的数据集,称为样例集$D$[也叫观测集、样本集,注意与花体$\mathcal{D}$的区别]。
+## 12.1 基础知识
 
+统计学中有总体集合和样本集合之分,
+比如要统计国内本科生对机器学习的掌握情况,
+此时全国所有的本科生就是总体集合,
+但总体集合往往太大而不具有实际可操作性, 一般都 是取总体集合的一部分,
+比如从双一流 $\mathrm{A}$ 类、双一流 $\mathrm{B}$
+类、一流学科建设高校、普通高校 中各找一部分学生 (即样本集合)进行调研,
+以此来了解国内本科生对机器学习的掌握情况。 在机器学习中, 样本空间 (参见
+$1.2$ 节) 对应总体集合, 而我们手头上的样例集 $D$ 对应 样本集合, 样例集
+$D$ 是从样本空间中采样而得, 分布 $\mathcal{D}$
+可理解为当从样本空间采样获得样例 集 $D$ 时每个样本被采到的概率, 我们用
+$\mathcal{D}(t)$ 表示样本空间第 $t$ 个样本被采到的概率。
 
+### 12.1.1 式(12.1)的解释
 
-## 12.2
-
-$$
-\widehat{E}(h ; D)=\frac{1}{m} \sum_{i=1}^{m} \mathbb{I}\left(h\left(\boldsymbol{x}_{i}\right) \neq y_{i}\right)
-$$
+该式为泛化误差的定义式,所谓泛化误差,是指当样本$x$从真实的样本分布$\mathcal{D}$中采样后其预测值$h(\boldsymbol{x})$不等于真实值$y$的概率。在现实世界中,我们很难获得样本分布$\mathcal{D}$,我们拿到的数据集可以看做是从样本分布$\mathcal{D}$中独立同分布采样得到的。在西瓜书中,我们拿到的数据集,称为样例集$D$\[也叫观测集、样本集,注意与花体$\mathcal{D}$的区别\]。
 
-[解析]:该式为经验误差的定义式,所谓经验误差,是指观测集$D$中的样本$x_i, i=1,2,\cdots,m$的预测值$h(\boldsymbol{x}_i)$和真实值$y_i$的期望误差。
+### 12.1.2 式(12.2)的解释
 
+该式为经验误差的定义式,所谓经验误差,是指观测集$D$中的样本$x_i, i=1,2,\cdots,m$的预测值$h(\boldsymbol{x}_i)$和真实值$y_i$的期望误差。
 
+### 12.1.3 式(12.3)的解释
 
-## 12.3
+假设我们有两个模型$h_1$和$h_2$,将它们同时作用于样本$\boldsymbol{x}$上,那么他们的"不合"度定义为这两个模型预测值不相同的概率。
 
-$$
-d\left(h_{1}, h_{2}\right)=P_{\boldsymbol{x} \sim \mathcal{D}}\left(h_{1}(\boldsymbol{x}) \neq h_{2}(\boldsymbol{x})\right)
-$$
+### 12.1.4 式(12.4)的解释
 
+Jensen不等式:这个式子可以做很直观的理解,比如说在二维空间上,凸函数可以想象成开口向上的抛物线,假如我们有两个点$x_1, x_2$,那么$f(\mathbb{E}(x))$表示的是两个点的均值的纵坐标,而$\mathbb{E}(f(x))$表示的是两个点纵坐标的均值,因为两个点的均值落在抛物线的凹处,所以均值的纵坐标会小一些。
 
+### 12.1.5 式(12.5)的解释
 
-[解析]:假设我们有两个模型$h_1$和$h_2$,将它们同时作用于样本$\boldsymbol{x}$上,那么他们的”不合“度定义为这两个模型预测值不相同的概率
+随机变量的观测值是随机的, 进一步地, 随机过程的每个时刻都是一个随机变量
 
+式中, $\frac{1}{m} \sum_{i=1}^m x_i$ 表示 $m$
+个独立随机变量各自的某次观测值的平均,
+$\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right)$ 表示 $m$
+个独立随机变量各自的期望的平均。
 
+式(12.5)表示事件
+$\frac{1}{m} \sum_{i=1}^m x_i-\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right) \geqslant \epsilon$
+出现的概率不大于 (i.e., $\left.\leqslant\right) e^{-2 m \epsilon^2}$;
+式(12.6)的事件
+$\left|\frac{1}{m} \sum_{i=1}^m x_i-\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right)\right| \geqslant \epsilon$
+等价于以下事件:
 
-## 12.4
 
-$$
-f(\mathbb{E}(x)) \leqslant \mathbb{E}(f(x))
 $$
 
-[解析]:Jensen不等式:这个式子可以做很直观的理解,比如说在二维空间上,凸函数可以想象成开口向上的抛物线,假如我们有两个点$x_1, x_2$,那么$f(\mathbb{E}(x))$表示的是两个点的均值的纵坐标,而$\mathbb{E}(f(x))$表示的是两个点纵坐标的均值,因为两个点的均值落在抛物线的凹处,所以均值的纵坐标会小一些。
 
+\frac{1}{m} \sum_{i=1}^m x_i-\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right) \geqslant \epsilon \quad \vee \quad \frac{1}{m} \sum_{i=1}^m x_i-\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right) \leqslant-\epsilon
 
+$$
 
-## 12.5
 
-$$
-P\left(\frac{1}{m} \sum_{i=1}^{m} x_{i}-\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right) \geqslant \epsilon\right) \leqslant \exp \left(-2 m \epsilon^{2}\right)
-$$
 
-[解析]:Hoeffding 不等式:对于独立随机变量$x_1, x_2, \cdots, x_m$来说,他们观测值$x_i$的均值$\frac{1}{m} \sum_{i=1}^{m} x_{i}$总是和他们期望$\mathbb{E}(x_i)$的均值$\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right)$相近,上式从概率的角度对这样一个结论进行了描述:即**它们之间差值不小于$\epsilon$**这样的事件出现的概率不大于$\exp \left(-2 m \epsilon^{2}\right)$,可以看出当观测到的变量越多,观测值的均值越逼近期望的均值。
 
+其中, $\vee$ 表示逻辑或
+(以上其实就是将绝对值表达式拆成两部分而已)。这两个子事件并无 交集,
+因此总概率等于两个子事件概率之和; 而
+$\frac{1}{m} \sum_{i=1}^m x_i-\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right) \leqslant-\epsilon$
+与式(12.5) 表达的事情对称, 因此概率相同。
 
+Hoeffding 不等式表达的意思是 $\frac{1}{m} \sum_{i=1}^m x_i$ 和
+$\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(x_i\right)$
+两个值应该比较接近, 二者 之差大于 $\epsilon$ 的概率很小 (不大于
+$2 e^{-2 m \epsilon^2}$ )。
 
-## 12.6
+如果对Hoeffding不等式的证明感兴趣,可以参考Hoeffding在1963年发表的论文[1],这篇文章也被引用了逾万次。
 
-$$
-P\left(\left\vert\frac{1}{m} \sum_{i=1}^{m} x_{i}-\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right)\right\vert \geqslant \epsilon\right) \leqslant 2 \exp \left(-2 m \epsilon^{2}\right)
-$$
+### 12.1.6 式(12.7)的解释
 
-[解析]:略
+McDiarmid不等式:首先解释下前提条件:
 
+$$
 
 
-## 12.7
+\sup _{x_{1}, \ldots, x_{m}, x_{i}^{\prime}}\left|f\left(x_{1}, \ldots, x_{m}\right)-f\left(x_{1}, \ldots, x_{i-1}, x_{i}^{\prime}, x_{i+1}, \ldots, x_{m}\right)\right| \leqslant c_{i}
 
-$$
-P\left(f\left(x_{1}, \ldots, x_{m}\right)-\mathbb{E}\left(f\left(x_{1}, \ldots, x_{m}\right)\right) \geqslant \epsilon\right) \leqslant \exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)
 $$
 
-[解析]:McDiarmid不等式:首先解释下前提条件:$$
-\sup _{x_{1}, \ldots, x_{m}, x_{i}^{\prime}}\left|f\left(x_{1}, \ldots, x_{m}\right)-f\left(x_{1}, \ldots, x_{i-1}, x_{i}^{\prime}, x_{i+1}, \ldots, x_{m}\right)\right| \leqslant c_{i}
-$$ 表示当函数$f$某个输入$x_i$变到$x_i^\prime$的时候,其变化的上确$\sup$仍满足不大于$c_i$。所谓上确界sup可以理解成变化的极限最大值,可能取到也可能无穷逼近。当满足这个条件时,McDiarmid不等式指出:函数值$f(x_1,\dots,x_m)$和其期望值$\mathbb{E}\left(f(x_1,\dots,x_m)\right)$也相近,从概率的角度描述是:它们之间差值不小于$\epsilon$这样的事件出现的概率不大于$
-\exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)
-$,可以看出当每次变量改动带来函数值改动的上限越小,函数值和其期望越相近。
 
-## 12.8
 
-$$
-P\left(\left|f\left(x_{1}, \ldots, x_{m}\right)-\mathbb{E}\left(f\left(x_{1}, \ldots, x_{m}\right)\right)\right| \geqslant \epsilon\right) \leqslant 2 \exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)
-$$
+表示当函数$f$某个输入$x_i$变到$x_i^\prime$的时候,其变化的上确$\sup$仍满足不大于$c_i$。所谓上确界sup可以理解成变化的极限最大值,可能取到也可能无穷逼近。当满足这个条件时,McDiarmid不等式指出:函数值$f(x_1,\dots,x_m)$和其期望值$\mathbb{E}\left(f(x_1,\dots,x_m)\right)$也相近,从概率的角度描述是:它们之间差值不小于$\epsilon$这样的事件出现的概率不大于$\exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)$,可以看出当每次变量改动带来函数值改动的上限越小,函数值和其期望越相近。
 
-[解析]:略
+## 12.2 PAC学习
 
+本节内容几乎都是概念, 建议多读几遍,仔细琢磨一下。
 
+概率近似正确(Probably Approximately Correct, PAC)学习, 可以读为
+\[pæk\]学习。
 
-## 12.9
+本节第 2 段讨论的目标概念, 可简单理解为真实的映射函数;
 
-$$
-P(E(h)\le\epsilon)\ge 1-\delta
-$$
+本节第 3 段讨论的假设空间, 可简单理解为学习算法不同参数时的存在,
+例如线性分类 超平面
+$f(\boldsymbol{x})=\boldsymbol{w}^{\top} \boldsymbol{x}+b$, 每一组
+$(\boldsymbol{w}, b)$ 取值就是一个假设;
 
-[解析]:PAC辨识的定义:$E(h)$表示算法$\mathcal{L}$在用观测集$D$训练后输出的假设函数$h$,它的泛化误差(见公式12.1)。这个概率定义指出,如果$h$的泛化误差不大于$\epsilon$的概率不小于$1-\delta$,那么我们称学习算法$\mathcal{L}$能从假设空间$\mathcal{H}$中PAC辨识概念类$\mathcal{C}$。
+本节第 4 段讨论的可分的(separable)和不可分的(non-separable),
+例如西瓜书第 100 页的 图 5.4, 若假设空间是线性分类器,
+则(a)(b)(c)是可分的, 而(d)是不可分的; 当然, 若假设空 间为椭圆分类器
+(分类边界为椭圆), 则(d)也是可分的;
 
+本节第 5 段提到的 "等效的假设"指的是第 7 页图 $1.3$ 中的 $\mathrm{A}$ 和
+$\mathrm{B}$ 两条曲线都可以完 美拟合有限的样本点, 故称之为 "等效"
+的假设; 另外本段最后还给出了概率近似正确的 含义, 即
+"以较大概率学得误差满足预设上限的模型"。
 
+定义 12.1 PAC 辨识的式(12.9)表示输出假设 $h$ 的泛化误差
+$E(h) \leqslant \epsilon$ 的概率不小于 $1-\delta$; 即 "学习算法
+$\mathfrak{L}$ 能以较大概率 (至少 $1-\delta$ ) 学得目标概念 $c$ 的近似
+(误差最多为 $\epsilon$ )"。
 
-**从式12.10到式12.14的公式是为了回答一个问题:到底需要多少样例才能学得目标概念$c$的有效近似。只要训练集$D$的规模能使学习算法$\mathcal{L}$以概率$1-\delta$找到目标假设的$\epsilon$近似即可。下面就是用数学公式进行抽象**
+定义 12.2 PAC 可学习的核心在于, 需要的样本数目 $m$ 是
+$1 / \epsilon, 1 / \delta, \operatorname{size}(\boldsymbol{x}), \operatorname{size}(\mathrm{c})$
+的多 项式函数。
 
-## 12.10
+定义 12.3 PAC 学习算法的核心在于, 完成 PAC 学习所需要的时间是
+$1 / \epsilon, 1 / \delta, \operatorname{size}(\boldsymbol{x})$,
+$\operatorname{size}(\mathrm{c})$ 的多项式函数。
 
-$$
-\begin{aligned} P(h(\boldsymbol{x})=y) &=1-P(h(\boldsymbol{x}) \neq y) \\ &=1-E(h) \\ &<1-\epsilon \end{aligned}
-$$
+定义 12.4 样本复杂度指完成 PAC 学习过程需要的最少的样本数量,
+而在实际中当然也 希望用最少的样本数量完成学习过程。
 
-[解析]:$P(h(\boldsymbol{x})=y) =1-P(h(\boldsymbol{x}) \neq y)$ 因为它们是对立事件,$P(h(x)\neq y)=E(h)$是泛化误差的定义(见12.1),由于我们假定了泛化误差$E(h)>\epsilon$,因此有$1-E(h)<1-\epsilon$。
+在定义 12.4 之后, 抛出来三个问题:
 
+- 研究某任务在什么样的条件下可学得较好的模型?(定义 12.2)
 
+- 某算法在什么样的条件下可进行有效的学习?(定义 12.3)
 
-## 12.11
+- 需多少训练样例才能获得较好的模型?(定义 12.4)
 
-$$
-\begin{aligned} P\left(\left(h\left(\boldsymbol{x}_{1}\right)=y_{1}\right) \wedge \ldots \wedge\left(h\left(\boldsymbol{x}_{m}\right)=y_{m}\right)\right) &=(1-P(h(\boldsymbol{x}) \neq y))^{m} \\ &<(1-\epsilon)^{m} \end{aligned}
-$$
+有限假设空间指 $\mathcal{H}$ 中包含的假设个数是有限的,
+反之则为无限假设空间; 无限假设空间 更为常见, 例如能够将图
+5.4(a)(b)(c)中的正例和反例样本分开的线性超平面个数是无限多的。
 
+### 12.2.1 式(12.9)的解释
 
+PAC辨识的定义:$E(h)$表示算法$\mathcal{L}$在用观测集$D$训练后输出的假设函数$h$,它的泛化误差(见公式12.1)。这个概率定义指出,如果$h$的泛化误差不大于$\epsilon$的概率不小于$1-\delta$,那么我们称学习算法$\mathcal{L}$能从假设空间$\mathcal{H}$中PAC辨识概念类$\mathcal{C}$。
 
-[解析]:先解释什么是$h$与$D$“表现一致”,12.2节开头阐述了这样的概念,如果$h$能将$D$中所有样本按与真实标记一致的方式完全分开,我们称问题对学习算法是一致的。即$\left(h\left(\boldsymbol{x}_{1}\right)=y_{1}\right) \wedge \ldots \wedge\left(h\left(\boldsymbol{x}_{m}\right)=y_{m}\right)$为True。因为每个事件是独立的,所以上式可以写成$P\left(\left(h\left(\boldsymbol{x}_{1}\right)=y_{1}\right) \wedge \ldots \wedge\left(h\left(\boldsymbol{x}_{m}\right)=y_{m}\right)\right)=\prod_{i=1}^{m} P\left(h\left(\boldsymbol{x}_{i}\right)=y_{i}\right)$。根据对立事件的定义有:$\prod_{i=1}^{m} P\left(h\left(\boldsymbol{x}_{i}\right)=y_{i}\right)=\prod_{i=1}^{m}\left(1-P\left(h\left(\boldsymbol{x}_{i}\right) \neq y_{i}\right)\right)$,又根据公式(12.10),有$$\prod_{i=1}^{m}\left(1-P\left(h\left(\boldsymbol{x}_{i}\right) \neq y_{i}\right)\right)<\prod_{i=1}^{m}(1-\epsilon)=(1-\epsilon)^{m}$$
+## 12.3 有限假设空间
 
+本节内容分两部分, 第 1 部分 "可分情形" 时, 可以达到经验误差
+$\widehat{E}(h)=0$, 做的事 情是以 $1-\delta$ 概率学得目标概念的
+$\epsilon$ 近似, 即式(12.12); 第 2 部分 "不可分情形" 时, 无法达
+到经验误差 $\widehat{E}(h)=0$, 做的事情是以 $1-\delta$ 概率学得
+$\min _{h \in \mathcal{H}} E(h)$ 的 $\epsilon$ 近似, 即式(12.20)。无
+论哪种情形, 对于 $h \in \mathcal{H}$, 可以得到该假设的泛化误差 $E(h)$
+与经验误差 $\widehat{E}(h)$ 的关系, 即 "当 样例数目 $m$ 较大时, $h$
+的经验误差是泛化误差很好的近似", 即式(12.18); 实际研究中经常需
+要推导类似的泛化误差上下界。
 
+从式12.10到式12.14的公式是为了回答一个问题:到底需要多少样例才能学得目标概念$c$的有效近似。只要训练集$D$的规模能使学习算法$\mathcal{L}$以概率$1-\delta$找到目标假设的$\epsilon$近似即可。下面就是用数学公式进行抽象。
 
-## 12.12
+### 12.3.1 式(12.10)的解释
 
-$$
-\begin{aligned} P(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0) &<|\mathcal{H}|(1-\epsilon)^{m} \\ &<|\mathcal{H}| e^{-m \epsilon} \end{aligned}
-$$
+$P(h(\boldsymbol{x})=y) =1-P(h(\boldsymbol{x}) \neq y)$
+因为它们是对立事件,$P(h(x)\neq y)=E(h)$是泛化误差的定义(见12.1),由于我们假定了泛化误差$E(h)>\epsilon$,因此有$1-E(h)<1-\epsilon$。
+
+### 12.3.2 式(12.11)的解释
+
+先解释什么是$h$与$D$"表现一致",12.2节开头阐述了这样的概念,如果$h$能将$D$中所有样本按与真实标记一致的方式完全分开,我们称问题对学习算法是一致的。即$\left(h\left(\boldsymbol{x}_{1}\right)=y_{1}\right) \wedge \ldots \wedge\left(h\left(\boldsymbol{x}_{m}\right)=y_{m}\right)$为True。因为每个事件是独立的,所以上式可以写成$P\left(\left(h\left(\boldsymbol{x}_{1}\right)=y_{1}\right) \wedge \ldots \wedge\left(h\left(\boldsymbol{x}_{m}\right)=y_{m}\right)\right)=\prod_{i=1}^{m} P\left(h\left(\boldsymbol{x}_{i}\right)=y_{i}\right)$。根据对立事件的定义有:$\prod_{i=1}^{m} P\left(h\left(\boldsymbol{x}_{i}\right)=y_{i}\right)=\prod_{i=1}^{m}\left(1-P\left(h\left(\boldsymbol{x}_{i}\right) \neq y_{i}\right)\right)$,又根据公式(12.10),有
 
-[解析]:首先解释为什么”我们事先并不知道学习算法$\mathcal{L}$会输出$\mathcal{H}$中的哪个假设“,因为一些学习算法对用一个观察集$D$的输出结果是非确定的,比如感知机就是个典型的例子,训练样本的顺序也会影响感知机学习到的假设$h$参数的值。泛化误差大于$\epsilon$且经验误差为0的假设(即在训练集上表现完美的假设)出现的概率可以表示为$P(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0)$,根据式12.11,每一个这样的假设$h$都满足$P(E(h)>\epsilon \wedge \widehat{E}(h)=0)<\left(1-\epsilon \right)^m$,假设一共有$\vert\mathcal{H}\vert$这么多个这样的假设$h$,因为每个假设$h$满足$E(h)>\epsilon$且$\widehat{E}(h)=0$是互斥的,因此总的概率$P(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0)$就是这些互斥事件之和,即
 $$
-\begin{aligned}P\left(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0\right) &=\sum_i^{\mathcal{\vert H\vert}}P\left(E(h_i)>\epsilon \wedge \widehat{E}(h_i)=0\right)\\&<|\mathcal{H}|(1-\epsilon)^{m}\end{aligned}
+
+
+\prod_{i=1}^{m}\left(1-P\left(h\left(\boldsymbol{x}_{i}\right) \neq y_{i}\right)\right)<\prod_{i=1}^{m}(1-\epsilon)=(1-\epsilon)^{m}
+
 $$
-小于号依据公式(12.11)。
 
-第二个小于号实际上是要证明$\vert\mathcal{H}\vert(1-\epsilon)^m < \vert\mathcal{H}\vert e^{-m\epsilon}$,即证明$(1-\epsilon)^m < e^{-m\epsilon}$,其中$\epsilon\in(0,1]$,$m$是正整数,推导如下:
 
-[推导]:当$\epsilon=1$时,显然成立,当$\epsilon\in(0, 1)$时,因为左式和右式的值域均大于0,所以可以左右两边同时取对数,又因为对数函数是单调递增函数,所以即证明$m\ln(1-\epsilon) < -m\epsilon$,即证明$\ln(1-\epsilon)<-\epsilon$,这个式子很容易证明:令$f(\epsilon)=\ln(1-\epsilon) + \epsilon$,其中$\epsilon\in(0,1)$,$f^\prime(\epsilon)=1-\frac{1}{1-\epsilon}=0 \Rightarrow \epsilon=0$ 取极大值0,因此$ln(1-\epsilon)<-\epsilon$ 也即$\vert\mathcal{H}\vert(1-\epsilon)^m < \vert\mathcal{H}\vert e^{-m\epsilon}$成立。
 
 
+### 12.3.3 式(12.12)的推导
+
+首先解释为什么"我们事先并不知道学习算法$\mathcal{L}$会输出$\mathcal{H}$中的哪个假设",因为一些学习算法对用一个观察集$D$的输出结果是非确定的,比如感知机就是个典型的例子,训练样本的顺序也会影响感知机学习到的假设$h$参数的值。泛化误差大于$\epsilon$且经验误差为0的假设(即在训练集上表现完美的假设)出现的概率可以表示为$P(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0)$,根据式12.11,每一个这样的假设$h$都满足$P(E(h)>\epsilon \wedge \widehat{E}(h)=0)<\left(1-\epsilon \right)^m$,假设一共有$\vert\mathcal{H}\vert$这么多个这样的假设$h$,因为每个假设$h$满足$E(h)>\epsilon$且$\widehat{E}(h)=0$是互斥的,因此总的概率$P(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0)$就是这些互斥事件之和,即
 
-## 12.13
 
-$$
-|\mathcal{H}| e^{-m \epsilon} \leqslant \delta
 $$
 
-[解析]:回到我们要回答的问题:到底需要多少样例才能学得目标概念$c$的有效近似。只要训练集$D$的规模能使学习算法$\mathcal{L}$以概率$1-\delta$找到目标假设的$\epsilon$近似即可。根据式12.12,学习算法$\mathcal{L}$生成的假设大于目标假设的$\epsilon$近似的概率为$P\left(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0\right)<\vert\mathcal{H}\vert e^{-m\epsilon}$,因此学习算法$\mathcal{L}$生成的假设落在目标假设的$\epsilon$近似的概率为$1-P\left(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0\right)\ge 1-\vert\mathcal{H}\vert e^{-m\epsilon}$,这个概率我们希望至少是$1-\delta$,因此$1-\delta\leqslant 1-\vert\mathcal{H}\vert e^{-m\epsilon}\Rightarrow\vert\mathcal{H}\vert e^{-m\epsilon}\leqslant\delta$
 
-## 12.14
+\begin{aligned}P\left(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0\right) &=\sum_i^{\mathcal{\vert H\vert}}P\left(E(h_i)>\epsilon \wedge \widehat{E}(h_i)=0\right)\\&<|\mathcal{H}|(1-\epsilon)^{m}\end{aligned}
 
-$$
-m \geqslant \frac{1}{\epsilon}\left(\ln |\mathcal{H}|+\ln \frac{1}{\delta}\right)
 $$
 
-[推导]:
-$$
-\begin{aligned}
-\vert\mathcal{H}\vert e^{-m \epsilon} &\leqslant \delta\\
-e^{-m \epsilon} &\leqslant \frac{\delta}{\vert\mathcal{H}\vert}\\
--m \epsilon &\leqslant \ln\delta-\ln\vert\mathcal{H}\vert\\
-m &\geqslant \frac{1}{\epsilon}\left(\ln |\mathcal{H}|+\ln \frac{1}{\delta}\right)
-\end{aligned}
-$$
-[解析]:这个式子告诉我们,在假设空间$\mathcal{H}$是PAC可学习的情况下,输出假设$h$的泛化误差$\epsilon$随样本数目$m$增大而收敛到0,收敛速率为$O(\frac{1}{m})$。这也是我们在机器学习中的一个共识,即可供模型训练的观测集样本数量越多,机器学习模型的泛化性能越好。
 
 
 
-## 12.15
+小于号依据公式(12.11)。
 
-$$
-P(\widehat{E}(h)-E(h) \geqslant \epsilon) \leqslant \exp \left(-2 m \epsilon^{2}\right)
-$$
+第二个小于号实际上是要证明$\vert\mathcal{H}\vert(1-\epsilon)^m < \vert\mathcal{H}\vert e^{-m\epsilon}$,即证明$(1-\epsilon)^m < e^{-m\epsilon}$,其中$\epsilon\in(0,1]$,$m$是正整数,推导如下:
 
+当$\epsilon=1$时,显然成立,当$\epsilon\in(0, 1)$时,因为左式和右式的值域均大于0,所以可以左右两边同时取对数,又因为对数函数是单调递增函数,所以即证明$m\ln(1-\epsilon) < -m\epsilon$,即证明$\ln(1-\epsilon)<-\epsilon$,这个式子很容易证明:令$f(\epsilon)=\ln(1-\epsilon) + \epsilon$,其中$\epsilon\in(0,1)$,$f^\prime(\epsilon)=1-\frac{1}{1-\epsilon}=0 \Rightarrow \epsilon=0$
+取极大值0,因此$ln(1-\epsilon)<-\epsilon$
+也即$\vert\mathcal{H}\vert(1-\epsilon)^m < \vert\mathcal{H}\vert e^{-m\epsilon}$成立。
 
+### 12.3.4 式(12.13)的解释
 
-[解析]:参见12.5
+回到我们要回答的问题:到底需要多少样例才能学得目标概念$c$的有效近似。只要训练集$D$的规模能使学习算法$\mathcal{L}$以概率$1-\delta$找到目标假设的$\epsilon$近似即可。根据式12.12,学习算法$\mathcal{L}$生成的假设大于目标假设的$\epsilon$近似的概率为$P\left(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0\right)<\vert\mathcal{H}\vert e^{-m\epsilon}$,因此学习算法$\mathcal{L}$生成的假设落在目标假设的$\epsilon$近似的概率为$1-P\left(h \in \mathcal{H}: E(h)>\epsilon \wedge \widehat{E}(h)=0\right)\ge 1-\vert\mathcal{H}\vert e^{-m\epsilon}$,这个概率我们希望
+至少是$1-\delta$,因此$1-\delta\leqslant 1-\vert\mathcal{H}\vert e^{-m\epsilon}\Rightarrow\vert\mathcal{H}\vert e^{-m\epsilon}\leqslant\delta$
 
+### 12.3.5 式(12.14)的推导
 
 
-## 12.16
 
 $$
-P(E(h)-\widehat{E}(h) \geqslant \epsilon) \leqslant \exp \left(-2 m \epsilon^{2}\right)
-$$
 
 
+\begin{aligned}
+\vert\mathcal{H}\vert e^{-m \epsilon} &\leqslant \delta\\
+e^{-m \epsilon} &\leqslant \frac{\delta}{\vert\mathcal{H}\vert}\\
+-m \epsilon &\leqslant \ln\delta-\ln\vert\mathcal{H}\vert\\
+m &\geqslant \frac{1}{\epsilon}\left(\ln |\mathcal{H}|+\ln \frac{1}{\delta}\right)
+\end{aligned}
 
-[解析]:参见12.5
+$$
 
 
 
-## 12.17
 
-$$
-P(|E(h)-\widehat{E}(h)| \geqslant \epsilon) \leqslant 2 \exp \left(-2 m \epsilon^{2}\right)
-$$
+这个式子告诉我们,在假设空间$\mathcal{H}$是PAC可学习的情况下,输出假设$h$的泛化误差$\epsilon$随样本数目$m$增大而收敛到0,收敛速率为$O(\frac{1}{m})$。这也是我们在机器学习中的一个共识,即可供模型训练的观测集样本数量越多,机器学习模型的泛化性能越好。
 
+### 12.3.6 引理12.1的解释
 
+根据式(12.2),
+$\widehat{E}(h)=\frac{1}{m} \sum_{i=1}^m \mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right)$,
+而指示函数 $\mathbb{I}(\cdot)$ 取值非 0 即 1 , 也就是 说
+$0 \leq \mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right) \leq 1$;
+对于式(12.1) 的 $E(h)$ 实际上表示
+$\mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right)$ 为 1
+的期望
+$\mathbb{E}\left(\mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right)\right)$
+(泛化误差表示样本空间中任取一个样本, 其预测类别不等于真实类别的 概率),
+当假设 $h$ 确定时, 泛化误差固定不变, 因此可记为
+$E(h)=\frac{1}{m} \sum_{i=1}^m \mathbb{E}\left(\mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right)\right)$
+。
 
-[解析]:参见12.6
+此时, 将 $\widehat{E}(h)$ 和 $E(h)$ 代入式(12.15)到式(12.17),
+对比式(12.5)和式(12.6)的 Hoeffding 不等式可知, 式(12.15)对应式(12.5),
+式(12.16)与式(12.15)对称, 式(12.17)对应式(12.6)。
 
+### 12.3.7 式(12.18)的推导
 
+令$\delta=2e^{-2m\epsilon^2}$,则$\epsilon=\sqrt{\frac{\ln(2/\delta)}{2m}}$,由式(12.17)
 
-## 12.18
 
-$$
-\widehat{E}(h)-\sqrt{\frac{\ln (2 / \delta)}{2 m}} \leqslant E(h) \leqslant \widehat{E}(h)+\sqrt{\frac{\ln (2 / \delta)}{2 m}}
 $$
 
-[推导]:令$\delta=2e^{-2m\epsilon^2}$,则$\epsilon=\sqrt{\frac{\ln(2/\delta)}{2m}}$,由式12.17
-$$
+
 \begin{aligned}
 P(|E(h)-\widehat{E}(h)| \geqslant \epsilon) &\leqslant 2 \exp \left(-2 m \epsilon^{2}\right)\\
 P(|E(h)-\widehat{E}(h)| \geqslant \epsilon) &\leqslant \delta\\
@@ -212,289 +259,429 @@ P(|E(h)-\widehat{E}(h)| \leqslant \epsilon) &\geqslant 1 - \delta\\
 P(-\epsilon \leqslant E(h)-\widehat{E}(h) \leqslant \epsilon) &\geqslant 1 - \delta\\
 P(\widehat{E}(h) -\epsilon \leqslant E(h) \leqslant \widehat{E}(h)+\epsilon) &\geqslant 1 - \delta\\
 \end{aligned}
+
 $$
-代入 $\epsilon=\sqrt{\frac{\ln(2/\delta)}{2m}}$得证。
 
-这个式子进一步阐明了当观测集样本数量足够大的时候,$h$的经验误差是其泛化误差很好的近似。
 
 
 
-## 12.19
+带入 $\epsilon=\sqrt{\frac{\ln(2/\delta)}{2m}}$得证。
 
-$$
-P\left(|E(h)-\widehat{E}(h)| \leqslant \sqrt{\frac{\ln |\mathcal{H}|+\ln (2 / \delta)}{2 m}}\right) \geqslant 1-\delta
-$$
+这个式子进一步阐明了当观测集样本数量足够大的时候,$h$的经验误差是其泛化误差很好的近似。
 
-[推导]:
+### 12.3.8 式(12.19)的推导
 
 令$h_1,h_2,\dots,h_{\vert\mathcal{H}\vert}$表示假设空间$\mathcal{H}$中的假设,有
+
+
 $$
+
+
 \begin{aligned} 
 & P(\exists h \in \mathcal{H}:|E(h)-\widehat{E}(h)|>\epsilon) \\
 =& P\left(\left(\left|E_{h_{1}}-\widehat{E}_{h_{1}}\right|>\epsilon\right) \vee \ldots \vee\left(| E_{h_{|\mathcal{H}|}}-\widehat{E}_{h_{|\mathcal{H}|} |>\epsilon}\right)\right) \\ \leqslant & \sum_{h \in \mathcal{H}} P(|E(h)-\widehat{E}(h)|>\epsilon) 
 \end{aligned}
+
 $$
-这一步是很好理解的,存在一个假设$h$使得$|E(h)-\widehat{E}(h)|>\epsilon$的概率可以表示为对假设空间内所有的假设$h_i, i\in 1,\dots,\vert\mathcal{H}\vert$,使得$\left|E_{h_{i}}-\widehat{E}_{h_{i}}\right|>\epsilon$这个事件成立的"或"事件。因为$P(A\vee B)=P(A) + P(B) - P(A\wedge B)$,而$P(A\wedge B)\geqslant 0$,所以最后一行的不等式成立。
 
-由式12.17:
+
+
+
+这一步是很好理解的,存在一个假设$h$使得$|E(h)-\widehat{E}(h)|>\epsilon$的概率可以表示为对假设空间内所有的假设$h_i, i\in 1,\dots,\vert\mathcal{H}\vert$,使得$\left|E_{h_{i}}-\widehat{E}_{h_{i}}\right|>\epsilon$这个事件成立的\"或\"事件。因为$P(A\vee B)=P(A) + P(B) - P(A\wedge B)$,而$P(A\wedge B)\geqslant 0$,所以最后一行的不等式成立。
+
+由式12.17: 
+
 $$
+
+
 \begin{aligned}
 &P(|E(h)-\widehat{E}(h)| \geqslant \epsilon) \leqslant 2 \exp \left(-2 m \epsilon^{2}\right)\\
 &\Rightarrow \sum_{h \in \mathcal{H}} P(|E(h)-\widehat{E}(h)|>\epsilon) \leqslant 2|\mathcal{H}| \exp \left(-2 m \epsilon^{2}\right)
 \end{aligned}
+
 $$
-因此:
+
+
+
+
+因此: 
+
 $$
+
+
 \begin{aligned}
 P(\exists h \in \mathcal{H}:|E(h)-\widehat{E}(h)|>\epsilon) 
 &\leqslant  \sum_{h \in \mathcal{H}} P(|E(h)-\widehat{E}(h)|>\epsilon)\\
 &\leqslant 2|\mathcal{H}| \exp \left(-2 m \epsilon^{2}\right)
 \end{aligned}
+
 $$
-其对立事件:
+
+
+
+
+其对立事件: 
+
 $$
+
+
 \begin{aligned}
 P(\forall h\in\mathcal{H}:\vert E(h)-\widehat{E}(h)\vert\leqslant\epsilon)&=1-P(\exists h \in \mathcal{H}:|E(h)-\widehat{E}(h)|>\epsilon)\\ &\geqslant 1- 2|\mathcal{H}| \exp \left(-2 m \epsilon^{2}\right)
 \end{aligned}
+
 $$
-令$\delta=2\vert\mathcal{H}\vert e^{-2m\epsilon^2}$,则$\epsilon=\sqrt{\frac{\ln |\mathcal{H}|+\ln (2 / \delta)}{2 m}}$,代入上式中即可得到
+
+
+
+
+令$\delta=2\vert\mathcal{H}\vert e^{-2m\epsilon^2}$,则$\epsilon=\sqrt{\frac{\ln |\mathcal{H}|+\ln (2 / \delta)}{2 m}}$,带入上式中即可得到
+
+
 $$
+
+
 P\left(\forall h\in\mathcal{H}:\vert E(h)-\widehat{E}(h)\vert\leqslant\sqrt{\frac{\ln |\mathcal{H}|+\ln (2 / \delta)}{2 m}}\right)\geqslant 1- \delta
+
 $$
+
+
+
+
 其中$\forall h\in\mathcal{H}$这个前置条件可以省略。
 
+### 12.3.9 式(12.20)的解释
 
+这个式子是"不可知PAC可学习"的定义式,不可知是指当目标概念$c$不在算法$\mathcal{L}$所能生成的假设空间$\mathcal{H}$里。可学习是指如果$\mathcal{H}$中泛化误差最小的假设是$\arg\min_{h\in \mathcal{H}}E(h)$,且这个假设的泛化误差满足其与目标概念的泛化误差的差值不大于$\epsilon$的概率不小于$1-\delta$。我们称这样的假设空间$\mathcal{H}$是不可知PAC可学习的。
 
-## 12.20
+## 12.4 VC维
 
-$$
-P\left(E(h)-\min _{h^{\prime} \in \mathcal{H}} E\left(h^{\prime}\right) \leqslant \epsilon\right) \geqslant 1-\delta
-$$
+不同于12.3节的有限假设空间,从本节开始,本章剩余内容均针对无限假设空间。
+
+### 12.4.1 式(12.21)的解释
+
+这个是增长函数的定义式。增长函数$\Pi_{\mathcal{H}}(m)$表示假设空间$\mathcal{H}$对m个样本所能赋予标签的最大可能的结果数。比如对于两个样本的二分类问题,一共有4中可能的标签组合$[[0, 0], [0, 1], [1, 0], [1, 1]]$,如果假设空间$\mathcal{H}_1$能赋予这两个样本两种标签组合$[[0, 0], [1, 1]]$,则$\Pi_{\mathcal{H}_1}(2)=2$。显然,$\mathcal{H}$对样本所能赋予标签的可能结果数越多,$\mathcal{H}$的表示能力就越强。增长函数可以用来反映假设空间$\mathcal{H}$的复杂度。
 
-[解析]:这个式子是”不可知PAC可学习“的定义式,不可知是指当目标概念$c$不在算法$\mathcal{L}$所能生成的假设空间$\mathcal{H}$里。可学习是指如果$\mathcal{H}$中泛化误差最小的假设是$\arg\min_{h\in \mathcal{H}}E(h)$,且这个假设的泛化误差满足其与目标概念的泛化误差的差值不大于$\epsilon$的概率不小于$1-\delta$。我们称这样的假设空间$\mathcal{H}$是不可知PAC可学习的。
+### 12.4.2 式(12.22)的解释
 
+值得指出的是,这个式子的前提假设有误,应当写成对假设空间$\mathcal{H}$,$m\in\mathbb{N}$,$0<\epsilon<1$,存在$h\in\mathcal{H}$
+详细证明参见原论文 On the uniform convergence of relative frequencies of
+events to their probabilities
+[2],在该论文中,定理的形式如下:
 
+Theorem 2 The probability that the relative frequency of at least one
+event in class $S$ differs from its probability in an experiment of size
+l by more then $\varepsilon$, for $l \geqq 2 / \varepsilon^2$, satisfies
+the inequality
 
-## 12.21
 
 $$
-\Pi_{\mathcal{H}}(m)=\max _{\left\{\boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{m}\right\} \subseteq \mathcal{X}}\left|\left\{\left(h\left(\boldsymbol{x}_{1}\right), \ldots, h\left(\boldsymbol{x}_{m}\right)\right) | h \in \mathcal{H}\right\}\right|
+
+
+\mathbf{P}\left(\pi^{(l)}>\varepsilon\right) \leqq 4 m^S(2 l) e^{-\varepsilon^2 l / 8} .
+
 $$
 
-[解析]:这个是增长函数的定义式。增长函数$\Pi_{\mathcal{H}}(m)$表示假设空间$\mathcal{H}$对m个样本所能赋予标签的最大可能的结果数。比如对于两个样本的二分类问题,一共有4中可能的标签组合$[[0, 0], [0, 1], [1, 0], [1, 1]]$,如果假设空间$\mathcal{H}_1$能赋予这两个样本两种标签组合$[[0, 0], [1, 1]]$,则$\Pi_{\mathcal{H}_1}(2)=2$。显然,$\mathcal{H}$对样本所能赋予标签的可能结果数越多,$\mathcal{H}$的表示能力就越强。增长函数可以用来反映假设空间$\mathcal{H}$的复杂度。
 
 
 
-## 12.22
+注意定理描述中使用的是"at least one event in class S", 因此应该是 class
+S 中"存在"one event 而不是 class S 中的 "任意" event。
+
+另外, 该定理为基于增长函数对无限假设空间的泛化误差分析,
+与上一节有限假设空间 的定理 12.1。在证明定理 $12.1$ 的式(12.19)过程中,
+实际证明的结论是
+
 
 $$
-P(|E(h)-\widehat{E}(h)|>\epsilon) \leqslant 4 \Pi_{\mathcal{H}}(2 m) \exp \left(-\frac{m \epsilon^{2}}{8}\right)
+
+
+P(\exists h \in \mathcal{H}:|E(h)-\widehat{E}(h)|>\epsilon) \leqslant 2|\mathcal{H}| e^{-2 m \epsilon^2}
+
 $$
 
-[解析]:这个式子的前提假设有误,应当写成对假设空间$\mathcal{H}$,$m\in\mathbb{N}$,$0<\epsilon<1$,**存在**$h\in\mathcal{H}$
 
-详细证明参见原论文 https://courses.engr.illinois.edu/ece544na/fa2014/vapnik71.pdf
 
 
+根据该结论可得式(12.19)的原型(式(12.19)就是将 $\epsilon$ 用 $\delta$
+表示):
 
-## 12.23
 
 $$
-\mathrm{VC}(\mathcal{H})=\max \left\{m: \Pi_{\mathcal{H}}(m)=2^{m}\right\}
+
+
+P(\forall h \in \mathcal{H}:|E(h)-\widehat{E}(h)| \leqslant \epsilon) \leqslant 1-2|\mathcal{H}| e^{-2 m \epsilon^2}
+
 $$
 
-[解析]:这是VC维的定义式:VC维的定义是能被$\mathcal{H}$打散的最大示例集的大小。西瓜书中例12.1和例12.2 给出了形象的例子。注意,VC维的定义式上的底数2表示这个问题是2分类的问题。如果是$n$分类的问题,那么定义式中底数需要变为$n$。
 
 
 
-## 12.24
+这是因为事件 $\exists h \in \mathcal{H}:|E(h)-\widehat{E}(h)|>\epsilon$
+与事件
+$\forall h \in \mathcal{H}:|E(h)-\widehat{E}(h)| \leqslant \epsilon$
+为对立事件。
+
+注意到当使用 $|E(h)-\widehat{E}(h)|>\epsilon$ 表达时对应于 "存在",
+当使用 $|E(h)-\widehat{E}(h)| \leqslant \epsilon$ 表达时 则对应于
+"任意"。
+
+综上所述, 式(12.22)使用 $|E(h)-\widehat{E}(h)|>\epsilon$,
+所以这里应该对应于 "存在"。
+
+### 12.4.3 式(12.23)的解释
+
+这是VC维的定义式:VC维的定义是能被$\mathcal{H}$打散的最大示例集的大小。"西瓜书"中例12.1和例12.2
+给出了形象的例子。
+
+式(12.23)中的 $\left\{m: \Pi_{\mathcal{H}}(m)=2^m\right\}$ 表示一个集合,
+集合的元素是能使 $\Pi_{\mathcal{H}}(m)=2^m$ 成立 的所有 $m$; 最外层的
+max表示取集合的最大值。注意,
+这里仅讨论二分类问题。注意,VC维的定义式上的底数2表示这个问题是2分类的问题。如果是$n$分类的问题,那么定义式中底数需要变为$n$。
+
+$\mathrm{VC}$ 维的概念还是很容易理解的,
+有个常见的思维误区西瓜书也指出来了, 即 "这并不 意味着所有大小为 $d$
+的示例集都能被假设空间 $\mathcal{H}$ 打散", 也就是说只要 "存在大小为 $d$
+的示例 集能被假设空间 H打散" 即可, 这里的区别与前面 "定理 $12.2$ 的解释"
+中提到的 "任意" 与 "存在" 的关系一样。
+
+### 12.4.4 引理12.2的解释
+
+首先解释下数学归纳法的起始条件\"当$m=1, d=0$或$d=1$时,定理成立\",当$m=1,d=0$时,由VC维的定义(式12.23)
+$\mathrm{VC}(\mathcal{H})=\max \left\{m: \Pi_{\mathcal{H}}(m)=2^{m}\right\}=0$
+可知$\Pi_{\mathcal{H}}(1)<2$,否则$d$可以取到1,又因为$\Pi_{\mathcal{H}}(m)$为整数,所以$\Pi_{\mathcal{H}}(1)\in[0, 1]$,式12.24右边为$\sum_{i=0}^{0}\left(\begin{array}{c}{1} \\ {i}\end{array}\right)=1$,因此不等式成立。当$m=1,d=1$时,因为一个样本最多只能有两个类别,所以$\Pi_\mathcal{H}(1)=2$,不等式右边为$\sum_{i=0}^{1}\left(\begin{array}{c}{1} \\ {i}\end{array}\right)=2$,因此不等式成立。
+
+再介绍归纳过程,这里采样的归纳方法是假设式(12.24)对$(m-1, d-1)$和$(m-1, d)$成立,推导出其对$(m,d)$也成立。证明过程中引入观测集$D=\left\{\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{m}\right\}$
+和观测集$D^\prime=\left\{\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{m-1}\right\}$,其中$D$比$D^\prime$多一个样本$x_m$,它们对应的假设空间可以表示为:
 
-$$
-\Pi_{\mathcal{H}}(m) \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)
-$$
-[解析]:首先解释下数学归纳法的起始条件"当$m=1, d=0$或$d=1$时,定理成立",当$m=1,d=0$时,由VC维的定义(式12.23) $\mathrm{VC}(\mathcal{H})=\max \left\{m: \Pi_{\mathcal{H}}(m)=2^{m}\right\}=0$ 可知$\Pi_{\mathcal{H}}(1)<2$,否则$d$可以取到1,又因为$\Pi_{\mathcal{H}}(m)$为整数,所以$\Pi_{\mathcal{H}}(1)\in[0, 1]$,式12.24右边为$\sum_{i=0}^{0}\left(\begin{array}{c}{1} \\ {i}\end{array}\right)=1$,因此不等式成立。当$m=1,d=1$时,因为一个样本最多只能有两个类别,所以$\Pi_\mathcal{H}(1)=2$,不等式右边为$\sum_{i=0}^{1}\left(\begin{array}{c}{1} \\ {i}\end{array}\right)=2$,因此不等式成立。
 
-再介绍归纳过程,这里采样的归纳方法是假设式12.24对$(m-1, d-1)$和$(m-1, d)$成立,推导出其对$(m,d)$也成立。证明过程中引入观测集$D=\left\{\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{m}\right\}$ 和观测集$D^\prime=\left\{\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{m-1}\right\}$,其中$D$比$D^\prime$多一个样本$x_m$,它们对应的假设空间可以表示为:
 $$
+
+
 \begin{array}{l}{\mathcal{H}_{| D}=\left\{\left(h\left(\boldsymbol{x}_{1}\right), h\left(\boldsymbol{x}_{2}\right), \ldots, h\left(\boldsymbol{x}_{m}\right)\right) | h \in \mathcal{H}\right\}} \\ {\mathcal{H}_{| D^{\prime}}=\left\{\left(h\left(\boldsymbol{x}_{1}\right), h\left(\boldsymbol{x}_{2}\right), \ldots, h\left(\boldsymbol{x}_{m-1}\right)\right) | h \in \mathcal{H}\right\}}\end{array}
+
 $$
+
+
+
+
 如果假设$h\in\mathcal{H}$对$x_m$的分类结果为$+1$,或为$-1$,那么任何出现在$\mathcal{H}_{\vert D^\prime}$中的串都会在$\mathcal{H}_{\vert D}$中出现一次或者两次。这里举个例子就很容易理解了,假设$m=3$:
+
+
 $$
+
+
 \begin{aligned}
 \mathcal{H}_{\vert D}&=\{(+,-,-),(+,+,-),(+,+,+),(-,+,-),(-,-,+)\}\\
 \mathcal{H}_{\vert D^\prime}&=\{(+,+),(+,-),(-,+),(-,-)\}\\
 \end{aligned}
+
 $$
-其中串$(+,+)$在$\mathcal{H}_{\vert D}$中出现了两次$(+, +, +), (+, +, -)$,$\mathcal{H}_{\vert D^\prime}$中得其他串$(+,-), (-, +), (-, -)$均只在$\mathcal{H}_{\vert D}$中出现了一次。这里的原因是每个样本是二分类的,所以多出的样本$x_m$要么取$+$,要么取$-$,要么都取到(至少两个假设$h$对$x_m$做出了不一致的判断)。
 
+
+
+
+其中串$(+,+)$在$\mathcal{H}_{\vert D}$中出现了两次$(+, +, +), (+, +, -)$,$\mathcal{H}_{\vert D^\prime}$中得其他串$(+,-), (-, +), (-, -)$均只在$\mathcal{H}_{\vert D}$中出现了一次。这里的原因是每个样本是二分类的,所以多出的样本$x_m$要么取$+$,要么取$-$,要么都取到(至少两个假设$h$对$x_m$做出了不一致的判断)。
 记号$\mathcal{H}_{D^\prime\vert D}$表示在$\mathcal{H}_{\vert D}$中出现了两次的$\mathcal{H}_{\vert D^\prime}$组成的集合,比如在上例中$\mathcal{H}_{D^\prime\vert D}=\{(+,+)\}$,有
+
+
 $$
+
+
 \left|\mathcal{H}_{| D}\right|=\left|\mathcal{H}_{| D^{\prime}}\right|+\left|\mathcal{H}_{D^{\prime} | D}\right|
+
 $$
-由于$\mathcal{H}_{\vert D^\prime}$表示限制在样本集$D^\prime$上的假设空间$\mathcal{H}$的表达能力(即所有假设对样本集$D^\prime$所能赋予的标记种类数),样本集$D^\prime$的大小为$m-1$,根据增长函数的定义,假设空间$\mathcal{H}$对包含$m-1$个样本的集合所能赋予的最大标记种类数为$\Pi_{\mathcal{H}}(m-1)$,因此$\vert\mathcal{H}_{\vert D^\prime}\vert \leqslant \Pi_\mathcal{H}(m-1)$。又根据数学归纳法的前提假设,有:
+
+
+
+
+由于$\mathcal{H}_{\vert D^\prime}$表示限制在样本集$D^\prime$上的假设空间$\mathcal{H}$的表达能力(即所有假设对样本集$D^\prime$所能赋予的标记种类数),样本集$D^\prime$的数目为$m-1$,根据增长函数的定义,假设空间$\mathcal{H}$对包含$m-1$个样本的集合所能赋予的最大标记种类数为$\Pi_{\mathcal{H}}(m-1)$,因此$\vert\mathcal{H}_{\vert D^\prime}\vert \leqslant \Pi_\mathcal{H}(m-1)$。又根据数学归纳法的前提假设,有:
+
+
 $$
+
+
 \left|\mathcal{H}_{| D^{\prime}}\right| \leqslant \Pi_{\mathcal{H}}(m-1) \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right)
+
 $$
-由记号$\mathcal{H}_{\vert D^\prime}$的定义可知,$\vert\mathcal{H}_{\vert D^\prime}\vert \geqslant \left\lfloor\frac{\vert\mathcal{H}_{\vert D}\vert}{2}\right\rfloor$,又由于$\vert\mathcal{H}_{\vert D^\prime}\vert$和$\vert\mathcal{H}_{D^\prime\vert D}\vert$均为整数,因此$\vert\mathcal{H}_{D^\prime\vert D}\vert \leqslant \left\lfloor\frac{\vert\mathcal{H}_{\vert D}\vert}{2}\right\rfloor$,由于样本集$D$的大小为$m$,根据增长函数的概念,有$\left|\mathcal{H}_{D^{\prime}| D}\right| \leqslant \left\lfloor\frac{\vert\mathcal{H}_{\vert D}\vert}{2}\right\rfloor\leqslant \Pi_{\mathcal{H}}(m-1)$。
 
+
+
+
+由记号$\mathcal{H}_{\vert D^\prime}$的定义可知,$\vert\mathcal{H}_{\vert D^\prime}\vert \geqslant \left\lfloor\frac{\vert\mathcal{H}_{\vert D}\vert}{2}\right\rfloor$,又由于$\vert\mathcal{H}_{\vert D^\prime}\vert$和$\vert\mathcal{H}_{D^\prime\vert D}\vert$均为整数,因此$\vert\mathcal{H}_{D^\prime\vert D}\vert \leqslant \left\lfloor\frac{\vert\mathcal{H}_{\vert D}\vert}{2}\right\rfloor$,由于样本集$D$的大小为$m$,根据增长函数的概念,有$\left|\mathcal{H}_{D^{\prime}| D}\right| \leqslant \left\lfloor\frac{\vert\mathcal{H}_{\vert D}\vert}{2}\right\rfloor\leqslant \Pi_{\mathcal{H}}(m-1)$。
 假设$Q$表示能被$\mathcal{H}_{D^\prime\vert D}$打散的集合,因为根据$\mathcal{H}_{D^\prime\vert D}$的定义,$H_{D}$必对元素$x_m$给定了不一致的判定,因此$Q \cup\left\{\boldsymbol{x}_{m}\right\}$必能被$\mathcal{H}_{\vert D}$打散,由前提假设$\mathcal{H}$的VC维为$d$,因此$\mathcal{H}_{D^\prime\vert D}$的VC维最大为$d-1$,综上有
+
+
 $$
+
+
 \left|\mathcal{H}_{D^{\prime}| D}\right| \leqslant \Pi_{\mathcal{H}}(m-1) \leqslant \sum_{i=0}^{d-1}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right)
+
 $$
-因此:
+
+
+
+
+因此: 
+
 $$
+
+
 \begin{aligned}
 \left|\mathcal{H}_{| D}\right|&=\left|\mathcal{H}_{| D^{\prime}}\right|+\left|\mathcal{H}_{D^{\prime} | D}\right|\\
-&\leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right) + \sum_{i=0}^{d-1}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right)\\
+&\leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right) + \sum_{i=0}^{d+1}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right)\\
 &=\sum_{i=0}^d \left(\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right) + \left(\begin{array}{c}{m-1} \\ {i-1}\end{array}\right)\right)\\
 &=\sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)
 \end{aligned}
-$$
-注:最后一步依据组合公式,推导如下:
-$$
-\begin{aligned}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right)+\left(\begin{array}{c}{m-1} \\ {i-1}\end{array}\right) &=\frac{(m-1) !}{(m-1-i) ! i !}+\frac{(m-1) !}{(m-1-i+1) !(i-1) !} \\ &=\frac{(m-1) !(m-i)}{(m-i)(m-1-i) ! i !}+\frac{(m-1) ! i}{(m-i) !(i-1) ! i} \\ &=\frac{(m-1) !(m-i)+(m-1) ! i}{(m-i) ! i !} \\ &=\frac{(m-1) !(m-i+i)}{(m-i) ! i !}=\frac{(m-1) ! m}{(m-i) ! i !} \\ &=\frac{m !}{(m-i) ! i !}=\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \end{aligned}
+
 $$
 
-## 12.25
 
-$$
-\left|\mathcal{H}_{| D}\right|=\left|\mathcal{H}_{| D^{\prime}}\right|+\left|\mathcal{H}_{D^{\prime} | D}\right|
-$$
 
 
+注:最后一步依据组合公式,推导如下:
 
-[解析]:参见12.24
 
+$$
 
 
-## 12.26
+\begin{aligned}\left(\begin{array}{c}{m-1} \\ {i}\end{array}\right)+\left(\begin{array}{c}{m-1} \\ {i-1}\end{array}\right) &=\frac{(m-1) !}{(m-1-i) ! i !}+\frac{(m-1) !}{(m-1-i+1) !(i-1) !} \\ &=\frac{(m-1) !(m-i)}{(m-i)(m-1-i) ! i !}+\frac{(m-1) ! i}{(m-i) !(i-1) ! i} \\ &=\frac{(m-1) !(m-i)+(m-1) ! i}{(m-i) ! i !} \\ &=\frac{(m-1) !(m-i+i)}{(m-i) ! i !}=\frac{(m-1) ! m}{(m-i) ! i !} \\ &=\frac{m !}{(m-i) ! i !}=\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \end{aligned}
 
 $$
-\left|\mathcal{H}_{| D^{\prime}}\right| \leqslant \Pi_{\mathcal{H}}(m-1) \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}
-m-1 \\
-i
-\end{array}\right)
-$$
 
 
 
-[解析]:参见12.24
 
+### 12.4.5 式(12.28)的解释
 
 
-## 12.27
 
 $$
-\left|\mathcal{H}_{D^{\prime} | D}\right| \leqslant \Pi_{\mathcal{H}}(m-1) \leqslant \sum_{i=0}^{d-1}\left(\begin{array}{c}
-m-1 \\
-i
-\end{array}\right)
-$$
 
 
+\begin{aligned} \Pi_{\mathcal{H}}(m) & \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \\ & \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{m}{d}\right)^{d-i} \\ &=\left(\frac{m}{d}\right)^{d} \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{d}{m}\right)^{i} \\ & \leqslant\left(\frac{m}{d}\right)^{d} \sum_{i=0}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{d}{m}\right)^{i} \\ 
+&={\left(\frac{m}{d}\right)}^d{\left(1+\frac{d}{m}\right)}^m\\
+&<\left(\frac{e \cdot m}{d}\right)^{d} \end{aligned}
 
-[解析]:参见12.24
+$$
 
 
 
-## 12.28
 
-$$
-\Pi_{\mathcal{H}}(m) \leqslant\left(\frac{e \cdot m}{d}\right)^{d}
-$$
-[推导]:
-$$
-\begin{aligned} \Pi_{\mathcal{H}}(m) & \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \\ & \leqslant \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{m}{d}\right)^{d-i} \\ &=\left(\frac{m}{d}\right)^{d} \sum_{i=0}^{d}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{d}{m}\right)^{i} \\ & \leqslant\left(\frac{m}{d}\right)^{d} \sum_{i=0}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{d}{m}\right)^{i} \\ 
-&={\left(\frac{m}{d}\right)}^d{\left(1+\frac{d}{m}\right)}^m\\
-&<\left(\frac{e \cdot m}{d}\right)^{d} \end{aligned}
-$$
-第一步到第二步和第三步到第四步均因为$m\geqslant d$,第四步到第五步是由于[二项式定理](https://zh.wikipedia.org/wiki/二项式定理):$(x+y)^{n}=\sum_{k=0}^{n}\left(\begin{array}{l}{n} \\ {k}\end{array}\right) x^{n-k} y^{k}$,其中令$k=i, n=m, x=1, y = \frac{d}{m}$得$\left(\frac{m}{d}\right)^{d} \sum_{i=0}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{d}{m}\right)^{i}=\left(\frac{m}{d}\right)^{d} (1+\frac{d}{m})^m$,最后一步的不等式即需证明${\left(1+\frac{d}{m}\right)}^m\leqslant e^d$,因为${\left(1+\frac{d}{m}\right)}^m={\left(1+\frac{d}{m}\right)}^{\frac{m}{d}d}$,根据[自然对数底数$e$的定义](https://en.wikipedia.org/wiki/E_(mathematical_constant)),${\left(1+\frac{d}{m}\right)}^{\frac{m}{d}d}< e^d$,注意原文中用的是$\leqslant$,但是由于$e=\lim _{\frac{d}{m} \rightarrow 0}\left(1+\frac{d}{m}\right)^{\frac{m}{d}}$的定义是一个极限,所以应该是用$<$。
+第一步到第二步和第三步到第四步均因为$m\geqslant d$,第四步到第五步是由于二项式定理[3]:$(x+y)^{n}=\sum_{k=0}^{n}\left(\begin{array}{l}{n} \\ {k}\end{array}\right) x^{n-k} y^{k}$,其中令$k=i, n=m, x=1, y = \frac{d}{m}$得$\left(\frac{m}{d}\right)^{d} \sum_{i=0}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right)\left(\frac{d}{m}\right)^{i}=\left(\frac{m}{d}\right)^{d} (1+\frac{d}{m})^m$,最后一步的不等式即需证明${\left(1+\frac{d}{m}\right)}^m\leqslant e^d$,因为${\left(1+\frac{d}{m}\right)}^m={\left(1+\frac{d}{m}\right)}^{\frac{m}{d}d}$,根据自然对数底数$e$的定义[4],${\left(1+\frac{d}{m}\right)}^{\frac{m}{d}d}< e^d$,注意原文中用的是$\leqslant$,但是由于$e=\lim _{\frac{d}{m} \rightarrow 0}\left(1+\frac{d}{m}\right)^{\frac{m}{d}}$的定义是一个极限,所以应该是用$<$。
 
+### 12.4.6 式(12.29)的解释
 
+这里应该是作者的笔误,根据式12.22,$E(h)-\widehat{E}(h)$应当被绝对值符号包裹。将式12.28带入式12.22得
 
-## 12.29
 
 $$
-P\left(
-E(h)-\widehat{E}(h) \leqslant \sqrt{
-\frac{8d\ln\frac{2em}{d}+8\ln\frac{4}{\delta}}{m}
-}
-\right)
-\geqslant 1-\delta
-$$
 
 
-[推导]:这里应该是作者的笔误,根据式12.22,$E(h)-\widehat{E}(h)$应当被绝对值符号包裹。将式12.28代入式12.22得
-$$
 P\left(\vert 
 E(h)-\widehat{E}(h) \vert> \epsilon
 \right) 
 \leqslant 4{\left(\frac{2em}{d}\right)}^d\exp\left(-\frac{m\epsilon^2}{8}\right)
+
 $$
+
+
+
 令$4{\left(\frac{2em}{d}\right)}^d\exp\left(-\frac{m\epsilon^2}{8}\right)=\delta$可解得
+
+
 $$
+
+
 \delta=\sqrt{
 \frac{8d\ln\frac{2em}{d}+8\ln\frac{4}{\delta}}{m}
 }
+
 $$
-代入式12.22,则定理得证。这个式子是用VC维表示泛化界,可以看出,泛化误差界只与样本数量$m$有关,收敛速率为$\sqrt{\frac{\ln m}{m}}$ (书上简化为$\frac{1}{\sqrt{m}}$)。
 
 
 
-## 12.30
+带入式12.22,则定理得证。这个式子是用VC维表示泛化界,可以看出,泛化误差界只与样本数量$m$有关,收敛速率为$\sqrt{\frac{\ln m}{m}}$
+(书上简化为$\frac{1}{\sqrt{m}}$)。
 
-$$
-\widehat{E}(h)=\min _{h^{\prime} \in \mathcal{H}} \widehat{E}\left(h^{\prime}\right)
-$$
+### 12.4.7 式(12.30)的解释
 
-[解析]:这个是经验风险最小化的定义式。即从假设空间中找出能使经验风险最小的假设。
+这个是经验风险最小化的定义式。即从假设空间中找出能使经验风险最小的假设。
 
+### 12.4.8 定理12.4的解释
 
+首先回忆PAC可学习的概念,见定义12.2,而可知/不可知PAC可学习之间的区别仅仅在于概念类$c$是否包含于假设空间$\mathcal{H}$中。令
 
-## 12.31
 
 $$
-E(g)=\min _{h \in \mathcal{H}} E(h)
-$$
-
 
 
-[解析]:首先回忆PAC可学习的概念,见定义12.2,而可知/不可知PAC可学习之间的区别仅仅在于概念类$c$是否包含于假设空间$\mathcal{H}$中。令
-$$
 \begin{aligned}
 \delta^\prime = \frac{\delta}{2} \\
 \sqrt{\frac{\left(\ln 2 / \delta^{\prime}\right)}{2 m}}=\frac{\epsilon}{2}
 \end{aligned}
+
 $$
 
-结合这两个标记的转换,由推论12.1可知:
+
+ 结合这两个标记的转换,由推论12.1可知:
+
+
 $$
+
+
 \widehat{E}(g)-\frac{\epsilon}{2} \leqslant E(g) \leqslant \widehat{E}(g)+\frac{\epsilon}{2}
+
 $$
+
+
+
 至少以$1-\delta/2$的概率成立。写成概率的形式即:
+
+
 $$
+
+
 P\left(|E(g)-\widehat{E}(g)| \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2
+
 $$
-即$P\left(\left(E(g)-\widehat{E}(g) \leqslant \frac{\epsilon}{2}\right) \wedge\left(E(g)-\widehat{E}(g) \geqslant-\frac{\epsilon}{2}\right)\right) \geqslant 1-\delta / 2$,因此$P\left(E(g)-\widehat{E}(g) \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$且$P\left(E(g)-\widehat{E}(g) \geqslant -\frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$成立。
 
+
+
+即$P\left(\left(E(g)-\widehat{E}(g) \leqslant \frac{\epsilon}{2}\right) \wedge\left(E(g)-\widehat{E}(g) \geqslant-\frac{\epsilon}{2}\right)\right) \geqslant 1-\delta / 2$,因此$P\left(E(g)-\widehat{E}(g) \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$且$P\left(E(g)-\widehat{E}(g) \geqslant -\frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$成立。
 再令
+
+
 $$
+
+
 \sqrt{\frac{8 d \ln \frac{2 e m}{d}+8 \ln \frac{4}{\delta^{\prime}}}{m}}=\frac{\epsilon}{2}
+
 $$
-由式12.29可知
+
+
+
+由式12.29可知 
+
 $$
+
+
 P\left(\left\vert 
 E(h)-\widehat{E}(h) \right\vert\leqslant \frac{\epsilon}{2}
-
 \right)
 \geqslant 1-\frac{\delta}{2}
+
 $$
-同理,$P\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$且$P\left(E(h)-\widehat{E}(h) \geqslant -\frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$成立。
 
-由$P\left(E(g)-\widehat{E}(g) \geqslant - \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$和$P\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$均成立可知
 
+
+同理,$P\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$且$P\left(E(h)-\widehat{E}(h) \geqslant -\frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$成立。
+由$P\left(E(g)-\widehat{E}(g) \geqslant - \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$和$P\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}\right) \geqslant 1-\delta / 2$均成立可知
 则事件$E(g)-\widehat{E}(g) \geqslant -\frac{\epsilon}{2}$和事件$E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}$同时成立的概率为:
+
+
 $$
+
+
 \begin{aligned}
 &P\left(
 \left(E(g)-\widehat{E}(g) \geqslant -\frac{\epsilon}{2} \right)\wedge\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}
@@ -507,312 +694,553 @@ P\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}\right)
 \\\geqslant &1 - \delta/2 + 1 - \delta/2 - 1
 \\=& 1-\delta
 \end{aligned}
+
 $$
-即
+
+
+ 即 
+
 $$
+
+
 P\left(
 \left(E(g)-\widehat{E}(g) \geqslant -\frac{\epsilon}{2} \right)\wedge\left(E(h)-\widehat{E}(h) \leqslant \frac{\epsilon}{2}
 \right)\right) \geqslant 1-\delta
+
 $$
 
 
-因此
+ 因此 
+
 $$
+
+
 P\left(
 \widehat{E}(g)-E(g)+E(h)-\widehat{E}(h)\leqslant\frac{\epsilon}{2} + \frac{\epsilon}{2} 
 \right) = P\left(E(h)-E(g)\leqslant\widehat{E}(h)-\widehat{E}(g)+\epsilon\right)
 \geqslant 1 - \delta
+
 $$
+
+
+
 再由$h$和$g$的定义,$h$表示假设空间中经验误差最小的假设,$g$表示泛化误差最小的假设,将这两个假设共用作用于样本集$D$,则一定有$\widehat{E}(h)\leqslant\widehat{E}(g)$,因此上式可以简化为:
+
+
 $$
+
+
 P\left(E(h)-E(g)\leqslant\epsilon\right)
 \geqslant 1 - \delta
+
 $$
-根据式12.32和式12.34,可以求出$m$为关于$\left(1/\epsilon,1/\delta,\text{size}(x),\text{size}(c)\right)$的多项式,因此根据定理12.2,定理12.5,得到结论任何VC维有限的假设空间$\mathcal{H}$都是(不可知)PAC可学习的。
 
 
 
-## 12.32
+根据式12.32和式12.34,可以求出$m$为关于$\left(1/\epsilon,1/\delta,\text{size}(x),\text{size}(c)\right)$的多项式,因此根据定理12.2,定理12.5,得到结论任何VC维有限的假设空间$\mathcal{H}$都是(不可知)PAC可学习的。
 
-$$
-\sqrt{\frac{\left(\ln 2 / \delta^{\prime}\right)}{2 m}}=\frac{\epsilon}{2}
-$$
+## 12.5 Rademacher复杂度
 
-[解析]:参见12.31
+上一节中介绍的基于VC维的泛化误差界是分布无关、数据独立的,本节将要介绍的Rademacher复杂度则在一定程度上考虑了数据分布。
 
+### 12.5.1 式(12.36)的解释
 
+这里解释从第一步到第二步的推导,因为前提假设是2分类问题,$y_k\in\{-1, +1\}$,因此$\mathbb{I}\left(h(x_i)\neq y_i\right)\equiv \frac{1-y_i h(x_i)}{2}$。这是因为假如$y_i=+1, h(x_i)=+1$或$y_i=-1, h(x_i)=-1$,有$\mathbb{I}\left(h(x_i)\neq y_i\right)=0= \frac{1-y_i h(x_i)}{2}$;反之,假如$y_i=-1, h(x_i)=+1$或$y_i=+1, h(x_i)=-1$,有$\mathbb{I}\left(h(x_i)\neq y_i\right)=1= \frac{1-y_i h(x_i)}{2}$。
 
-## 12.34
+### 12.5.2 式(12.37)的解释
 
-$$
-\sqrt{\frac{8 d \ln \frac{2 e m}{d}+8 \ln \frac{4}{\delta^{\prime}}}{m}}=\frac{\epsilon}{2}
-$$
+由公式12.36可知,经验误差$\widehat{E}(h)$和$\frac{1}{m} \sum_{i=1}^{m} y_{i} h\left(\boldsymbol{x}_{i}\right)$呈反比的关系,因此假设空间中能使经验误差最小的假设$h$即是使$\frac{1}{m} \sum_{i=1}^{m} y_{i} h\left(\boldsymbol{x}_{i}\right)$最大的$h$。
+
+### 12.5.3 式(12.38)的解释
 
+上确界$\sup$这个概念前面已经解释过,见式(12.7)的解析。相比于式(12.37),
+样例真实标记 $y_i$ 换为了 Rademacher 随机变量
+$\sigma_i, \arg \max _{h \in \mathcal{H}}$ 换为了 上确界
+$\sup _{h \in \mathcal{H}^{\circ}}$ 该式表示, 对于样例集
+$D=\left\{\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_m\right\}$,
+假设空间 $\mathcal{H}$ 中的假设对其预 测结果
+$\left\{h\left(\boldsymbol{x}_1\right), h\left(\boldsymbol{x}_2\right), \ldots, h\left(\boldsymbol{x}_m\right)\right\}$
+与随机变量集合
+$\boldsymbol{\sigma}=\left\{\sigma_1, \sigma_2, \ldots, \sigma_m\right\}$
+的契合程度。接下 来解释一下该式的含义。
+$\frac{1}{m} \sum_{i=1}^m \sigma_i h\left(\boldsymbol{x}_i\right)$ 中的
+$\boldsymbol{\sigma}=\left\{\sigma_1, \sigma_2, \ldots, \sigma_m\right\}$
+表示单次随机生成的结果(生成后就固定不 动 ), 而
+$\left\{h\left(\boldsymbol{x}_1\right), h\left(\boldsymbol{x}_2\right), \ldots, h\left(\boldsymbol{x}_m\right)\right\}$
+表示某个假设 $h \in \mathcal{H}$ 的预测结果, 至于
+$\frac{1}{m} \sum_{i=1}^m \sigma_i h\left(\boldsymbol{x}_i\right)$ 的
+取值则取决于本次随机生成的 $\sigma$ 和假设 $h$ 的预测结果的契合程度。
 
+进一步地,
+$\sup _{h \in \mathcal{H}} \frac{1}{m} \sum_{i=1}^m \sigma_i h\left(\boldsymbol{x}_i\right)$
+中的
+$\boldsymbol{\sigma}=\left\{\sigma_1, \sigma_2, \ldots, \sigma_m\right\}$
+仍表示单次随机生成的结 果 (生成后就固定不动), 但此时需求解的是假设空间
+$\mathcal{H}$ 中所有假设与 $\sigma$ 最契合的那个 $h$ 。
 
-[解析]:参见12.31
+例如, $\boldsymbol{\sigma}=\{-1,+1,-1,+1\}$ (即 $m=4$, 这里
+$\boldsymbol{\sigma}$ 仅为本次随机生成结果而已, 下次生
+成结果可能是另一组结果), 假设空间
+$\mathcal{H}=\left\{h_1, h_2, h_3\right\}$, 其中 
 
+$$
 
 
-## 12.36
+\begin{aligned}
+& \left\{h_1\left(\boldsymbol{x}_1\right), h_1\left(\boldsymbol{x}_2\right), h_1\left(\boldsymbol{x}_3\right), h_1\left(\boldsymbol{x}_4\right)\right\}=\{-1,-1,-1,-1\} \\
+& \left\{h_2\left(\boldsymbol{x}_1\right), h_2\left(\boldsymbol{x}_2\right), h_2\left(\boldsymbol{x}_3\right), h_2\left(\boldsymbol{x}_4\right)\right\}=\{-1,+1,-1,-1\} \\
+& \left\{h_3\left(\boldsymbol{x}_1\right), h_3\left(\boldsymbol{x}_2\right), h_3\left(\boldsymbol{x}_3\right), h_3\left(\boldsymbol{x}_4\right)\right\}=\{+1,+1,+1,+1\}
+\end{aligned}
 
 $$
-\begin{aligned} \widehat{E}(h) &=\frac{1}{m} \sum_{i=1}^{m} \mathbb{I}\left(h\left(\boldsymbol{x}_{i}\right) \neq y_{i}\right) \\ &=\frac{1}{m} \sum_{i=1}^{m} \frac{1-y_{i} h\left(\boldsymbol{x}_{i}\right)}{2} \\ &=\frac{1}{2}-\frac{1}{2 m} \sum_{i=1}^{m} y_{i} h\left(\boldsymbol{x}_{i}\right) \end{aligned}
-$$
-[解析]:这里解释从第一步到第二步的推导,因为前提假设是2分类问题,$y_k\in\{-1, +1\}$,因此$\mathbb{I}\left(h(x_i)\neq y_i\right)\equiv \frac{1-y_i h(x_i)}{2}$。这是因为假如$y_i=+1, h(x_i)=+1$或$y_i=-1, h(x_i)=-1$,有$\mathbb{I}\left(h(x_i)\neq y_i\right)=0= \frac{1-y_i h(x_i)}{2}$;反之,假如$y_i=-1, h(x_i)=+1$或$y_i=+1, h(x_i)=-1$,有$\mathbb{I}\left(h(x_i)\neq y_i\right)=1= \frac{1-y_i h(x_i)}{2}$。
 
 
+ 易知
+$\frac{1}{m} \sum_{i=1}^m \sigma_i h_1\left(\boldsymbol{x}_i\right)=0, \frac{1}{m} \sum_{i=1}^m \sigma_i h_2\left(\boldsymbol{x}_i\right)=\frac{2}{4}, \frac{1}{m} \sum_{i=1}^m \sigma_i h_3\left(\boldsymbol{x}_i\right)=0$,
+因此
 
-## 12.37
 
 $$
-\underset{h \in \mathcal{H}}{\arg \max } \frac{1}{m} \sum_{i=1}^{m} y_{i} h\left(\boldsymbol{x}_{i}\right)
-$$
-[解析]:由公式12.36可知,经验误差$\widehat{E}(h)$和$\frac{1}{m} \sum_{i=1}^{m} y_{i} h\left(\boldsymbol{x}_{i}\right)$呈反比的关系,因此假设空间中能使经验误差最小的假设$h$即是使$\frac{1}{m} \sum_{i=1}^{m} y_{i} h\left(\boldsymbol{x}_{i}\right)$最大的$h$。
 
 
+\sup _{h \in \mathcal{H}} \frac{1}{m} \sum_{i=1}^m \sigma_i h\left(\boldsymbol{x}_i\right)=\frac{2}{4}
 
-## 12.38
-
-$$
-\sup _{h \in \mathcal{H}} \frac{1}{m} \sum_{i=1}^{m} \sigma_{i} h\left(\boldsymbol{x}_{i}\right)
 $$
-[解析]:上确界$\sup$这个概念前面已经解释过,见式12.7的解析。由于$\sigma_i$是随机变量,因此这个式子可以理解为求解和随机生成的标签(即$\sigma$)最契合的假设(当$\sigma_i$和$h(\boldsymbol{x}_i)$完全一致时,他们的内积最大)。
 
 
 
-## 12.39
+
+### 12.5.4 式(12.39)的解释
+
+
 
 $$
+
+
 \mathbb{E}_{\boldsymbol{\sigma}}\left[\sup _{h \in \mathcal{H}} \frac{1}{m} \sum_{i=1}^{m} \sigma_{i} h\left(\boldsymbol{x}_{i}\right)\right]
-$$
-[解析]:这个式子可以用来衡量假设空间$\mathcal{H}$的表达能力,对变量$\sigma$求期望可以理解为当变量$\sigma$包含所有可能的结果时,假设空间$\mathcal{H}$中最契合的假设$h$和变量的平均契合程度。因为前提假设是2分类的问题,因此$\sigma_i$一共有$2^m$种,这些不同的$\sigma_i$构成了数据集$D=\{(x_1, y_1), (x_2, y_2),\dots, (x_m, y_m)\}$的”对分“(12.4节),如果一个假设空间的表达能力越强,那么就越有可能对于每一种$\sigma_i$,假设空间中都存在一个$h$使得$h(x_i)$和$\sigma_i$非常接近甚至相同,对所有可能的$\sigma_i$取期望即可衡量假设空间的整体表达能力,这就是这个式子的含义。
 
+$$
 
 
-## 12.40
 
-$$
-\widehat{R}_{Z}(\mathcal{F})=\mathbb{E}_{\boldsymbol{\sigma}}\left[\sup _{f \in \mathcal{F}} \frac{1}{m} \sum_{i=1}^{m} \sigma_{i} f\left(\boldsymbol{z}_{i}\right)\right]
-$$
-[解析]:对比式12.39,这里使用函数空间$\mathcal{F}$代替了假设空间$\mathcal{H}$,函数$f$代替了假设$h$,很容易理解,因为假设$h$即可以看做是作用在数据$x_i$上的一个映射,通过这个映射可以得到标签$y_i$。注意前提假设实值函数空间$\mathcal{F}:\mathcal{Z}\rightarrow\mathbb{R}$,即映射$f$将样本$z_i$映射到了实数空间,这个时候所有的$\sigma_i$将是一个标量即$\sigma_i\in\{+1, -1\}$。
+\[解析\]:这个式子可以用来衡量假设空间$\mathcal{H}$的表达能力,对变量$\sigma$求期望可以理解为当变量$\sigma$包含所有可能的结果时,假设空间$\mathcal{H}$中最契合的假设$h$和变量的平均契合程度。因为前提假设是2分类的问题,因此$\sigma_i$一共有$2^m$种,这些不同的$\sigma_i$构成了数据集$D=\{(x_1, y_1), (x_2, y_2),\dots, (x_m, y_m)\}$的"对分"(12.4节),如果一个假设空间的表达能力越强,那么就越有可能对于每一种$\sigma_i$,假设空间中都存在一个$h$使得$h(x_i)$和$\sigma_i$非常接近甚至相同,对所有可能的$\sigma_i$取期望即可衡量假设空间的整体表达能力,这就是这个式子的含义。
 
+### 12.5.5 式(12.40)的解释
 
+对比式12.39,这里使用函数空间$\mathcal{F}$代替了假设空间$\mathcal{H}$,函数$f$代替了假设$h$,很容易理解,因为假设$h$即可以看做是作用在数据$x_i$上的一个映射,通过这个映射可以得到标签$y_i$。注意前提假设实值函数空间$\mathcal{F}:\mathcal{Z}\rightarrow\mathbb{R}$,即映射$f$将样本$z_i$映射到了实数空间,这个时候所有的$\sigma_i$将是一个标量即$\sigma_i\in\{+1, -1\}$。
 
-## 12.41
+### 12.5.6 式(12.41)的解释
 
-$$
-R_{m}(\mathcal{F})=\mathbb{E}_{Z \subseteq \mathcal{Z}:|Z|=m}\left[\widehat{R}_{Z}(\mathcal{F})\right]
-$$
-[解析]:这里所要求的是$\mathcal{F}$关于分布$\mathcal{D}$的Rademacher复杂度,因此从$\mathcal{D}$中采出不同的样本$Z$,计算这些样本对应的Rademacher复杂度的期望。
+这里所要求的是$\mathcal{F}$关于分布$\mathcal{D}$的Rademacher复杂度,因此从$\mathcal{D}$中采出不同的样本$Z$,计算这些样本对应的Rademacher复杂度的期望。
 
+### 12.5.7 定理12.5的解释
 
+首先令记号
 
-## 12.42
 
 $$
-\begin{array}{l}{\mathbb{E}[f(\boldsymbol{z})] \leqslant \frac{1}{m} \sum_{i=1}^{m} f\left(\boldsymbol{z}_{i}\right)+2 R_{m}(\mathcal{F})+\sqrt{\frac{\ln (1 / \delta)}{2 m}}} \\ {\mathbb{E}[f(\boldsymbol{z})] \leqslant \frac{1}{m} \sum_{i=1}^{m} f\left(\boldsymbol{z}_{i}\right)+2 \widehat{R}_{Z}(\mathcal{F})+3 \sqrt{\frac{\ln (2 / \delta)}{2 m}}}\end{array}
-$$
-[解析]:首先令记号
-$$
+
+
 \begin{aligned} \widehat{E}_{Z}(f) &=\frac{1}{m} \sum_{i=1}^{m} f\left(\boldsymbol{z}_{i}\right) \\ \Phi(Z) &=\sup _{f \in \mathcal{F}} \left(\mathbb{E}[f]-\widehat{E}_{Z}(f)\right) \end{aligned}
+
 $$
+
+
+
+
 即$\widehat{E}_{Z}(f)$表示函数$f$作为假设下的经验误差,$\Phi(Z)$表示泛化误差和经验误差的差的上确界。再令$Z^\prime$为只与$Z$有一个示例(样本)不同的训练集,不妨设$z_m\in Z$和$z^\prime_m\in Z^\prime$为不同的示例,那么有
+
+
 $$
+
+
 \begin{aligned} \Phi\left(Z^{\prime}\right)-\Phi(Z) &=\sup _{f \in \mathcal{F}} \left(\mathbb{E}[f]-\widehat{E}_{Z^{\prime}}(f)\right)-\sup _{f \in \mathcal{F}} \left(\mathbb{E}[f]-\widehat{E}_{Z}(f)\right) \\ & \leqslant \sup _{f \in \mathcal{F}} \left(\widehat{E}_{Z}(f)-\widehat{E}_{Z^{\prime}}(f)\right) \\ &=\sup_{f\in\mathcal{F}}\frac{\sum^m_{i=1}f(z_i)-\sum^m_{i=1}f(z^\prime_i)}{m}\\&=\sup _{f \in \mathcal{F}} \frac{f\left(z_{m}\right)-f\left(z_{m}^{\prime}\right)}{m} \\ & \leqslant \frac{1}{m} \end{aligned}
+
 $$
-第一个不等式是因为[上确界的差不大于差的上确界](https://math.stackexchange.com/questions/246015/supremum-of-the-difference-of-two-functions),第四行的等号由于$Z^\prime$与$Z$只有$z_m$不相同,最后一行的不等式是因为前提假设$\mathcal{F}:\mathcal{Z}\rightarrow [0,1]$,即$f(z_m),f(z_m^\prime)\in[0,1]$。
 
+
+
+
+第一个不等式是因为上确界的差不大于差的上确界[5],第四行的等号由于$Z^\prime$与$Z$只有$z_m$不相同,最后一行的不等式是因为前提假设$\mathcal{F}:\mathcal{Z}\rightarrow [0,1]$,即$f(z_m),f(z_m^\prime)\in[0,1]$。
 同理
+
+
 $$
+
+
 \Phi(Z)-\Phi\left(Z^{\prime}\right) =\sup _{f \in \mathcal{F}} \frac{f\left(z_{m}^\prime\right)-f\left(z_{m}\right)}{m} \leqslant \frac{1}{m}
+
 $$
+
+
+
+
 综上二式有:
+
+
 $$
+
+
 \left\vert \Phi(Z)-\Phi\left(Z^{\prime}\right)\right\vert \leqslant \frac{1}{m}
+
 $$
+
+
+
+
 将$\Phi$看做函数$f$(注意这里的$f$不是$\Phi$定义里的$f$),那么可以套用McDiarmid不等式的结论式12.7
+
+
 $$
+
+
 P\left(\Phi(Z)-\mathbb{E}_{Z}[\Phi(Z)] \geqslant \epsilon\right) \leqslant \exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)
+
 $$
-令$ \exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)=\delta$可以求得$\epsilon=\sqrt{\frac{\ln (1 / \delta)}{2 m}}$,所以
+
+
+
+
+令$\exp \left(\frac{-2 \epsilon^{2}}{\sum_{i} c_{i}^{2}}\right)=\delta$可以求得$\epsilon=\sqrt{\frac{\ln (1 / \delta)}{2 m}}$,所以
+
+
 $$
+
+
 P\left(\Phi(Z)-\mathbb{E}_{Z}[\Phi(Z)] \geqslant \sqrt{\frac{\ln (1 / \delta)}{2 m}}\right) \leqslant \delta
+
 $$
+
+
+
+
 由逆事件的概率定义得
+
+
 $$
+
+
 P\left(\Phi(Z)-\mathbb{E}_{Z}[\Phi(Z)] \leqslant \sqrt{\frac{\ln (1 / \delta)}{2 m}}\right) \geqslant 1-\delta
+
 $$
-即书中式12.44的结论。
 
-下面来估计$\mathbb{E}_{Z}[\Phi(Z)]$的上界:
+
+
+
+即书中式12.44的结论。下面来估计$\mathbb{E}_{Z}[\Phi(Z)]$的上界:
+
+
 $$
+
+
 \begin{aligned} \mathbb{E}_{Z}[\Phi(Z)] &=\mathbb{E}_{Z}\left[\sup _{f \in \mathcal{F}} \left(\mathbb{E}[f]-\widehat{E}_{Z}(f)\right)\right] \\ &=\mathbb{E}_{Z}\left[\sup _{f \in \mathcal{F}} \mathbb{E}_{Z^{\prime}}\left[\widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)\right]\right] \\ & \leqslant \mathbb{E}_{Z, Z^{\prime}}\left[\sup _{f \in \mathcal{F}}\left( \widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)\right)\right] \\ &=\mathbb{E}_{Z, Z^{\prime}}\left[\sup _{f \in \mathcal{F}} \frac{1}{m} \sum_{i=1}^{m}\left(f\left(\boldsymbol{z}_{i}^{\prime}\right)-f\left(\boldsymbol{z}_{i}\right)\right)\right] \\ &=\mathbb{E}_{\boldsymbol{\sigma}, Z,Z^{\prime}}\left[\sup _{f \in \mathcal{F}} \frac{1}{m} \sum_{i=1}^{m} \sigma_{i}\left(f\left(\boldsymbol{z}_{i}^{\prime}\right)-f\left(\boldsymbol{z}_{i}\right)\right)\right] \\ &\leqslant \mathbb{E}_{\boldsymbol{\sigma}, Z^{\prime}}\left[\sup _{f \in \mathcal{F}} \frac{1}{m} \sum_{i=1}^{m} \sigma_{i} f\left(\boldsymbol{z}_{i}^{\prime}\right)\right]+\mathbb{E}_{\boldsymbol{\sigma}, Z}\left[\sup _{f \in \mathcal{F}} \frac{1}{m} \sum_{i=1}^{m}-\sigma_{i} f\left(\boldsymbol{z}_{i}\right)\right] \\ &=2 \mathbb{E}_{\boldsymbol{\sigma}, Z}\left[\sup _{f \in \mathcal{F}} \frac{1}{m} \sum_{i=1}^{m} \sigma_{i} f\left(\boldsymbol{z}_{i}\right)\right] \\ &=2 R_{m}(\mathcal{F}) \end{aligned}
+
 $$
+
+
+
+
 第二行等式是外面套了一个对服从分布$\mathcal{D}$的示例集$Z^\prime$求期望,因为$\mathbb{E}_{Z^\prime\sim\mathcal{D}}[\widehat{E}_{Z^\prime}(f)]=\mathbb{E}(f)$,而采样出来的$Z^\prime$和$Z$相互独立,因此有$\mathbb{E}_{Z^\prime\sim\mathcal{D}}[\widehat{E}_{Z}(f)]=\widehat{E}_{Z}(f)$。
 
-第三行不等式基于上确界函数$\sup$是个凸函数,将$\sup_{f\in\mathcal{F}}$看做是凸函数$f$,将$\widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)$看做变量$x$根据Jesen不等式(式12.4),有$\mathbb{E}_{Z}\left[\sup _{f \in \mathcal{F}} \mathbb{E}_{Z^{\prime}}\left[\widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)\right]\right] \leqslant \mathbb{E}_{Z, Z^{\prime}}\left[\sup _{f \in \mathcal{F}}\left( \widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)\right)\right] $,其中$\mathbb{E}_{Z, Z^{\prime}}[\cdot]$是$\mathbb{E}_{Z}[\mathbb{E}_{Z^\prime}[\cdot]]$的简写形式。
+第三行不等式基于上确界函数$\sup$是个凸函数,将$\sup_{f\in\mathcal{F}}$看做是凸函数$f$,将$\widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)$看做变量$x$根据Jesen不等式(式12.4),有$\mathbb{E}_{Z}\left[\sup _{f \in \mathcal{F}} \mathbb{E}_{Z^{\prime}}\left[\widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)\right]\right] \leqslant \mathbb{E}_{Z, Z^{\prime}}\left[\sup _{f \in \mathcal{F}}\left( \widehat{E}_{Z^{\prime}}(f)-\widehat{E}_{Z}(f)\right)\right]$,其中$\mathbb{E}_{Z, Z^{\prime}}[\cdot]$是$\mathbb{E}_{Z}[\mathbb{E}_{Z^\prime}[\cdot]]$的简写形式。
 
 第五行引入对Rademacher随机变量的期望,由于函数值空间是标量,因为$\sigma_i$也是标量,即$\sigma_i\in\{-1, +1\}$,且$\sigma_i$总以相同概率可以取到这两个值,因此可以引入$\mathbb{E}_{\sigma}$而不影响最终结果。
 
-第六行利用了[上确界的和不小于和的上确界](https://math.stackexchange.com/questions/246015/supremum-of-the-difference-of-two-functions),因为第一项中只含有变量$z^\prime$,所以可以将$\mathbb{E}_Z$去掉,因为第二项中只含有变量$z$,所以可以将$\mathbb{E}_{Z^\prime}$去掉。
+第六行利用了上确界的和不小于和的上确界[5],因为第一项中只含有变量$z^\prime$,所以可以将$\mathbb{E}_Z$去掉,因为第二项中只含有变量$z$,所以可以将$\mathbb{E}_{Z^\prime}$去掉。
 
 第七行利用$\sigma$是对称的,所以$-\sigma$的分布和$\sigma$完全一致,所以可以将第二项中的负号去除,又因为$Z$和$Z^\prime$均是从$\mathcal{D}$中$i.i.d.$采样得到的数据,因此可以将第一项中的$z^\prime_i$替换成$z$,将$Z^\prime$替换成$Z$。
 
-最后根据定义式12.41可得$\mathbb{E}_{Z}[\Phi(Z)]=2\mathcal{R}_m(\mathcal{F})$,式12.42得证。
+最后根据定义式12.41可得$\mathbb{E}_{Z}[\Phi(Z)]=2\mathcal{R}_m(\mathcal{F})$,式(12.42)得证。
 
-## 12.43
+## 12.6 定理12.6的解释
 
-$$
-\mathbb{E}[f(\boldsymbol{z})] \leqslant \frac{1}{m} \sum_{i=1}^{m} f\left(\boldsymbol{z}_{i}\right)+2 \widehat{R}_{Z}(\mathcal{F})+3 \sqrt{\frac{\ln (2 / \delta)}{2 m}}
-$$
+针对二分类问题, 定理 $12.5$ 给出了 "泛化误差" 和 "经验误差" 的关系, 即:
 
+-   式(12.47)基于 Rademacher 复杂度 $R_m(\mathcal{H})$ 给出了泛化误差
+    $E(h)$ 的上界;
 
+-   式(12.48)基于经验 Rademacher 复杂度 $\widehat{R}_D(\mathcal{H})$
+    给出了泛化误差 $E(h)$ 的上界。
 
-[解析]:参见12.42
+可能大家都会有疑问:定理12.6的设定其实也适用于定理12.5, 即值域为二 值的
+$\{-1,+1\}$ 也属于值域为连续值的 $[0,1]$ 的一种特殊情况,
+这一点从接下来的式(12.49)的 转换可以看出。那么,
+为什么还要针对二分类问题专门给出定理12.6呢?
 
+根据(经验)Rademacher 复杂度的定义可以知道, $R_m(\mathcal{H})$ 和
+$\widehat{R}_D(\mathcal{H})$ 均大于零 (参见前面 有关式(12.39)的解释,
+书中式(12.39)下面的一行也提到该式取值范围是 $[0,1])$; 因此, 相比
+于定理12.5来说, 定理12.6的上界更紧,
+因为二者的界只有中间一项关于(经验)Rademacher 复杂度的部分不同,
+在定理12.5中是两倍的(经验)Rademacher 复杂度, 而在定理 12.6中是
+一倍的(经验)Rademacher 复杂度, 而(经验)Rademacher 复杂度大于零。
 
+因此, 为二分类问题量身定制的定理12.6相比于通用的定理12.5来说,
+二者的区别在 于定理12.6考虑了二分类的特殊情况,
+得到了比定理12.5更紧的泛化误差界, 仅此而已。
 
-## 12.44
+下面做一些证明:
 
-$$
-\Phi(Z) \leqslant \mathbb{E}_{Z}[\Phi(Z)]+\sqrt{\frac{\ln (1 / \delta)}{2 m}}
-$$
+(1)首先通过式(12.49)将值域为 $\{-1,+1\}$ 的假设空间 $\mathcal{H}$
+转化为值域为 $[0,1]$ 的函数空间 $\mathcal{F}_{\mathcal{H}}$ ;
 
+(2)接下来是该证明最核心部分, 即证明式(12.50)的结论
+$\widehat{R}_Z\left(\mathcal{F}_{\mathcal{H}}\right)=\frac{1}{2} \widehat{R}_D(\mathcal{H})$
+: 第 1 行等号就是定义 $12.8$; 第 2 行等号就是根据式(12.49)将
+$f_h\left(\boldsymbol{x}_i, y_i\right)$ 换为
+$\mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right)$; 第 3
+行等号类似于式(12.36)的第 2 个等号; 第 4 行等号说明如下:
 
 
-[解析]:参见 12.42
-
+$$
 
 
-## 12.45
+\sup _{h \in \mathcal{H}} \frac{1}{m} \sum_{i=1}^m \sigma_i \frac{1-y_i h\left(\boldsymbol{x}_i\right)}{2}=\sup _{h \in \mathcal{H}} \frac{1}{2 m} \sum_{i=1}^m \sigma_i+\sup _{h \in \mathcal{H}} \frac{1}{2 m} \sum_{i=1}^m \frac{-y_i \sigma_i h\left(\boldsymbol{x}_i\right)}{2}
 
 $$
-R_{m}(\mathcal{F}) \leqslant \widehat{R}_{Z}(\mathcal{F})+\sqrt{\frac{\ln (2 / \delta)}{2 m}}
-$$
-
 
 
-[解析]:参见12.42
 
+其中 $\sup _{h \in \mathcal{H}} \frac{1}{2 m} \sum_{i=1}^m \sigma_i$ 与
+$h$ 无关, 所以
+$\sup _{h \in \mathcal{H}} \frac{1}{2 m} \sum_{i=1}^m \sigma_i=\frac{1}{2 m} \sum_{i=1}^m \sigma_i$,
+即第 4 行等号; 第 5 行等号是由于
+$\mathbb{E}_{\boldsymbol{\sigma}}\left[\frac{1}{m} \sum_{i=1}^m \sigma_i\right]=0$,
+例如当 $m=2$ 时, 所有可能得 $\boldsymbol{\sigma}$ 包括 $(-1,-1)$,
+$(-1,+1),(+1,-1)$ 和 $(+1,+1)$, 求期望后显然结果等于 0 ; 第 6
+行等号正如边注所说, " $-y_i \sigma_i$ 与 $\sigma_i$ 分布相同"
+(原因跟定理12.5中证明
+$\mathbb{E}_Z[\Phi(Z)] \leqslant 2 R_m(\mathcal{F})$ 相同,
+即求期望时要针对所 有可能的 $\sigma$ 参见"西瓜书"第 282 页第 8 行); 第 7
+行等号再次使用了定义12.8。
 
+(3)关于式(12.51), 根据式(12.50)的结论, 可证明如下:
 
-## 12.46
 
 $$
-\Phi(Z) \leqslant 2 \widehat{R}_{Z}(\mathcal{F})+3 \sqrt{\frac{\ln (2 / \delta)}{2 m}}
-$$
 
 
+R_m\left(\mathcal{F}_{\mathcal{H}}\right)=\mathbb{E}_Z\left[\widehat{R}_Z\left(\mathcal{F}_{\mathcal{H}}\right)\right]=\mathbb{E}_D\left[\frac{1}{2} \widehat{R}_D(\mathcal{H})\right]=\frac{1}{2} \mathbb{E}_D\left[\widehat{R}_D(\mathcal{H})\right]=\frac{1}{2} R_m(\mathcal{H})
 
-参见12.42
+$$
 
 
 
-## 12.52
+其中第 2 个等号由 $Z$ 变为 $D$ 只是符号根据具体情况的适时变化而已。
 
-$$
-R_{m}(\mathcal{H}) \leqslant \sqrt{\frac{2 \ln \Pi_{\mathcal{H}}(m)}{m}}
-$$
-[证明]:比较繁琐,同书上所示,参见[Mohri etc., 2012](https://cs.nyu.edu/~mohri/mlbook/)
+(4)最后, 将式(12.49)定义的 $f_h$ 替换定理 $12.5$ 中的函数 $f$, 则
 
-## 12.53
 
-$$
-E(h) \leqslant \widehat{E}(h)+\sqrt{\frac{2 d \ln \frac{e m}{d}}{m}}+\sqrt{\frac{\ln (1 / \delta)}{2 m}}
 $$
 
-[解析]:根据式12.28有$\Pi_{\mathcal{H}}(m) \leqslant\left(\frac{e \cdot m}{d}\right)^{d}$,根据式12.52有$R_{m}(\mathcal{H}) \leqslant \sqrt{\frac{2 \ln \Pi_{\mathcal{H}}(m)}{m}}$,因此$\Pi_{\mathcal{H}}(m) \leqslant \sqrt{\frac{2 d \ln \frac{e m}{d}}{m}}$,再根据式12.47 $E(h) \leqslant \widehat{E}(h)+R_{m}(\mathcal{H})+\sqrt{\frac{\ln (1 / \delta)}{2 m}}$ 即证。
 
+\begin{gathered}
+\mathbb{E}[f(\boldsymbol{z})]=\mathbb{E}[\mathbb{I}(h(\boldsymbol{x}) \neq y)]=E(h) \\
+\frac{1}{m} \sum_{i=1}^m f\left(\boldsymbol{z}_i\right)=\frac{1}{m} \sum_{i=1}^m \mathbb{I}\left(h\left(\boldsymbol{x}_i\right) \neq y_i\right)=\widehat{E}(h)
+\end{gathered}
 
+$$
 
-## 12.57
 
-$$
-\begin{array}{l}{\quad\left|\ell\left(\mathfrak{L}_{D}, \boldsymbol{z}\right)-\ell\left(\mathfrak{L}_{D^{i}}, \boldsymbol{z}\right)\right|} \\ {\leqslant\left|\ell\left(\mathfrak{L}_{D}, \boldsymbol{z}\right)-\ell\left(\mathfrak{L}_{D^{\backslash i}}, \boldsymbol{z}\right)\right|+\left|\ell\left(\mathfrak{L}_{D^{i}, \boldsymbol{z}}\right)-\ell\left(\mathfrak{L}_{D^{\backslash i}, \boldsymbol{z}}\right)\right|} \\ {\leqslant 2 \beta}\end{array}
-$$
+ 将式(12.51)代入式(12.42), 即用
+$\frac{1}{2} R_m(\mathcal{H})$ 替换式(12.42)的 $R_m(\mathcal{F})$,
+式(12.47)得证;
 
-[解析]:根据[三角不等式]([https://zh.wikipedia.org/zh-hans/%E4%B8%89%E8%A7%92%E4%B8%8D%E7%AD%89%E5%BC%8F](https://zh.wikipedia.org/zh-hans/三角不等式)),有$|a+b| \leq|a|+|b|$,将$a=\ell\left(\mathfrak{L}_{D}, \boldsymbol{z}\right)-\ell\left(\mathfrak{L}_{D^{i}}\right)$,$b=\ell\left(\mathfrak{L}_{D^{i}, \boldsymbol{z}}\right)-\ell\left(\mathfrak{L}_{D^{\backslash i}, \boldsymbol{z}}\right)$代入即可得出第一个不等式,根据$D^{\backslash i}$表示移除$D$中第$i$个样本,$D^i$表示替换$D$中第$i$个样本,那么$a,b$的变动均为一个样本,根据式12.57,$a\leqslant\beta, b\leqslant\beta$,因此$a +b \leqslant 2\beta$。
+将式(12.50)代入式(12.43), 即用 $\frac{1}{2} \widehat{R}_D(\mathcal{H})$
+替换式(12.43)的 $\widehat{R}_Z(\mathcal{F})$, 式(12.48)得证。
 
+这里有个疑问在于,定理 $12.5$ 的前提是 "实值函数空间
+$\mathcal{F}: \mathcal{Z} \rightarrow[0,1]$ ", 而式(12.49) 得到的函数
+$f_h(z)$ 的值域实际为 $\{0,1\}$, 仍是离散的而非实值的; 当然, 定理 $12.5$
+的证明也 只需要其函数值在 $[0,1]$ 范围内即可, 并不需要其连续。
 
+### 12.6.1 式(12.52)的证明
 
-## 12.58
+比较繁琐,同书上所示,参见Foundations of Machine
+Learning[6]
 
-$$
-\ell(\mathfrak{L}, \mathcal{D}) \leqslant \widehat{\ell}(\mathfrak{L}, D)+2 \beta+(4 m \beta+M) \sqrt{\frac{\ln (1 / \delta)}{2 m}}
-$$
+### 12.6.2 式(12.53)的推导
 
+根据式12.28有$\Pi_{\mathcal{H}}(m) \leqslant\left(\frac{e \cdot m}{d}\right)^{d}$,根据式12.52有$R_{m}(\mathcal{H}) \leqslant \sqrt{\frac{2 \ln \Pi_{\mathcal{H}}(m)}{m}}$,因此$\Pi_{\mathcal{H}}(m) \leqslant \sqrt{\frac{2 d \ln \frac{e m}{d}}{m}}$,再根据式12.47
+$E(h) \leqslant \widehat{E}(h)+R_{m}(\mathcal{H})+\sqrt{\frac{\ln (1 / \delta)}{2 m}}$
+即证。
 
+## 12.7 稳定性
 
-[证明]:比较繁琐,同书上所示,参见[Mohri etc., 2012](https://cs.nyu.edu/~mohri/mlbook/)
+上上节中介绍的基于VC维的泛化误差界是分布无关、数据独立的,上一节介绍的Rademacher复杂度则在一定程度上考虑了数据分布,但二者得到的结果均与具体学习算法无关;本节将要介绍的稳定性分析可以获得与算法有关的分析结果。算法的"稳定性"考察的是算法在输入发生变化时,输出是否会随之发生较大的变化。
 
+### 12.7.1 泛化/经验/留一损失的解释
 
+根据式(12.54)上方关于损失函数的描述:"刻画了假设 的预测标记 与真实标记
+之间的差别",这里针对的是二分类,预测标记和真实标记均只能取 和
+两个值,它们之间的"差别"又能是什么呢?
 
-## 12.59
+因此,当"差别"取为
+时,式(12.54)的泛化损失就是式(12.1)的泛化误差,式(12.55)的经验损失就是式(12.2)的经验误差,如果类似于式(12.1)和式(12.2)继续定义留一误差,那么式(12.56)就对应于留一误差。
 
-$$
-\ell(\mathfrak{L}, \mathcal{D}) \leqslant \ell_{l o o}(\mathfrak{L}, D)+\beta+(4 m \beta+M) \sqrt{\frac{\ln (1 / \delta)}{2 m}}
-$$
+### 12.7.2 式(12.57)的解释
 
+根据三角不等式[7],有$|a+b| \leq|a|+|b|$,将$a=\ell\left(\mathfrak{L}_{D}, \boldsymbol{z}\right)-\ell\left(\mathfrak{L}_{D^{i}}\right)$,$b=\ell\left(\mathfrak{L}_{D^{i}, \boldsymbol{z}}\right)-\ell\left(\mathfrak{L}_{D^{\backslash i}, \boldsymbol{z}}\right)$带入即可得出第一个不等式,根据$D^{\backslash i}$表示移除$D$中第$i$个样本,$D^i$表示替换$D$中第$i$个样本,那么$a,b$的变动均为一个样本,根据式12.57,$a\leqslant\beta, b\leqslant\beta$,因此$a +b \leqslant 2\beta$。
 
+### 12.7.3 定理12.8的解释
 
-[证明]:比较繁琐,同书上所示,参见[Mohri etc., 2012](https://cs.nyu.edu/~mohri/mlbook/)
+西瓜书在该定理下方已明确给出该定理的意义, 即 "定理 $12.8$
+给出了基于稳定性分析 推导出的学习算法 $\mathfrak{L}$
+学得假设的泛化误差界", 式(12.58)和式(12.59)分别基于经验损失和留
+一损失给出了泛化损失的上界。接下来讨论两个相关问题:
 
+(1)定理 $12.8$ 的条件包括损失函数有界, 即
+$0 \leqslant \ell\left(\mathfrak{L}_D, \boldsymbol{z}\right) \leqslant M$;
+如本节第 1 条注解 "泛 化/经验/留一损失的解释" 中所述, 若 "差别" 取为
+$\mathbb{I}\left(\mathfrak{L}_D(\boldsymbol{x}), y\right)$,
+则泛化损失对应于泛化误 差, 此时上限 $M=1$ 。
 
+(2)在前面泛化误差上界的推导中(例如定理 12.1、定理 12.3、定理 12.6、定理
+12.7), 上界中与样本数 $m$ 有关的项收玫率均为 $O(1 / \sqrt{m})$,
+但在该定理中却是 $O(\beta \sqrt{m})$; 一般来讲, 随着样本数 $m$ 的增加,
+经验误差/损失应该收玫于泛化误差/损失, 因此这里假设 $\beta=1 / m$ (书
+中式(12.59)下方第 3 行写为 $\beta=O(1 / m)$ ), 而在第 2 条注解 "定义
+$12.10$ 的解释" 中已经提 到 $\beta$ 的取值的确会随着样本数 $m$
+的增多会变小, 虽然书中并没有严格去讨论 $\beta$ 随 $m$ 增多的变 化规律,
+但至少直觉上是对的。
 
-## 12.60
+### 12.7.4 式(12.60)的推导
 
-$$
-\ell(\mathfrak{L}, \mathcal{D}) \leqslant \widehat{\ell}(\mathfrak{L}, D)+\frac{2}{m}+(4+M) \sqrt{\frac{\ln (1 / \delta)}{2 m}}
-$$
+将$\beta=\frac{1}{m}$带入至式(12.58)即得证。
 
+### 12.7.5 经验损失最小化
 
+顾名思义, "经验损失最小化" 指通过最小化经验损失来求得假设函数。
 
-[证明]:将$\beta=\frac{1}{m}$代入至式12.58即得证。
+这里, "对于损失函数 $\ell$, 若学习算法 $\mathfrak{L}$
+所输出的假设满足经验损失最小化, 则称算法 $\mathfrak{L}$
+满足经验风险最小化原则, 简称算法是 ERM 的"。 在"西瓜书"第 278 页,
+若学习算法 $\mathfrak{L}$ 输出的假设 $h$ 满足式(12.30), 则也称
+$\mathfrak{L}$ 为满足经验风险最小 化原则的算法。而很明显,
+式(12.30)是在最小化经验误差。
 
+那么最小化经验误差和最小化经验损失有什么区别么?
 
+在\"西瓜书"第 286 页左下角边注中提到,
+"最小化经验误差和最小化经验损失有时并不相同, 这
+是由于存在某些病态的损失函数 $\ell$
+使得最小化经验损失并不是最小化经验误差"。
 
-## 定理12.9
+对于 "误差"、"损失"、"风险" 等概念的辨析,参见"西瓜书"第 2 章 $2.1$
+节的注解。
+
+### 12.7.6 定理(12.9)的证明的解释
+
+首先明确几个概念,ERM表示算法$\mathcal{L}$满足经验风险最小化(Empirical
+Risk
+Minimization)。由于$\mathcal{L}$满足经验误差最小化,则可令$g$表示假设空间中具有最小泛化损失的假设,即
 
-若学习算法$\mathcal{L}$是ERM且是稳定的,则假设空间$\mathcal{H}$可学习。
 
-[解析]:首先ERM表示算法$\mathcal{L}$满足经验风险最小化(Empirical Risk Minimization)。由于$\mathcal{L}$满足经验误差最小化,则可令$g$表示假设空间中具有最小泛化损失的假设,即
 $$
+
+
 \ell(g, \mathcal{D})=\min _{h \in \mathcal{H}} \ell(h, \mathcal{D})
+
 $$
+
+
+
+
 再令
+
+
 $$
+
+
 \begin{array}{l}{\epsilon^{\prime}=\frac{\epsilon}{2}} \\ {\frac{\delta}{2}=2 \exp \left(-2 m\left(\epsilon^{\prime}\right)^{2}\right)}\end{array}
+
+$$
+
+
+
+
+将$\epsilon^\prime=\frac{\epsilon}{2}$带入到${\frac{\delta}{2}=2 \exp \left(-2 m\left(\epsilon^{\prime}\right)^{2}\right)}$可以解得$m=\frac{2}{\epsilon^{2}} \ln \frac{4}{\delta}$,由Hoeffding不等式12.6,
+
 $$
-将$\epsilon^\prime=\frac{\epsilon}{2}$代入到${\frac{\delta}{2}=2 \exp \left(-2 m\left(\epsilon^{\prime}\right)^{2}\right)}$可以解得$m=\frac{2}{\epsilon^{2}} \ln \frac{4}{\delta}$,由Hoeffding不等式12.6,$$P\left(\left\vert\frac{1}{m} \sum_{i=1}^{m} x_{i}-\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right)\right\vert \geqslant \epsilon\right) \leqslant 2 \exp \left(-2 m \epsilon^{2}\right)$$,其中$\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right)=\ell(g, \mathcal{D})$,$\frac{1}{m} \sum_{i=1}^{m} x_{i}=\widehat{\ell}(g, \mathcal{D})$,代入可得
+
+
+P\left(\left\vert\frac{1}{m} \sum_{i=1}^{m} x_{i}-\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right)\right\vert \geqslant \epsilon\right) \leqslant 2 \exp \left(-2 m \epsilon^{2}\right)
+
 $$
+
+
+
+其中$\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right)=\ell(g, \mathcal{D})$,$\frac{1}{m} \sum_{i=1}^{m} x_{i}=\widehat{\ell}(g, \mathcal{D})$,带入可得
+
+
+$$
+
+
 P(|\ell(g, \mathcal{D})-\widehat{\ell}(g, D)| \geqslant \frac{\epsilon}{2})\leqslant \frac{\delta}{2}
+
 $$
+
+
+
+
 根据逆事件的概率可得
+
+
 $$
+
+
 P(|\ell(g, \mathcal{D})-\widehat{\ell}(g, D)| \leqslant \frac{\epsilon}{2})\geqslant 1- \frac{\delta}{2}
+
 $$
+
+
+
+
 即文中$|\ell(g, \mathcal{D})-\widehat{\ell}(g, D)| \leqslant \frac{\epsilon}{2}$至少以$1-\delta/2$的概率成立。
 
 由$\frac{2}{m}+(4+M) \sqrt{\frac{\ln (2 / \delta)}{2 m}}=\frac{\epsilon}{2}$可以求解出
+
+
 $$
+
+
 \sqrt{m}=\frac{(4+M) \sqrt{\frac{\ln (2 / \delta)}{2}}+\sqrt{(4+M)^{2} \frac{\ln (2 / \delta)}{2}-4 \times \frac{\epsilon}{2} \times(-2)}}{2 \times \frac{\epsilon}{2}}
+
 $$
+
+
+
+
 即$m=O\left(\frac{1}{\epsilon^{2}} \ln \frac{1}{\delta}\right)$。
 
 由$P(|\ell(g, \mathcal{D})-\widehat{\ell}(g, D)| \leqslant \frac{\epsilon}{2})\geqslant 1- \frac{\delta}{2}$可以按照同公式12.31中介绍的相同的方法推导出
+
+
 $$
+
+
 P(\ell(\mathfrak{L}, \mathcal{D})-\ell(g, \mathcal{D})\leqslant\epsilon)\geqslant 1-\delta
+
 $$
-又因为$m$为与$\left(1/\epsilon,1/\delta,\text{size}(x),\text{size}(c)\right)$相关的多项式的值,因此根据定理12.2,定理12.5,得到结论$\mathcal{H}$是(不可知)PAC可学习的。
 
 
 
 
+又因为$m$为与$\left(1/\epsilon,1/\delta,\text{size}(x),\text{size}(c)\right)$相关的多项式的值,因此根据定理12.2,定理12.5,得到结论$\mathcal{H}$是(不可知)PAC可学习的。
 
+## 参考文献
+[1] Wassily Hoeffding. Probability inequalities for sums of bounded random variables. Journal of the
+American statistical association, 58(301):13–30, 1963.
 
+[2] Vladimir N Vapnik and A Ya Chervonenkis. On the uniform convergence of relative frequencies of
+events to their probabilities. In Measures of complexity, pages 11–30. Springer, 2015.
 
+[3] Wikipedia contributors. Binomial theorem, 2020.
 
+[4] Wikipedia contributors. E, 2020.
 
+[5] robjohn. Supremum of the difference of two functions, 2013.
 
+[6] Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar. Foundations of machine learning. 2018.
 
+[7] Wikipedia contributors. Triangle inequality, 2020.

+ 897 - 157
docs/chapter13/chapter13.md

@@ -1,283 +1,643 @@
-## 13.1
+# 第13章 半监督学习
 
-$$
-p(\boldsymbol{x})=\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)
-$$
+## 13.1 未标记样本
 
-[解析]: 高斯混合分布的定义式。
+"西瓜书"两张插图可谓本节亮点: 图 13.1 直观地说
+明了使用末标记样本后带来的好处; 图 13.2
+对比了主动学习、(纯)半监督学习和直推学习,
+尤其是巧妙地将主动学习的概念融入进来。
 
-## 13.2
+直推学习是综合运用手头上已有的少量有标记样本和大量末标记样本,
+对这些大量末标 记样本预测其标记;
+而(纯)半监督学习是综合运用手头上已有的少量有标记样本和大量末标 记样本,
+对新的末标记样本预测其标记。
+
+对于直推学习, 当然可以仅利用有标记样本训练一个学习器,
+再对末标记样本进行预测, 此即传统的监督学习; 对于(纯)半监督学习,
+当然也可以舍弃大量末标记样本, 仅利用有标 记样本训练一个学习器,
+再对新的末标记样本进行预测。但图 13.1 直观地说明了使用末标
+记样本后带来的好处, 然而利用了末标记样本后是否真的会如图 13.1
+所示带来预期的好处 呢? 此即 13.7 节阅读材料中提到的安全半监督学习。
+
+接下来在 13.2 节、13.3 节、13.4 节、13.5 节介绍的四种半监督学习方法,
+都可以应用 于直推学习, 但若要应用于(纯)半监督学习, 则要有额外的考虑,
+尤其是 13.4 节介绍的图半 监督学习, 因为该节最后一段也明确提到
+"构图过程仅能考虑训练样本集, 难以判知新样本 在图中的位置, 因此,
+在接收到新样本时, 或是将其加入原数据集对图进行重构并重新进行 标记传播,
+或是需引入额外的预测机制"。
+
+## 13.2 生成式方法
+
+本节与 9.4.3 节的高斯混合聚类密切相关, 有关 9.4.3 节的公式推导参见附录,
+建议将高 斯混合聚类的内容理解之后再学习本节算法。
+
+### 13.2.1 式(13.1)的解释
+
+高斯混合分布的定义式。该式即为9.4.3节的式(9.29),式(9.29)中的$k$个混合成分对应于此处的$N$个可能的类别。
+
+### 13.2.2 式(13.2)的推导
+
+首先, 该式的变量 $\Theta \in\{1,2, \ldots, N\}$ 即为式(9.30)中的
+$z_j \in\{1,2, \ldots, k\}$ 。
+
+从公式第 1 行到第 2
+行是对概率进行边缘化(marginalization);通过引入$\Theta$并对其求和
+$\sum_{i=1}^N$以抵消引入的影响。从公式第 2 行到第 3 行推导如下
 
-$$
-\begin{aligned} f(\boldsymbol{x}) &=\underset{j \in \mathcal{Y}}{\arg \max } p(y=j | \boldsymbol{x}) \\ &=\underset{j \in \mathcal{Y}}{\arg \max } \sum_{i=1}^{N} p(y=j, \Theta=i | \boldsymbol{x}) \\ &=\underset{j \in \mathcal{Y}}{\arg \max } \sum_{i=1}^{N} p(y=j | \Theta=i, \boldsymbol{x}) \cdot p(\Theta=i | \boldsymbol{x}) \end{aligned}
-$$
 
-[解析]:从公式第 1 行到第 2 行是对概率进行边缘化(marginalization);通过引入$\Theta$并对其求和 $\sum_{i=1}^N$以抵消引入的影响。从公式第 2 行到第 3 行推导如下
 $$
+
 \begin{aligned}p(y=j, \Theta=i | \boldsymbol{x}) &=\frac{p(y=j, \Theta=i, \boldsymbol{x})}{p(\boldsymbol{x})} \\&=\frac{p(y=j, \Theta=i, \boldsymbol{x})}{p(\Theta=i, \boldsymbol{x})} \cdot \frac{p(\Theta=i, \boldsymbol{x})}{p(\boldsymbol{x})} \\&=p(y=j | \Theta=i, \boldsymbol{x}) \cdot p(\Theta=i | \boldsymbol{x})\end{aligned}
+
 $$
 
-## 13.3
+
+
+$p(y=j \mid \boldsymbol{x})$ 表示 $\boldsymbol{x}$ 的类别 $y$ 为第 $j$
+个类别标记的后验概率(注意条件是已知 $\boldsymbol{x})$;
+
+$p(y=j, \Theta=i \mid \boldsymbol{x})$ 表示 $\boldsymbol{x}$ 的类别 $y$
+为第 $j$ 个类别标记且由第 $i$ 个高斯混合成分生成的后
+验概率(注意条件是已知 $\boldsymbol{x}$ );
+
+$p(y=j \mid \Theta=i, \boldsymbol{x})$ 表示第 $i$ 个高斯混合成分生成的
+$\boldsymbol{x}$ 其类别 $y$ 为第 $j$ 个类别标记的概率 (注意条件是已知
+$\Theta$ 和 $\boldsymbol{x}$, 这里修改了西瓜书式(13.3)下方对
+$p(y=j \mid \Theta=i, \boldsymbol{x})$ 的表述);
+
+$p(\Theta=i \mid \boldsymbol{x})$ 表示 $\boldsymbol{x}$ 由第 $i$
+个高斯混合成分生成的后验概率(注意条件是已知 $\boldsymbol{x})$ 。
+
+"西瓜书"第 296 页第 2 行提到 "假设样本由高斯混合模型生成,
+且每个类别对应一个高斯 混合成分", 也就是说, 如果已知 $\boldsymbol{x}$
+是由哪个高斯混合成分生成的, 也就知道了其类别。而
+$p(y=j \mid \Theta=i, \boldsymbol{x})$ 表示已知 $\Theta$ 和
+$\boldsymbol{x}$ 的条件概率(已知 $\Theta$ 就足够, 不需 $\boldsymbol{x}$
+的信息), 因此
+
 
 $$
-p(\Theta=i | \boldsymbol{x})=\frac{\alpha_{i} \cdot p\left(\boldsymbol{x} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}
+
+p(y=j \mid \Theta=i, \boldsymbol{x})= \begin{cases}1, & i=j \\ 0, & i \neq j\end{cases}
+
 $$
 
-[解析]:根据 13.1 
+
+
+### 13.2.3 式(13.3)的推导
+
+根据式(13.1)
+
+
 $$
+
 p(\boldsymbol{x})=\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)
+
 $$
+
+
+
 因此
+
+
 $$
+
 \begin{aligned}p(\Theta=i | \boldsymbol{x})&=\frac{p(\Theta=i , \boldsymbol{x})}{P(x)}\\&=\frac{\alpha_{i} \cdot p\left(\boldsymbol{x} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}\end{aligned}
+
 $$
 
-## 13.4
 
-$$
-\begin{aligned} L L\left(D_{l} \cup D_{u}\right)=& \sum_{\left(x_{j}, y_{j}\right) \in D_{l}} \ln \left(\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \cdot p\left(y_{j} | \Theta=i, \boldsymbol{x}_{j}\right)\right) \\ &+\sum_{x_{j} \in D_{u}} \ln \left(\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)\right) \end{aligned}
-$$
 
-[解析]:第二项很好解释,当不知道类别信息的时候,样本$x_j$的概率可以用式 13.1 表示,所有无类别信息的样本$D_u$的似然是所有样本的乘积,因为$\ln$函数是单调的,所以也可以将$\ln$函数作用于这个乘积消除因为连乘产生的数值计算问题。第一项引入了样本的标签信息,由
+### 13.2.4 式(13.4)的推导
+
+第二项很好解释,当不知道类别信息的时候,样本$x_j$的概率可以用式 13.1
+表示,所有无类别信息的样本$D_u$的似然是所有样本的乘积,因为$\ln$函数是单调的,所以也可以将$\ln$函数作用于这个乘积消除因为连乘产生的数值计算问题。第一项引入了样本的标签信息,由
+
+
 $$
+
 p(y=j | \Theta=i, \boldsymbol{x})=\left\{\begin{array}{ll}1, & i=j \\0, & i \neq j\end{array}\right.
+
 $$
+
+
+
 可知,这项限定了样本$x_j$只可能来自于$y_j$所对应的高斯分布。
 
-## 13.5
+### 13.2.5 式(13.5)的解释
+
+参见式(13.3),这项可以理解成样本$x_j$属于类别标签$i$(或者说由第$i$个高斯分布生成)的后验概率。其中$\alpha_i,\boldsymbol{\mu}_{i}\boldsymbol{\Sigma}_i$可以通过有标记样本预先计算出来。即:
 
-$$
-\gamma_{j i}=\frac{\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{i=1}^{N} \alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}
-$$
 
-[解析]:参见式 13.3,这项可以理解成样本$x_j$属于类别标签$i$(或者说由第$i$个高斯分布生成)的后验概率。其中$\alpha_i,\boldsymbol{\mu}_{i}\boldsymbol{\Sigma}_i$可以通过有标记样本预先计算出来。即:
 $$
+
 \begin{array}{l}\alpha_{i}=\frac{l_{i}}{\left|D_{l}\right|}, \text { where }\left|D_{l}\right|=\sum_{i=1}^{N} l_{i} \\\boldsymbol{\mu}_{i}=\frac{1}{l_{i}} \sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{x}_{j} \\\boldsymbol{\Sigma}_{i}=\frac{1}{l_{i}} \sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}\end{array}
+
 $$
 
 
-## 13.6
+
+其中 $l_i$ 表示第 $i$ 类样本的有标记样本数目, $\left|D_l\right|$
+为有标记样本集样本总数, $\wedge$ 为 "逻辑与"。
+
+### 13.2.6 式(13.6)的解释
+
+这项可以由
 
 $$
-\boldsymbol{\mu}_{i}=\frac{1}{\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i}+l_{i}}\left(\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \boldsymbol{x}_{j}+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{x}_{j}\right)
+
+\cfrac{\partial LL(D_l \cup D_u) }{\partial \mu_i}=0
+
 $$
 
-[推导]:这项可以由$$\cfrac{\partial LL(D_l \cup D_u) }{\partial \mu_i}=0$$而得,将式 13.4 的两项分别记为:
+而得,将式
+13.4 的两项分别记为:
+
+
 $$
-\begin{aligned}LL(D_l)&=\sum_{(\boldsymbol{x_j},y_j \in D_l)}\ln\left(\sum_{s=1}^{N}\alpha_s \cdot p(\boldsymbol{x_j}\vert \boldsymbol{\mu}_s,\boldsymbol{\Sigma}_s) \cdot p(y_i|\Theta = s,\boldsymbol{x_j})\right)\\&=\sum_{(\boldsymbol{x_j},y_j \in D_l)}\ln\left(\sum_{s=1}^{N}\alpha_{y_j} \cdot p(\boldsymbol{x_j} \vert \boldsymbol{\mu}_{y_j},\boldsymbol{\Sigma}_{y_j})\right)\\LL(D_u)&=\sum_{\boldsymbol{x_j} \in D_u} \ln\left(\alpha_s \cdot p(\boldsymbol{x_j} | \boldsymbol{\mu}_s,\boldsymbol{\Sigma}_s)\right)\end{aligned}
+
+\begin{aligned}LL(D_l)&=\sum_{(\boldsymbol{x_j},y_j \in D_l)}\ln\left(\sum_{s=1}^{N}\alpha_s \cdot p(\boldsymbol{x_j}\vert \boldsymbol{\mu}_s,\boldsymbol{\Sigma}_s) \cdot p(y_i|\Theta = s,\boldsymbol{x_j})\right)\\&=\sum_{(\boldsymbol{x_j},y_j \in D_l)}\ln\left(\alpha_{y_j} \cdot p(\boldsymbol{x_j} \vert \boldsymbol{\mu}_{y_j},\boldsymbol{\Sigma}_{y_j})\right)\\LL(D_u)&=\sum_{\boldsymbol{x_j} \in D_u} \ln\left(\sum_{s=1}^N \alpha_s \cdot p(\boldsymbol{x_j} | \boldsymbol{\mu}_s,\boldsymbol{\Sigma}_s)\right)\end{aligned}
+
 $$
-首先,$LL(D_l)$对$\boldsymbol{\mu_i}$求偏导,$LL(D_l)$求和号中只有$y_j=i$ 的项能留下来,即
+
+
+
+首先,$LL(D_l)$对$\boldsymbol{\mu_i}$求偏导,$LL(D_l)$求和号中只有$y_j=i$
+的项能留下来,即
+
+
 $$
+
 \begin{aligned}\frac{\partial L L\left(D_{l}\right)}{\partial \boldsymbol{\mu}_{i}} &=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{\partial \ln \left(\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)\right)}{\partial \boldsymbol{\mu}_{i}} \\&=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot \frac{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\partial \boldsymbol{\mu}_{i}} \\&=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right) \\&=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\end{aligned}
+
 $$
+
+
+
 $LL(D_u)$对$\boldsymbol{\mu_i}$求导,参考 9.33 的推导:
+
+
 $$
+
 \begin{aligned}
 \frac{\partial L L\left(D_{u}\right)}{\partial \boldsymbol{\mu}_{i}} &=\sum_{\boldsymbol{x}_{j} \in D_{u}} \frac{\alpha_{i}}{\sum_{s=1}^{N} \alpha_{s} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{s}, \boldsymbol{\Sigma}_{s}\right)} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right) \\
 &=\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)
 \end{aligned}
+
 $$
 
 
+
 综上,
+
+
 $$
+
 \begin{aligned}\frac{\partial L L\left(D_{l} \cup D_{u}\right)}{\partial \boldsymbol{\mu}_{i}} &=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)+\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right) \\&=\boldsymbol{\Sigma}_{i}^{-1}\left(\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)+\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\right) \\&=\boldsymbol{\Sigma}_{i}^{-1}\left(\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{x}_{j}+\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{x}_{j}-\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{\mu}_{i}-\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{\mu}_{i}\right)\end{aligned}
+
 $$
+
+
+
 令$\frac{\partial L L\left(D_{l} \cup D_{u}\right)}{\partial \boldsymbol{\mu}_{i}}=0$,两边同时左乘$\Sigma_i$并移项:
+
+
 $$
+
 \sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{\mu}_{i}+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{\mu}_{i}=\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{x}_{j}+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{x}_{j}
+
 $$
-上式中,$\boldsymbol{\mu_i}$ 可以作为常量提到求和号外面,而$\sum_{\left(x_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} 1=l_{i}$,即第$i$类样本的有标记 样本数目,因此
+
+
+
+上式中,$\boldsymbol{\mu_i}$
+可以作为常量提到求和号外面,而$\sum_{\left(x_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} 1=l_{i}$,即第$i$类样本的有标记
+样本数目,因此
+
 
 $$
+
 \left(\sum_{x_{j} \in D_{u}} \gamma_{j i}+\sum_{\left(x_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} 1\right) \boldsymbol{\mu}_{i}=\sum_{x_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{x}_{j}+\sum_{\left(x_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{x}_{j}
+
 $$
 
 
-即得式 13.6。
 
-## 13.7
+即得式(13.6)。
+
+### 13.2.7 式(13.7)的解释
+
+首先$LL(D_l)$对$\boldsymbol{\Sigma_i}$求偏导 ,类似于式(13.6)
 
-$$
-\begin{aligned}\boldsymbol{\Sigma}_{i}=& \frac{1}{\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i}+l_{i}}\left(\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}\right.\\&\left.+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}\right)\end{aligned}
-$$
 
-[推导]:首先$LL(D_l)$对$\boldsymbol{\Sigma_i}$求偏导 ,类似于 13.6
 $$
+
 \begin{aligned} \frac{\partial L L\left(D_{l}\right)}{\partial \boldsymbol{\Sigma}_{i}} &=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{\partial \ln \left(\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)\right)}{\partial \boldsymbol{\Sigma}_{i}} \\ &=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot \frac{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\partial \boldsymbol{\Sigma}_{i}} \\
 &=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \cdot\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right) \cdot \frac{1}{2} \boldsymbol{\Sigma}_{i}^{-1}\\
 &=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right) \cdot \frac{1}{2} \boldsymbol{\Sigma}_{i}^{-1}
 \end{aligned}
+
 $$
-然后$LL(D_u)$ 对$\boldsymbol{\Sigma_i}$求偏导,类似于 9.35
+
+
+
+然后$LL(D_u)$ 对$\boldsymbol{\Sigma_i}$求偏导,类似于式(9.35)
+
+
 $$
+
 \frac{\partial L L\left(D_{u}\right)}{\partial \boldsymbol{\Sigma}_{i}}=\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right) \cdot \frac{1}{2} \boldsymbol{\Sigma}_{i}^{-1}
+
 $$
+
+
+
 综合可得:
+
+
 $$
+
 \begin{aligned} \frac{\partial L L\left(D_{l} \cup D_{u}\right)}{\partial \boldsymbol{\Sigma}_{i}}=& \sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right) \cdot \frac{1}{2} \boldsymbol{\Sigma}_{i}^{-1} \\ &+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right) \cdot \frac{1}{2} \boldsymbol{\Sigma}_{i}^{-1} \\=&\left(\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right)\right.\\ &\left.+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}-\boldsymbol{I}\right)\right) \cdot \frac{1}{2} \boldsymbol{\Sigma}_{i}^{-1} \end{aligned}
+
 $$
+
+
+
 令$\frac{\partial L L\left(D_{l} \cup D_{u}\right)}{\partial \boldsymbol{\Sigma}_{i}}=0$,两边同时右乘$2\Sigma_i$并移项:
+
+
 $$
+
 \begin{aligned} \sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}+& \sum_{\left(\boldsymbol{x}_{j}, y_{j} \in D_{l} \wedge y_{j}=i\right.} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top} \\=& \sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot \boldsymbol{I}+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \boldsymbol{I} \\ &=\left(\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i}+l_{i}\right) \boldsymbol{I} \end{aligned}
+
 $$
+
+
+
 两边同时左乘以$\Sigma_i$:
+
+
 $$
+
 \sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i} \cdot\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}+\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}=\left(\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i}+l_{i}\right) \boldsymbol{\Sigma}_{i}
+
 $$
-即得式 13.7。
 
-## 13.8
 
-$$
-\alpha_{i}=\frac{1}{m}\left(\sum_{\boldsymbol{x}_{j} \in D_{u}} \gamma_{j i}+l_{i}\right)
-$$
 
-[推导]:类似于式 9.36,写出$LL(D_l \cup D_u)$的拉格朗日形式
+即得式(13.7)。
+
+### 13.2.8 式(13.8)的解释
+
+类似于式(9.36),写出$LL(D_l \cup D_u)$的拉格朗日形式
+
+
 $$
+
 \begin{aligned}\mathcal{L}\left(D_{l} \cup D_{u}, \lambda\right) &=L L\left(D_{l} \cup D_{u}\right)+\lambda\left(\sum_{s=1}^{N} \alpha_{s}-1\right) \\&=L L\left(D_{l}\right)+L L\left(D_{u}\right)+\lambda\left(\sum_{s=1}^{N} \alpha_{s}-1\right)\end{aligned}
+
 $$
 
 
-类似于式 9.37,对$\alpha_i$求偏导。对于$LL(D_u)$,求导结果与式 9.37 的推导过程一样
+
+类似于式(9.37),对$\alpha_i$求偏导。对于$LL(D_u)$,求导结果与式(9.37)的推导过程一样
+
+
 $$
+
 \frac{\partial L L\left(D_{u}\right)}{\partial \alpha_{i}}=\sum_{\boldsymbol{x}_{j} \in D_{u}} \frac{1}{\sum_{s=1}^{N} \alpha_{s} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{s}, \boldsymbol{\Sigma}_{s}\right)} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)
+
 $$
 
 
-对于$LL(D_l)$,类似于 13.6 和 13.7 的推导过程
+
+对于$LL(D_l)$,类似于式(13.6)和式(13.7)的推导过程
+
+
 $$
+
 \begin{aligned}\frac{\partial L L\left(D_{l}\right)}{\partial \alpha_{i}} &=\sum_{\left(x_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{\partial \ln \left(\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)\right)}{\partial \alpha_{i}} \\&=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot \frac{\partial\left(\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)\right)}{\partial \alpha_{i}} \\&=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \\&=\sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} \frac{1}{\alpha_{i}}=\frac{1}{\alpha_{i}} \cdot \sum_{\left(\boldsymbol{x}_{j}, y_{j}\right) \in D_{l} \wedge y_{j}=i} 1=\frac{l_{i}}{\alpha_{i}}\end{aligned}
+
 $$
 
 
-上式推导过程中,重点注意变量是$\alpha_i$ ,$p(x_j|\mu_i,\Sigma_i)$是常量;最后一行$\alpha_i$相对于求和变量为常量,因此作为公因子提到求和号外面; $l_i$ 为第$i$类样本的有标记样本数目。
+
+上式推导过程中,重点注意变量是$\alpha_i$
+,$p(x_j|\mu_i,\Sigma_i)$是常量;最后一行$\alpha_i$相对于求和变量为常量,因此作为公因子提到求和号外面;
+$l_i$ 为第$i$类样本的有标记样本数目。
 
 综合两项结果:
+
+
 $$
+
 \frac{\partial \mathcal{L}\left(D_{l} \cup D_{u}, \lambda\right)}{\partial \alpha_{i}}=\frac{l_{i}}{\alpha_{i}}+\sum_{\boldsymbol{x}_{j} \in D_{u}} \frac{p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{s=1}^{N} \alpha_{s} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{s}, \boldsymbol{\Sigma}_{s}\right)}+\lambda
+
 $$
 
 
-令$\cfrac{\partial LL(D_l \cup D_u) }{\partial \alpha_i}=0$ 并且两边同乘以$\alpha_i$,得
+
+令$\cfrac{\partial LL(D_l \cup D_u) }{\partial \alpha_i}=0$
+并且两边同乘以$\alpha_i$,得
+
+
 $$
+
 \alpha_{i} \cdot \frac{l_{i}}{\alpha_{i}}+\sum_{\boldsymbol{x}_{j} \in D_{u}} \frac{\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{s=1}^{N} \alpha_{s} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{s}, \boldsymbol{\Sigma}_{s}\right)}+\lambda \cdot \alpha_{i}=0
+
 $$
 
 
-结合式 9.30 发现,求和号内即为后验概率$\gamma_{ji}$,即
+
+结合式(9.30)发现,求和号内即为后验概率$\gamma_{ji}$,即
+
+
 $$
+
 l_i+\sum_{x_i \in D_u} \gamma_{ji}+\lambda \alpha_i = 0
+
 $$
+
+
+
 对所有混合成分求和,得
+
+
 $$
+
 \sum_{i=1}^N l_i+\sum_{i=1}^N  \sum_{x_i \in D_u} \gamma_{ji}+\sum_{i=1}^N \lambda \alpha_i = 0
+
 $$
 
 
-这里$\sum_{i=1}^N \alpha_i =1$ ,因此$\sum_{i=1}^N \lambda \alpha_i=\lambda\sum_{i=1}^N \alpha_i=\lambda$,根据 9.30 中$\gamma_{ji}$表达式可知
+
+这里$\sum_{i=1}^N \alpha_i =1$
+,因此$\sum_{i=1}^N \lambda \alpha_i=\lambda\sum_{i=1}^N \alpha_i=\lambda$,根据
+9.30 中$\gamma_{ji}$表达式可知
+
+
 $$
+
 \sum_{i=1}^N \gamma_{ji} =  \sum_{i =1}^{N} \cfrac{\alpha_i \cdot  p(x_j|\mu_i,\Sigma_i)}{\Sigma_{s=1}^N \alpha_s \cdot p(x_j| \mu_s, \Sigma_s)}=  \cfrac{\sum_{i =1}^{N}\alpha_i \cdot  p(x_j|\mu_i,\Sigma_i)}{\sum_{s=1}^N \alpha_s \cdot p(x_j| \mu_s, \Sigma_s)}=1
+
 $$
 
 
+
 再结合加法满足交换律,所以
+
+
 $$
+
 \sum_{i=1}^N  \sum_{x_i \in D_u} \gamma_{ji}=\sum_{x_i \in D_u} \sum_{i=1}^N  \gamma_{ji} =\sum_{x_i \in D_u} 1=u
+
 $$
 
 
-以上分析过程中,$\sum_{x_j\in D_u}$ 形式与$\sum_{j=1}^u$等价,其中u为未标记样本集的样本个数; $\sum_{i=1}^Nl_i=l$其中$l$为有标记样本集的样本个数;将这些结果代入
+
+以上分析过程中,$\sum_{x_j\in D_u}$
+形式与$\sum_{j=1}^u$等价,其中u为未标记样本集的样本个数;
+$\sum_{i=1}^Nl_i=l$其中$l$为有标记样本集的样本个数;将这些结果代入
+
+
 $$
+
 \sum_{i=1}^N l_i+\sum_{i=1}^N  \sum_{x_i \in D_u} \gamma_{ji}+\sum_{i=1}^N \lambda \alpha_i = 0
+
 $$
 
 
-解出$l+u+\lambda = 0$  且$l+u =m$ 其中$m$为样本总个数,移项即得$\lambda = -m$
-最后代入整理解得
+
+解出$l+u+\lambda = 0$ 且$l+u =m$
+其中$m$为样本总个数,移项即得$\lambda = -m$,最后带入整理解得
+
+
 $$
+
 l_i + \sum_{x_j \in{D_u}} \gamma_{ji}-\lambda \alpha_i = 0
+
 $$
+
+
+
+即 $l_i+\sum_{\boldsymbol{x}_j \in D_u} \gamma_{j i}-m \alpha_i=0$,
 整理即得式 13.8。
 
-## 13.9
+## 13.3 半监督SVM
 
-$$
-\min _{\boldsymbol{w}, \boldsymbol{b}, \boldsymbol{y}, \boldsymbol{\xi}} \frac{1}{2}\|\boldsymbol{w}\|_{2}^{2}+C_{l} \sum_{i=1}^{l} \xi_{i}+C_{u} \sum_{i=l+1}^{m} \xi_{i}\\
-\begin{aligned}
-\text { s.t. } &y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right) \geqslant 1-\xi_{i}, \quad i=1,2, \ldots, l\\
-&\hat{y}_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right) \geqslant 1-\xi_{i}, \quad i=l+1, l+2, \ldots, m\\
-&\xi_{i} \geqslant 0, \quad i=1,2, \dots, m
-\end{aligned}
-$$
+从本节名称"半监督SVM"即可知道与第6章的SVM内容联系紧密。建议理解了SVM之后再学习本节算法,会发现实际很简单;否则会感觉无从下手,难以理解。
 
-[解析]:这个公式和公式 6.35 基本一致,除了引入了无标记样本的松弛变量$\xi_i, i=l+1,\cdots m$和对应的权重系数$C_u$和无标记样本的标记指派$\hat{y}_i$
+由本节开篇的两段介绍可知,S3VM是SVM在半监督学习上的推广,是此类算法的总称而非某个具体的算法,其最著名的代表是TSVM。
 
-## 13.12
+### 13.3.1 图13.3的解释
+
+注意对比S3VM划分超平面穿过的区域与SVM划分超平面穿过的区域的差别,明显S3VM划分超平面周围样本较少,也就是"数据低密度区域",即"低密度分隔"。
+
+### 13.3.2 式(13.9)的解释
+
+这个公式和式(6.35)基本一致,除了引入了无标记样本的松弛变量$\xi_i, i=l+1,\cdots m$和对应的权重系数$C_u$和无标记样本的标记指派$\hat{y}_i$。因此,欲理解本节内容应该先理解SVM,否则会感觉无从下手,难以理解。
+
+### 13.3.3 图13.4的解释
+
+解释一下第 6 行:
+
+(1)$\hat{y}_i \hat{y}_j<0$ 意味着末标记样本
+$\boldsymbol{x}_i, \boldsymbol{x}_j$ 在此次迭代中被指派的标记
+$\hat{y}_i, \hat{y}_j$ 相反(正例 $+1$ 和 反例 $-1$ 各 1 个);
+
+(2)$\xi_i>0$ 意味着末标记样本 $\boldsymbol{x}_i$
+在此次迭代中为支持向量: (a)在间隔带内但仍与自己标 记同侧
+$\left(0<\xi_i<1\right)$, (b) 在间隔带内但与自己标记异侧
+$\left(1<\xi_i<2\right)$, (c) 不在间隔带且与自 己标记异侧
+$\left(\xi_i>2\right)$,三种情况分别如图13-1所示。
+
+![图13-1 $\xi_i$的三种情况](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/3659/dashboard/1729938230376/ch13p4-summary.svg)
+
+(3)$\xi_i+\xi_j>2$ 分两种情况。(I)
+$\left(\xi_i>1\right) \wedge\left(\xi_j>1\right)$,
+表示都位于自己指派标记异侧, 交换它们的标记后,
+二者就都位于自己新指派标记同侧了,
+如图13-2所示。
+
+![图13-2 $\left(1<\xi_i, \xi_j<2\right)$](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/3659/dashboard/1729938944211/ch13p4-I1.svg)
+
+可以发现, 当 $1<\xi_i, \xi_j<2$ 时, 交换之后虽然松弛变量仍然大于 0 ,
+但至少 $\xi_i+\xi_j$ 比交换之前变小了; 若进一步的, 当 $\xi_i, \xi_j>2$
+时, 则交换之后 $\xi_i+\xi_j$ 将变为 0 ,
+如图13-3所示。
+
+![图13-3 $\left(\xi_i>2\right)\wedge\left(\xi_j>2\right)$](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/3659/dashboard/1729938954756/ch13p4-I2.svg)
+
+可以发现, 交换之后两个样本均被分类正确, 因此松弛变量均等于 0。至于
+$\xi_i, \xi_j$ 其中之一位 于 $1 \sim 2$ 之间, 另一个大于 2 , 情况类似,
+不单列出分析。
+
+\(II\) $\left(0<\xi_i<1\right) \wedge\left(\xi_j>2-\xi_i\right)$,
+表示有一个与自己标记同侧, 有一个与自己标记异侧, 此时可分两种情况。
+
+(II.1) $1<\xi_j<2$, 表示样本与自己标记异侧,
+但仍在间隔带内,如图13-4所示。
+
+![图13-4 $\left(\xi_i+\xi_j>2\right)\wedge\left(0<\xi_i<1\right)\wedge\left(1<\xi_j<2\right)$](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/3659/dashboard/1729938966310/ch13p4-II1.svg)
+
+可以发现, 此时两个样本位置超平面同一侧, 交换标记之后似乎没发生什么变化,
+但是仔细观察会发现交换之后 $\xi_i+\xi_j$ 比交换之前变小了。
+
+(II.2) $\xi_j>2$,
+表示样本在间隔带外,如图13-5所示。
+
+![图13-5 $\left(\xi_i+\xi_j>2\right)\wedge\left(0<\xi_i<1\right)\wedge\left(\xi_j>2\right)$](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/3659/dashboard/1729938971180/ch13p4-II2.svg)
+
+可以发现, 交换之后其中之一被正确分类, $\xi_i+\xi_j$ 比交换之前也变小了。
+综上所述, 当 $\xi_i+\xi_j>2$ 时, 交换指派标记 $\hat{y}_i, \hat{y}_j$
+可以使 $\xi_i+\xi_j$ 下降, 也就是说分类结 果会得到改善。 再解释一下第 11
+行: 逐步增长 $C_u$, 但不超过 $C_l$, 末标记样本的权重小于有标记样本。
+
+### 13.3.4 式(13.10)的解释
+
+将该式变形为 $\frac{C_u^{+}}{C_u^{-}}=\frac{u_{-}}{u_{+}}$,
+即样本个数多的权重小, 样本个数少的权重大, 总体上保持 二者的作用相同。
+
+## 13.4 图半监督学习
+
+本节共讲了两种方法,其中式(13.11)
+\~式(13.17)讲述了一个针对二分类问题的标记传播方法,式(13.18)
+\~式(13.21)讲述了一个针对多分类问题的标记传播方法,两种方法的原理均为两种方法的原理均为"相似的样本应具有相似的标记",只是面向的问题不同,而且具体实现的方法也不同。
+
+### 13.4.1 式(13.12)的推导
+
+注意, 该方法针对二分类问题的标记传播方法。我们希望能量函数 $E(f)$
+越小越好, 注 意到式(13.11)的 $0<(\mathbf{W})_{i j} \leqslant 1$, 且样本
+$\boldsymbol{x}_i$ 和样本 $\boldsymbol{x}_j$ 越相似(即
+$\left\|\boldsymbol{x}_i-\boldsymbol{x}_j\right\|^2$ 越小)则
+$(\mathbf{W})_{i j}$ 越 大, 因此要求式(13.12)中的
+$\left(f\left(\boldsymbol{x}_i\right)-f\left(\boldsymbol{x}_j\right)\right)^2$
+相应地越小越好 (即 "相似的样本应具有相似 的标记"), 如此才能达到能量函数
+$E(f)$ 越小的目的。 首先对式(13.12)的第 1 行式子进行展开整理:
 
-$$
-\begin{aligned}
-E(f) &=\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j}\left(f\left(\boldsymbol{x}_{i}\right)-f\left(\boldsymbol{x}_{j}\right)\right)^{2} \\
-&=\frac{1}{2}\left(\sum_{i=1}^{m} d_{i} f^{2}\left(\boldsymbol{x}_{i}\right)+\sum_{j=1}^{m} d_{j} f^{2}\left(\boldsymbol{x}_{j}\right)-2 \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{j}\right)\right) \\
-&=\sum_{i=1}^{m} d_{i} f^{2}\left(\boldsymbol{x}_{i}\right)-\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{j}\right) \\
-&=\boldsymbol{f}^{\mathrm{T}}(\mathbf{D}-\mathbf{W}) \boldsymbol{f}
-\end{aligned}
-$$
 
-[解析]:首先解释下这个能量函数的定义。原则上,我们希望能量函数$E(f)$越小越好,对于节点$i,j$,如果它们不相邻,则$(\mathbf{W})_{i j}=0$,如果它们相邻,则最小化能量函数要求$f(x_i)$和$f(x_j)$尽量相似,和逻辑相符。下面进行公式的推导,首先由二项展开可得:
 $$
+
 \begin{aligned}
-E(f) &=\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j}\left(f\left(\boldsymbol{x}_{i}\right)-f\left(\boldsymbol{x}_{j}\right)\right)^{2} \\
-&=\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j}\left(f^{2}\left(\boldsymbol{x}_{i}\right)-2 f\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{j}\right)+f^{2}\left(\boldsymbol{x}_{j}\right)\right) \\
-&=\frac{1}{2}\left( \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f^{2}\left(\boldsymbol{x}_{i}\right)+ \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f^{2}\left(\boldsymbol{x}_{j}\right)-2\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{j}\right)\right)
+E(f) & =\frac{1}{2} \sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j}\left(f\left(\boldsymbol{x}_i\right)-f\left(\boldsymbol{x}_j\right)\right)^2 \\
+& =\frac{1}{2} \sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j}\left(f^2\left(\boldsymbol{x}_i\right)-2 f\left(\boldsymbol{x}_i\right) f\left(\boldsymbol{x}_j\right)+f^2\left(\boldsymbol{x}_j\right)\right) \\
+& =\frac{1}{2} \sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f^2\left(\boldsymbol{x}_i\right)+\frac{1}{2} \sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f^2\left(\boldsymbol{x}_j\right)-\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f\left(\boldsymbol{x}_i\right) f\left(\boldsymbol{x}_j\right)
 \end{aligned}
+
 $$
-由于$\mathbf{W}$是一个对称矩阵,可以通过变量替换得到
+
+
+
+然后证明
+$\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f^2\left(\boldsymbol{x}_i\right)=\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f^2\left(\boldsymbol{x}_j\right)$,
+并变形: 
+
 $$
+
 \begin{aligned}
-\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f^{2}\left(\boldsymbol{x}_{j}\right)&=\sum_{j=1}^{m} \sum_{i=1}^{m}(\mathbf{W})_{j i} f^{2}\left(\boldsymbol{x}_{i}\right)\\
-&=\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f^{2}\left(\boldsymbol{x}_{i}\right)\\
-&=
-\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f^{2}\left(\boldsymbol{x}_{j}\right)
+\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f^2\left(\boldsymbol{x}_j\right) & =\sum_{j=1}^m \sum_{i=1}^m(\mathbf{W})_{j i} f^2\left(\boldsymbol{x}_i\right)=\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f^2\left(\boldsymbol{x}_i\right) \\
+& =\sum_{i=1}^m f^2\left(\boldsymbol{x}_i\right) \sum_{j=1}^m(\mathbf{W})_{i j}
 \end{aligned}
+
 $$
-因此$E(f)$可化简为
+
+
+
+其中, 第 1 个等号是把变量 $i, j$ 分别用 $j, i$ 替代
+(统一替换公式中的符号并不影响公式本身); 第 2 个等号是由于 $\mathbf{W}$
+是对称矩阵 (即 $\left.(\mathbf{W})_{i j}=\mathbf{W}\right)_{j i}$ ),
+并交换了求和号次序 (类似于多重 积分中交换积分号次序),
+到此完成了该步骤的证明; 第 3 个等号是由于
+$f^2\left(\boldsymbol{x}_i\right)$ 与求和变量 $j$ 无关,
+因此拿到了该求和号外面 (与求和变量无关的项相对于该求和变量相当于常数),
+该 步骤的变形主要是为了得到 $d_i$ 。 令
+$d_i=\sum_{j=1}^m(\mathbf{W})_{i j}$ ( 既是 $\mathbf{W}$ 第 $i$
+行元素之和, 实际亦是第 $j$ 列元素之和, 因为由于 $\mathbf{W}$ 是对称矩阵,
+即 $\left.(\mathbf{W})_{i j}=\mathbf{W}\right)_{j i}$, 因此
+$d_i=\sum_{j=1}^m(\mathbf{W})_{j i}$, 即第$i$列元素之和), 则
+
+
 $$
-\begin{aligned}
-E(f) &=  \sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f^{2}\left(\boldsymbol{x}_{i}\right)-\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{j}\right)
-\end{aligned}
+
+E(f)=\sum_{i=1}^m d_i f^2\left(\boldsymbol{x}_i\right)-\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f\left(\boldsymbol{x}_i\right) f\left(\boldsymbol{x}_j\right)
+
 $$
-根据定义 $d_i=\sum_{j=1}^{l+u}\left(\mathbf{W}\right)_{ij}$,且$m=l+u$则
+
+
+
+即式(13.12)的第 3 行, 其中第一项
+$\sum_{i=1}^m d_i f^2\left(\boldsymbol{x}_i\right)$
+可以写为如下矩阵形式: 
+
 $$
+
 \begin{aligned}
-E(f)&=\sum_{i=1}^{m} d_{i} f^{2}\left(\boldsymbol{x}_{i}\right)-\sum_{i=1}^{m} \sum_{j=1}^{m}(\mathbf{W})_{i j} f\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{j}\right)\\
-&=\boldsymbol{f}^{\mathrm{T}}\mathbf{D}\boldsymbol{f}-\boldsymbol{f}^{\mathrm{T}}\mathbf{W}\boldsymbol{f}\\
-&=\boldsymbol{f}^{\mathrm{T}}(\mathbf{D}-\mathbf{W}) \boldsymbol{f}
+& =\boldsymbol{f}^{\mathrm{T}} \boldsymbol{D} \boldsymbol{f} \\
+&
 \end{aligned}
+
 $$
 
-## 13.13
+
+
+第二项
+$\sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f\left(\boldsymbol{x}_i\right) f\left(\boldsymbol{x}_j\right)$
+也可以写为如下矩阵形式: 
 
 $$
+
 \begin{aligned}
-E(f) &=\left(\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{f}_{u}^{\mathrm{T}}\right)\left(\left[\begin{array}{ll}
-\mathbf{D}_{l l} & \mathbf{0}_{l u} \\
-\mathbf{0}_{u l} & \mathbf{D}_{u u}
-\end{array}\right]-\left[\begin{array}{ll}
-\mathbf{W}_{l l} & \mathbf{W}_{l u} \\
-\mathbf{W}_{u l} & \mathbf{W}_{u u}
-\end{array}\right]\right)\left[\begin{array}{l}
-\boldsymbol{f}_{l} \\
-\boldsymbol{f}_{u}
+& \sum_{i=1}^m \sum_{j=1}^m(\mathbf{W})_{i j} f\left(\boldsymbol{x}_i\right) f\left(\boldsymbol{x}_j\right) \\
+& =\left[\begin{array}{llll}
+f\left(\boldsymbol{x}_1\right) & f\left(\boldsymbol{x}_2\right) & \cdots & f\left(\boldsymbol{x}_m\right)
+\end{array}\right]\left[\begin{array}{cccc}
+(\mathbf{W})_{11} & (\mathbf{W})_{12} & \cdots & (\mathbf{W})_{1 m} \\
+(\mathbf{W})_{21} & (\mathbf{W})_{22} & \cdots & (\mathbf{W})_{2 m} \\
+\vdots & \vdots & \ddots & \vdots \\
+(\mathbf{W})_{m 1} & (\mathbf{W})_{m 2} & \cdots & (\mathbf{W})_{m m}
+\end{array}\right]\left[\begin{array}{c}
+f\left(\boldsymbol{x}_1\right) \\
+f\left(\boldsymbol{x}_2\right) \\
+\vdots \\
+f\left(\boldsymbol{x}_m\right)
 \end{array}\right] \\
-&=\boldsymbol{f}_{l}^{\mathrm{T}}\left(\mathbf{D}_{l l}-\mathbf{W}_{l l}\right) \boldsymbol{f}_{l}-2 \boldsymbol{f}_{u}^{\mathrm{T}} \mathbf{W}_{u l} \boldsymbol{f}_{l}+\boldsymbol{f}_{u}^{\mathrm{T}}\left(\mathbf{D}_{u u}-\mathbf{W}_{u u}\right) \boldsymbol{f}_{u}
+& =\boldsymbol{f}^{\mathrm{T}} \boldsymbol{W} \boldsymbol{f}
 \end{aligned}
+
 $$
 
-[解析]:这里第一项西瓜书中的符号有歧义,应该表示成$\left[\begin{array}{ll}
+
+
+所以
+$E(f)=\boldsymbol{f}^{\mathrm{T}} \boldsymbol{D}-\boldsymbol{f}^{\mathrm{T}} \boldsymbol{W} \boldsymbol{f}=\boldsymbol{f}^{\mathrm{T}}(\boldsymbol{D}-\boldsymbol{W}) \boldsymbol{f}$,
+即式(13.12)。
+
+### 13.4.2 式(13.13)的推导
+
+本式就是将式(13.12)用分块矩阵形式表达而已,
+拆分为标记样本和末标记样本两部分。
+
+另外解释一下该式之前一段话中第一句的含义: "具有最小能量的函数 $f$
+在有标记样本 上满足
+$f\left(\boldsymbol{x}_i\right)=y_i(i=1,2, \ldots, l)$,
+在末标记样本上满足 $\boldsymbol{\Delta} \boldsymbol{f}=\mathbf{0}$ ",
+前半句是很容易理 解的, 有标记样本上满足
+$f\left(\boldsymbol{x}_i\right)=y_i(i=1,2, \ldots, l)$, 这时末标记样本的
+$f\left(\boldsymbol{x}_i\right)$ 是待求变 量且应该使 $E(f)$ 最小,
+因此应将式(13.12)对末标记样本的 $f\left(\boldsymbol{x}_i\right)$
+求导并令导数等于 0 即可, 此即表达式 $\Delta f=0$,
+此处可以查看该算法的原始文献。
+
+### 13.4.3 式(13.14)的推导
+
+将式(13.13)根据矩阵运算规则进行变形,
+这里第一项西瓜书中的符号有歧义,应该表示成$\left[\begin{array}{ll}
 \boldsymbol{f}_{l}^{\mathrm{T}} & \boldsymbol{f}_{u}^{\mathrm{T}}
-\end{array}\right]$即一个$\mathbb{R}^{1\times(l+u)}$的行向量,根据矩阵乘法的定义,有:
+\end{array}\right]$即一个$\mathbb{R}^{1\times(l+u)}$的行向量。根据矩阵乘法的定义,有:
+
+
 $$
+
 \begin{aligned}
 E(f) &=\left[\begin{array}{ll}
 \boldsymbol{f}_{l}^{\mathrm{T}} & \boldsymbol{f}_{u}^{\mathrm{T}}
@@ -296,97 +656,98 @@ E(f) &=\left[\begin{array}{ll}
 &=\boldsymbol{f}_{l}^{\mathrm{T}}\left(\boldsymbol{D}_{l l}-\boldsymbol{W}_{l l}\right) \boldsymbol{f}_{l}-\boldsymbol{f}_{u}^{\mathrm{T}} \boldsymbol{W}_{u l} \boldsymbol{f}_{l}-\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{W}_{l u} \boldsymbol{f}_{u}+\boldsymbol{f}_{u}^{\mathrm{T}}\left(\boldsymbol{D}_{u u}-\boldsymbol{W}_{u u}\right) \boldsymbol{f}_{u} \\
 &=\boldsymbol{f}_{l}^{\mathrm{T}}\left(\boldsymbol{D}_{l l}-\boldsymbol{W}_{l l}\right) \boldsymbol{f}_{l}-2 \boldsymbol{f}_{u}^{\mathrm{T}} \boldsymbol{W}_{u l} \boldsymbol{f}_{l}+\boldsymbol{f}_{u}^{\mathrm{T}}\left(\boldsymbol{D}_{u u}-\boldsymbol{W}_{u u}\right) \boldsymbol{f}_{u}
 \end{aligned}
-$$
-其中最后一步,$\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{W}_{l u} \boldsymbol{f}_{u}=\left(\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{W}_{l u} \boldsymbol{f}_{u}\right)^{\mathrm{T}}=f_{u}^{\mathrm{T}} \boldsymbol{W}_{u l} \boldsymbol{f}_{l}$,因为这个式子的结果是一个标量。
-
-## 13.14
 
 $$
-\begin{aligned}
-E(f) &=\left(\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{f}_{u}^{\mathrm{T}}\right)\left(\left[\begin{array}{ll}
-\mathbf{D}_{l l} & \mathbf{0}_{l u} \\
-\mathbf{0}_{u l} & \mathbf{D}_{u u}
-\end{array}\right]-\left[\begin{array}{ll}
-\mathbf{W}_{l l} & \mathbf{W}_{l u} \\
-\mathbf{W}_{u l} & \mathbf{W}_{u u}
-\end{array}\right]\right)\left[\begin{array}{l}
-\boldsymbol{f}_{l} \\
-\boldsymbol{f}_{u}
-\end{array}\right] \\
-&=\boldsymbol{f}_{l}^{\mathrm{T}}\left(\mathbf{D}_{l l}-\mathbf{W}_{l l}\right) \boldsymbol{f}_{l}-2 \boldsymbol{f}_{u}^{\mathrm{T}} \mathbf{W}_{u l} \boldsymbol{f}_{l}+\boldsymbol{f}_{u}^{\mathrm{T}}\left(\mathbf{D}_{u u}-\mathbf{W}_{u u}\right) \boldsymbol{f}_{u}
-\end{aligned}
-$$
 
 
 
-[解析]:参考 13.13
+其中最后一步,$\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{W}_{l u} \boldsymbol{f}_{u}=\left(\boldsymbol{f}_{l}^{\mathrm{T}} \boldsymbol{W}_{l u} \boldsymbol{f}_{u}\right)^{\mathrm{T}}=f_{u}^{\mathrm{T}} \boldsymbol{W}_{u l} \boldsymbol{f}_{l}$,因为这个式子的结果是一个标量。
 
-## 13.15
+### 13.4.4 式(13.15)的推导
 
-$$
-\boldsymbol{f}_{u}=\left(\mathbf{D}_{u u}-\mathbf{W}_{u u}\right)^{-1} \mathbf{W}_{u l} \boldsymbol{f}_{l}
-$$
+首先,基于式(13.14)对$\boldsymbol{f}_u$求导: 
 
-[解析]:由 13.13,有
 $$
+
 \begin{aligned}
 \frac{\partial E(f)}{\partial \boldsymbol{f}_{u}} &=\frac{\partial \boldsymbol{f}_{l}^{\mathrm{T}}\left(\boldsymbol{D}_{l l}-\boldsymbol{W}_{l l}\right) \boldsymbol{f}_{l}-2 \boldsymbol{f}_{u}^{\mathrm{T}} \boldsymbol{W}_{u l} \boldsymbol{f}_{l}+\boldsymbol{f}_{u}^{\mathrm{T}}\left(\boldsymbol{D}_{u u}-\boldsymbol{W}_{u u}\right) \boldsymbol{f}_{u}}{\partial \boldsymbol{f}_{u}} \\
 &=-2 \boldsymbol{W}_{u l} \boldsymbol{f}_{l}+2\left(\boldsymbol{D}_{u u}-\boldsymbol{W}_{u u}\right) \boldsymbol{f}_{u}
 \end{aligned}
+
 $$
-令结果等于 0 即得 13.15。
 
-## 13.16
+ 令结果等于 0 即得 13.15。
 
-$$
-\begin{aligned}
-\mathbf{P} &=\mathbf{D}^{-1} \mathbf{W}=\left[\begin{array}{cc}
-\mathbf{D}_{l l}^{-1} & \mathbf{0}_{l u} \\
-\mathbf{0}_{u l} & \mathbf{D}_{u u}^{-1}
-\end{array}\right]\left[\begin{array}{ll}
-\mathbf{W}_{l l} & \mathbf{W}_{l u} \\
-\mathbf{W}_{u l} & \mathbf{W}_{u u}
-\end{array}\right] \\
-&=\left[\begin{array}{ll}
-\mathbf{D}_{l l}^{-1} \mathbf{W}_{l l} & \mathbf{D}_{l l}^{-1} \mathbf{W}_{l u} \\
-\mathbf{D}_{u u}^{-1} \mathbf{W}_{u l} & \mathbf{D}_{u u}^{-1} \mathbf{W}_{u u}
-\end{array}\right]
-\end{aligned}
-$$
+注意式中各项的含义:
 
-[解析]:根据矩阵乘法的定义计算可得该式,其中需要注意的是,对角矩阵$\mathbf{D}$的拟等于其各个对角元素的倒数。
+$\boldsymbol{f}_u$ 即函数 $f$ 在末标记样本上的预测结果;
 
-## 13.17
+$\boldsymbol{D}_{u u}, \boldsymbol{W}_{u u}, \boldsymbol{W}_{u l}$
+均可以由式(13.11)得到;
 
-$$
-\begin{aligned}
-\boldsymbol{f}_{u} &=\left(\mathbf{D}_{u u}\left(\mathbf{I}-\mathbf{D}_{u u}^{-1} \mathbf{W}_{u u}\right)\right)^{-1} \mathbf{W}_{u l} \boldsymbol{f}_{l} \\
-&=\left(\mathbf{I}-\mathbf{D}_{u u}^{-1} \mathbf{W}_{u u}\right)^{-1} \mathbf{D}_{u u}^{-1} \mathbf{W}_{u l} \boldsymbol{f}_{l} \\
-&=\left(\mathbf{I}-\mathbf{P}_{u u}\right)^{-1} \mathbf{P}_{u l} \boldsymbol{f}_{l}
-\end{aligned}
-$$
+$\boldsymbol{f}_l$ 即函数 $f$ 在有标记样本上的预测结果 (即已知标记,
+详见"西瓜书" P301 倒数第 3 行);
+
+也就是说可以根据式(13.15)根据 $D_l$ 上的标记信息 (即 $\boldsymbol{f}_l$
+) 求得末标记样本的标记 (即 $\boldsymbol{f}_u$ ),
+式(13.17)仅是式(13.15)的进一步变形化简, 不再细述。
+
+仔细回顾该方法, 实际就是根据 "相似的样本应具有相似的标记" 的原则,
+构建了目标 函数式(13.12),
+求解式(13.12)得到了使用标记样本信息表示的末标记样本的预测标记。
+
+### 13.4.5 式(13.16)的解释
+
+根据矩阵乘法的定义计算可得该式,其中需要注意的是,对角矩阵$\mathbf{D}$的拟等于其各个对角元素的倒数。
+
+### 13.4.6 式(13.17)的推导
+
+第一项到第二项是根据矩阵乘法逆的定义:$(\mathbf{A}\mathbf{B})^{-1}=\mathbf{B}^{-1}\mathbf{A}^{-1}$,在这个式子中
 
-[解析]:第一项到第二项是根据矩阵乘法逆的定义:$(\mathbf{A}\mathbf{B})^{-1}=\mathbf{B}^{-1}\mathbf{A}^{-1}$,在这个式子中​
 $$
+
 \begin{aligned}
 \mathbf{P}_{u u}&=\mathbf{D}_{u u}^{-1} \mathbf{W}_{u u}\\
 \mathbf{P}_{ul}&=\mathbf{D}_{u u}^{-1} \mathbf{W}_{u l}
 \end{aligned}
+
 $$
+
 均可以根据$\mathbf{W}_{ij}$计算得到,因此可以通过标记$\mathbf{f}_l$计算未标记数据的标签$\mathbf{f}_u$。
 
-## 13.20
+### 13.4.7 式(13.18)的解释
+
+其中Y的第 $i$ 行表示第 $i$ 个样本的类别; 具体来说, 对于前 $l$
+个有标记样本来说, 若第 $i$ 个样本 的类别为
+$j(1 \leq j \leq|\mathcal{Y}|)$, 则 $\mathbf{Y}$ 的第行第 $j$ 列即为 1 ,
+第行其余元素为 0 ; 对于后 $u$ 个末标 记样本来说, $Y$ 统一为零。注意
+$|\mathcal{Y}|$ 表示集合 $\mathcal{Y}$ 的势, 即包含元素 (类别) 的个数。
+
+### 13.4.8 式(13.20)的解释
+
+
 
 $$
+
 \mathbf{F}^{*}=\lim _{t \rightarrow \infty} \mathbf{F}(t)=(1-\alpha)(\mathbf{I}-\alpha \mathbf{S})^{-1} \mathbf{Y}
+
 $$
 
-[解析]:由 13.19
+
+\[解析\]:由式(13.19)
+
+
 $$
+
 \mathbf{F}(t+1)=\alpha \mathbf{S} \mathbf{F}(t)+(1-\alpha) \mathbf{Y}
+
 $$
-当 t取不同的值时,有:
+
+
+当 t取不同的值时,有: 
+
 $$
+
 \begin{aligned}
 t=0: \mathbf{F}(1) &=\alpha \mathbf{S F}(0)+(1-\alpha) \mathbf{Y}\\
 &=\alpha \mathbf{S} \mathbf{Y}+(1-\alpha) \mathbf{Y} \\
@@ -395,20 +756,399 @@ t=1: \mathbf{F}(2) &=\alpha \mathbf{S F}(1)+(1-\alpha) \mathbf{Y}=\alpha \mathbf
 t=2:\mathbf{F}(3)&=\alpha\mathbf{S}\mathbf{F}(2)+(1-\alpha)\mathbf{Y}\\&=\alpha \mathbf{S}\left((\alpha \mathbf{S})^{2} \mathbf{Y}+(1-\alpha)\left(\sum_{i=0}^{1}(\alpha \mathbf{S})^{i}\right) \mathbf{Y}\right)+(1-\alpha) \mathbf{Y} \\
 &=(\alpha \mathbf{S})^{3} \mathbf{Y}+(1-\alpha)\left(\sum_{i=0}^{2}(\alpha \mathbf{S})^{i}\right) \mathbf{Y}\\
 \end{aligned}
+
 $$
-可以观察到规律
+
+ 可以观察到规律
+
+
 $$
+
 \mathbf{F}(t)=(\alpha \mathbf{S})^{t} \mathbf{Y}+(1-\alpha)\left(\sum_{i=0}^{t-1}(\alpha \mathbf{S})^{i}\right) \mathbf{Y}
+
 $$
+
+
+
+
 $$
+
 \mathbf{F}^{*}=\lim _{t \rightarrow \infty}\mathbf{F}(t)=\lim _{t \rightarrow \infty}(\alpha \mathbf{S})^{t} \mathbf{Y}+\lim _{t \rightarrow \infty}(1-\alpha)\left(\sum_{i=0}^{t-1}(\alpha \mathbf{S})^{i}\right) \mathbf{Y}
+
 $$
-其中第一项由于$\mathbf{S}=\mathbf{D}^{-\frac{1}{2}} \mathbf{W} \mathbf{D}^{-\frac{1}{2}}$的特征值介于[-1, 1]之间(这里省略详细推导,可以参见 https://en.wikipedia.org/wiki/Laplacian_matrix 其中对称拉普拉斯矩阵的特征值介于 0 和 2 之间),而$\alpha\in(0,1)$,所以$\lim _{t \rightarrow \infty}(\alpha \mathbf{S})^{t}=0$,第二项由等比数列公式
+
+
+其中第一项由于$\mathbf{S}=\mathbf{D}^{-\frac{1}{2}} \mathbf{W} \mathbf{D}^{-\frac{1}{2}}$的特征值介于\[-1,
+1\]之间[@lap_mat],而$\alpha\in(0,1)$,所以$\lim _{t \rightarrow \infty}(\alpha \mathbf{S})^{t}=0$,第二项由等比数列公式
+
+
 $$
+
 \lim _{t \rightarrow \infty} \sum_{i=0}^{t-1}(\alpha \mathbf{S})^{i}=\frac{\mathbf{I}-\lim _{t \rightarrow \infty}(\alpha \mathbf{S})^{t}}{\mathbf{I}-\alpha \mathbf{S}}=\frac{\mathbf{I}}{\mathbf{I}-\alpha \mathbf{S}}=(\mathbf{I}-\alpha \mathbf{S})^{-1}
+
+$$
+
+
+综合可得式(13.20)。
+
+### 13.4.9 式(13.21)的推导
+
+这里主要是推导式(13.21)的最优解即为式(13.20)。将式(13.21)的目标函数进行变形。
+
+第 1 部分:
+
+先将范数平方拆开为四项 
+
+$$
+
+\begin{aligned}
+\left\|\frac{1}{\sqrt{d_i}} \mathbf{F}_i-\frac{1}{\sqrt{d_j}} \mathbf{F}_j\right\|^2 & =\left(\frac{1}{\sqrt{d_i}} \mathbf{F}_i-\frac{1}{\sqrt{d_j}} \mathbf{F}_j\right)\left(\frac{1}{\sqrt{d_i}} \mathbf{F}_i-\frac{1}{\sqrt{d_j}} \mathbf{F}_j\right)^{\top} \\
+& =\frac{1}{d_i} \mathbf{F}_i \mathbf{F}_i^{\top}+\frac{1}{d_j} \mathbf{F}_j \mathbf{F}_j^{\top}-\frac{1}{\sqrt{d_i d_j}} \mathbf{F}_i \mathbf{F}_j^{\top}-\frac{1}{\sqrt{d_j d_i}} \mathbf{F}_j \mathbf{F}_i^{\top}
+\end{aligned}
+
+$$
+
+
+
+其中 $\mathbf{F}_i \in \mathbb{R}^{1 \times|\mathcal{Y}|}$ 表示矩阵
+$\mathbf{F}$ 的第 $i$ 行, 即第 $i$ 个示例 $\boldsymbol{x}_i$
+的标记向量。将第 1 项中的 $\sum_{i, j=1}^m$ 写为 两个和求号
+$\sum_{i=1}^m \sum_{i=1}^m$ 的形式, 并将上面拆分的四项中的前两项代入, 得
+
+
+$$
+
+\begin{aligned}
+& \sum_{i, j=1}^m(\mathbf{W})_{i j} \frac{1}{d_i} \mathbf{F}_i \mathbf{F}_i^{\top}=\sum_{i=1}^m \frac{1}{d_i} \mathbf{F}_i \mathbf{F}_i^{\top} \sum_{j=1}^m(\mathbf{W})_{i j}=\sum_{i=1}^m \frac{1}{d_i} \mathbf{F}_i \mathbf{F}_i^{\top} \cdot d_i=\sum_{i=1}^m \mathbf{F}_i \mathbf{F}_i^{\top} \\
+& \sum_{i, j=1}^m(\mathbf{W})_{i j} \frac{1}{d_j} \mathbf{F}_j \mathbf{F}_j^{\top}=\sum_{j=1}^m \frac{1}{d_j} \mathbf{F}_j \mathbf{F}_j^{\top} \sum_{i=1}^m(\mathbf{W})_{i j}=\sum_{j=1}^m \frac{1}{d_j} \mathbf{F}_j \mathbf{F}_j^{\top} \cdot d_j=\sum_{j=1}^m \mathbf{F}_j \mathbf{F}_j^{\top} \\
+&
+\end{aligned}
+
 $$
-综合可得式 13.20。
 
 
 
+以上化简过程中, 两个求和号可以交换求和次序; 又因为 $\mathrm{W}$
+为对称阵, 因此对行求和与对 列求和效果一样, 即
+$d_i=\sum_{j=1}^m(\mathbf{W})_{i j}=\sum_{j=1}^m(\mathbf{W})_{j i}$
+(已在式(13.12)推导时说明)。显然,
+
+
+$$
+
+\sum_{i=1}^m \mathbf{F}_i \mathbf{F}_i^{\top}=\sum_{j=1}^m \mathbf{F}_j \mathbf{F}_j^{\top}=\sum_{i=1}^m\left\|\mathbf{F}_i\right\|^2=\|\mathbf{F}\|_{\mathrm{F}}^2=\operatorname{tr}\left(\mathbf{F} \mathbf{F}^{\top}\right)
+
+$$
+
+
+
+以上推导过程中, 第 1 个等号显然成立, 因为二者仅是求和变量名称不同; 第 2
+个等号即将 $\mathbf{F}_i \mathbf{F}_i^{\top}$ 写为
+$\left\|\mathbf{F}_i\right\|^2$ 形式; 从第 2
+个等号的结果可以看出这明显是在求矩阵 $\mathbf{F}$ 各元素平方之和,
+也就是矩阵 $F$ 的 Frobenius 范数(简称 $\mathrm{F}$ 范数)的平方, 即第 3
+个等号; 根据矩阵 $\mathrm{F}$ 范数与 矩阵的迹的关系有第 4 个等号
+(详见本章预备知识: 矩阵的 $F$ 范数与迹)。 接下来,
+将上面拆分的四项中的第三项代入,得
+
+
+$$
+
+\sum_{i, j=1}^m(\mathbf{W})_{i j} \frac{1}{\sqrt{d_i d_j}} \mathbf{F}_i \mathbf{F}_j^{\top}=\sum_{i, j=1}^m(\mathbf{S})_{i j} \mathbf{F}_i \mathbf{F}_j^{\top}=\operatorname{tr}\left(\mathbf{S}^{\top} \mathbf{F} \mathbf{F}^{\top}\right)=\operatorname{tr}\left(\mathbf{S F} \mathbf{F}^{\top}\right)
+
+$$
+
+
+
+具体来说, 以上化简过程为: 
+
+$$
+
+\begin{aligned}
+& \mathbf{S}=\left[\begin{array}{cccc}
+(\mathbf{S})_{11} & (\mathbf{S})_{12} & \cdots & (\mathbf{S})_{1 m} \\
+(\mathbf{S})_{21} & (\mathbf{S})_{22} & \cdots & (\mathbf{S})_{2 m} \\
+\vdots & \vdots & \ddots & \vdots \\
+(\mathbf{S})_{m 1} & (\mathbf{S})_{m 2} & \cdots & (\mathbf{S})_{m m}
+\end{array}\right] \\
+& =\mathrm{D}^{-\frac{1}{2}} \mathbf{W D}^{-\frac{1}{2}} \\
+& =\left[\begin{array}{ccccc}
+\frac{1}{\sqrt{d_1}} & & & \\
+& \frac{1}{\sqrt{d_2}} & & \\
+& & \ddots & \\
+& & & \frac{1}{\sqrt{d_m}}
+\end{array}\right]\left[\begin{array}{cccc}
+(\mathbf{W})_{11} & (\mathbf{W})_{12} & \cdots & (\mathbf{W})_{1 m} \\
+(\mathbf{W})_{21} & (\mathbf{W})_{22} & \cdots & (\mathbf{W})_{2 m} \\
+\vdots & \vdots & \ddots & \vdots \\
+(\mathbf{W})_{m 1} & (\mathbf{W})_{m 2} & \cdots & (\mathbf{W})_{m m}
+\end{array}\right]\left[\begin{array}{cccc}
+\frac{1}{\sqrt{d_1}} & & & \\
+& \frac{1}{\sqrt{d_2}} & & \\
+& & \ddots & \\
+& & & \frac{1}{\sqrt{d_m}}
+\end{array}\right] \\
+&
+\end{aligned}
+
+$$
+
+
+
+由以上推导可以看出
+$(\mathbf{S})_{i j}=\frac{1}{\sqrt{d_i d_j}}(\mathbf{W})_{i j}$, 即第 1
+个等号; 而 
+
+$$
+
+\mathbf{F F}^{\top}=\left[\begin{array}{c}
+\mathbf{F}_1 \\
+\mathbf{F}_2 \\
+\vdots \\
+\mathbf{F}_m
+\end{array}\right]\left[\begin{array}{llll}
+\mathbf{F}_1^{\top} & \mathbf{F}_2^{\top} & \cdots & \mathbf{F}_m^{\top}
+\end{array}\right]=\left[\begin{array}{cccc}
+\mathbf{F}_1 \mathbf{F}_1^{\top} & \mathbf{F}_1 \mathbf{F}_2^{\top} & \ldots & \mathbf{F}_1 \mathbf{F}_m^{\top} \\
+\mathbf{F}_2 \mathbf{F}_1^{\top} & \mathbf{F}_2 \mathbf{F}_2^{\top} & \cdots & \mathbf{F}_2 \mathbf{F}_m^{\top} \\
+\vdots & \vdots & \ddots & \vdots \\
+\mathbf{F}_m \mathbf{F}_1^{\top} & \mathbf{F}_m \mathbf{F}_2^{\top} & \cdots & \mathbf{F}_m \mathbf{F}_m^{\top}
+\end{array}\right]
+
+$$
+
+
+
+若令 $\mathbf{A}=\mathbf{S} \circ \mathbf{F F}^{\top}$, 其中○表示
+Hadmard 积, 即矩阵 $\mathbf{S}$ 与矩阵 $\mathbf{F} \mathbf{F}^{\top}$
+元素对应相乘(参见百 度百科哈达玛积), 因此
+
+
+$$
+
+\sum_{i, j=1}^m(\mathbf{S})_{i j} \mathbf{F}_i \mathbf{F}_j^{\top}=\sum_{i, j=1}^m(\mathbf{A})_{i j}
+
+$$
+
+
+
+可以验证, 上式的矩阵
+$\mathbf{A}=\mathbf{S} \circ \mathbf{F} \mathbf{F}^{\top}$ 元素之和
+$\sum_{i, j=1}^m(\mathbf{A})_{i j}$ 等于
+$\operatorname{tr}\left(\mathbf{S}^{\top} \mathbf{F F}^{\top}\right)$,
+这是因为 
+
+$$
+
+\begin{aligned}
+& \operatorname{tr}\left(\left[\begin{array}{cccc}
+(\mathbf{S})_{11} & (\mathbf{S})_{12} & \cdots & (\mathbf{S})_{1 m} \\
+(\mathbf{S})_{21} & (\mathbf{S})_{22} & \cdots & (\mathbf{S})_{2 m} \\
+\vdots & \vdots & \ddots & \vdots \\
+(\mathbf{S})_{m 1} & (\mathbf{S})_{m 2} & \cdots & (\mathbf{S})_{m m}
+\end{array}\right]^{\top} \cdot\left[\begin{array}{cccc}
+\mathbf{F}_1 \mathbf{F}_1^{\top} & \mathbf{F}_1 \mathbf{F}_2^{\top} & \cdots & \mathbf{F}_1 \mathbf{F}_m^{\top} \\
+\mathbf{F}_2 \mathbf{F}_1^{\top} & \mathbf{F}_2 \mathbf{F}_2^{\top} & \cdots & \mathbf{F}_2 \mathbf{F}_m^{\top} \\
+\vdots & \vdots & \ddots & \vdots \\
+\mathbf{F}_m \mathbf{F}_1^{\top} & \mathbf{F}_m \mathbf{F}_2^{\top} & \cdots & \mathbf{F}_m \mathbf{F}_m^{\top}
+\end{array}\right]\right) \\
+&=\left[\begin{array}{c}
+(\mathbf{S})_{11} \\
+(\mathbf{S})_{21} \\
+\vdots \\
+(\mathbf{S})_{m 1}
+\end{array}\right]^{\top} \cdot\left[\begin{array}{c}
+\mathbf{F}_1 \mathbf{F}_1^{\top} \\
+\mathbf{F}_2 \mathbf{F}_1^{\top} \\
+\vdots \\
+\mathbf{F}_m \mathbf{F}_1^{\top}
+\end{array}\right]+\left[\begin{array}{c}
+(\mathbf{S})_{12} \\
+(\mathbf{S})_{22} \\
+\vdots \\
+(\mathbf{S})_{m 2}
+\end{array}\right]^{\top} \cdot\left[\begin{array}{c}
+\mathbf{F}_1 \mathbf{F}_2^{\top} \\
+\mathbf{F}_2 \mathbf{F}_2^{\top} \\
+\vdots \\
+\mathbf{F}_m \mathbf{F}_2^{\top}
+\end{array}\right]+\ldots+\left[\begin{array}{c}
+(\mathbf{S})_{1 m} \\
+(\mathbf{S})_{2 m} \\
+\vdots \\
+(\mathbf{S})_{m m}
+\end{array}\right]^{\top}\left[\begin{array}{c}
+\mathbf{F}_1 \mathbf{F}_m^{\top} \\
+\mathbf{F}_2 \mathbf{F}_m^{\top} \\
+\vdots \\
+\mathbf{F}_m \mathbf{F}_m^{\top}
+\end{array}\right] \\
+&=\sum_{i=1}^m(\mathbf{S})_{i 1} \mathbf{F}_i \mathbf{F}_1^{\top}+\sum_{i=1}^m(\mathbf{S})_{i 2} \mathbf{F}_i \mathbf{F}_2^{\top}+\ldots+\sum_{i=1}(\mathbf{S})_{i m} \mathbf{F}_i \mathbf{F}_m^{\top} \\
+&= \sum_{i, j=1}^m(\mathbf{S})_{i j} \mathbf{F}_i \mathbf{F}_j^{\top}
+\end{aligned}
+
+$$
+
+
+
+即第 2 个等号; 易知矩阵 $\mathbf{S}$ 是对称阵
+$\left(\mathbf{S}^{\top}=\mathbf{S}\right)$, 即得第 3 个等号。又由于内积
+$\mathbf{F}_i \mathbf{F}_j^{\top}$ 是一个 数 (即大小为 $1 \times 1$
+的矩阵), 因此其转置等于本身,
+
+
+$$
+
+\mathbf{F}_i \mathbf{F}_j^{\top}=\left(\mathbf{F}_i \mathbf{F}_j^{\top}\right)^{\top}=\left(\mathbf{F}_j^{\top}\right)^{\top}\left(\mathbf{F}_i\right)^{\top}=\mathbf{F}_j \mathbf{F}_i^{\top}
+
+$$
+
+
+
+因此
+
+
+$$
+
+\frac{1}{\sqrt{d_i d_j}} \mathbf{F}_i \mathbf{F}_j^{\top}=\frac{1}{\sqrt{d_j d_i}} \mathbf{F}_j \mathbf{F}_i^{\top}
+
+$$
+
+
+
+进而上面拆分的四项中的第三项和第四项相等:
+
+
+$$
+
+\sum_{i, j=1}^m(\mathbf{W})_{i j} \frac{1}{\sqrt{d_i d_j}} \mathbf{F}_i \mathbf{F}_j^{\top}=\sum_{i, j=1}^m(\mathbf{W})_{i j} \frac{1}{\sqrt{d_j d_i}} \mathbf{F}_j \mathbf{F}_i^{\top}
+
+$$
+
+
+
+综上所述 (以上拆分的四项中前两项相等、后两项相等, 正好抵消系数
+$\frac{1}{2}$ ):
+
+
+$$
+
+\frac{1}{2}\left(\sum_{i, j=1}^m(\mathbf{W})_{i j}\left\|\frac{1}{\sqrt{d_i}} \mathbf{F}_i-\frac{1}{\sqrt{d_j}} \mathbf{F}_j\right\|^2\right)=\operatorname{tr}\left(\mathbf{F F}^{\top}\right)-\operatorname{tr}\left(\mathbf{S F F}^{\top}\right)
+
+$$
+
+
+
+第 2 部分:
+
+西瓜书中式(13.21)的第 2 部分与原文献[@zhou2003learning]中式(4)的第 2
+部分不同:
+
+
+$$
+
+\mathcal{Q}(F)=\frac{1}{2} \sum_{i, j=1}^n W_{i j}\left\|\frac{F_i}{\sqrt{D_{i i}}}-\frac{F_j}{\sqrt{D_{j j}}}\right\|^2+\mu \sum_{i=1}^n\left\|F_i-Y_i\right\|^2,
+
+$$
+
+
+
+原文献中第 2 部分包含了所有样本 (求和变量上限为 $n$ ),
+而西瓜书只包含有标记样本, 并 且第 304
+页第二段提到"式(13.21)右边第二项是迫使学得结果在有标记样本上的预测与真实标记尽可能相同";
+若按原文献式(4)在第二项中将末标记样本也包含进来, 由于对于末标记 样本
+$\mathbf{Y}_i=\mathbf{0}$,
+因此直观上理解是迫使末标记样本学习结果尽可能接近 0 , 这显然是不对的;
+有关这一点作者在第 24 次印刷勘误中进行了补充:
+"考虑到有标记样本通常很少而末标记样 本很多, 为缓解过拟合,
+可在式(13.21)中引入针对末标记样本的 $\mathrm{L}_2$ 范数项
+$\mu \sum_{i=l+1}^{l+u}\left\|\mathbf{F}_i\right\|^2$, 式(13.21)
+加上此项之后就与原文献的式(4)完全相同了。将第二项写为 $\mathrm{F}$
+范数形式:
+
+
+$$
+
+\sum_{i=1}^m\left\|\mathbf{F}_i-\mathbf{Y}_i\right\|^2=\|\mathbf{F}-\mathbf{Y}\|_{\mathrm{F}}^2
+
+$$
+
+
+
+综上, 式(13.21)目标函数
+$\mathcal{Q}(\mathbf{F})=\operatorname{tr}\left(\mathbf{F} \mathbf{F}^{\top}\right)-\operatorname{tr}\left(\mathbf{S F F ^ { \top }}\right)+\mu\|\mathbf{F}-\mathbf{Y}\|_{\mathrm{F}}^2$,
+求导: 
+
+$$
+
+\begin{aligned}
+\frac{\partial \mathcal{Q}(\mathbf{F})}{\partial \mathbf{F}} & =\frac{\partial \operatorname{tr}\left(\mathbf{F} \mathbf{F}^{\top}\right)}{\partial \mathbf{F}}-\frac{\partial \operatorname{tr}\left(\mathbf{S} \mathbf{F} \mathbf{F}^{\top}\right)}{\partial \mathbf{F}}+\mu \frac{\partial\|\mathbf{F}-\mathbf{Y}\|_{\mathrm{F}}^2}{\partial \mathbf{F}} \\
+& =2 \mathbf{F}-2 \mathbf{S} \mathbf{F}+2 \mu(\mathbf{F}-\mathbf{Y})
+\end{aligned}
+
+$$
+
+ 令 $\mu=\frac{1-\alpha}{\alpha}$, 并令
+$\frac{\partial \mathcal{Q}(\mathbf{F})}{\partial \mathbf{F}}=2 \mathbf{F}-2 \mathbf{S F}+2 \frac{1-\alpha}{\alpha}(\mathbf{F}-\mathbf{Y})=0$,
+移项化简即可得式(13.20), 即式(13.20)是正则化框架式(13.21)的解。
+
+## 13.5 基于分歧的方法
+
+"西瓜书"的伟大之处在于巧妙地融入了很多机器学习的研究分支,
+而非仅简单介绍经典的 机器学习算法。比如本节处于半监督学习章节范围内,
+巧妙地将机器学习的研究热点之一多视图学习[@xu2013survey](multi-view
+learning) 融入进来, 类似地还有本章 第一节将主动学习融入进来, 在第 10
+章第一节将 $k$ 近邻算法融入进来, 在最后一节巧妙地 将度量学习(metric
+learning)融入进来等等。
+
+协同训练是多视图学习代表性算法之一, 本章叙述简单易懂。
+
+### 13.5.1 图13.6的解释
+
+第 2 行表示从样本集 $D_u$ 中去除缓冲池样本 $D_s$;
+
+第 4 行, 当 $j=1$ 时
+$\left\langle\boldsymbol{x}_i^j, \boldsymbol{x}_i^{3-j}\right\rangle$
+即为 $\left\langle\boldsymbol{x}_i^1, \boldsymbol{x}_i^2\right\rangle$,
+当 $j=2$ 时
+$\left\langle\boldsymbol{x}_i^j, \boldsymbol{x}_i^{3-j}\right\rangle$
+即为 $\left\langle\boldsymbol{x}_i^2, \boldsymbol{x}_i^1\right\rangle$,
+往后 的 $3-j$ 与此相同; 注意本页左上角的注释:
+$\left\langle\boldsymbol{x}_i^1, \boldsymbol{x}_i^2\right\rangle$ 与
+$\left\langle\boldsymbol{x}_i^2, \boldsymbol{x}_i^1\right\rangle$
+表示的是同一个样本, 因此 第 1 个视图的有标记标训练集为
+$D_l^1=\left\{\left(\boldsymbol{x}_1^1, y_1\right), \ldots,\left(\boldsymbol{x}_l^1, y_l\right)\right\}$,
+第 2 个视图的有标记标训 练集为
+$D_l^2=\left\{\left(\boldsymbol{x}_1^2, y_1\right), \ldots,\left(\boldsymbol{x}_l^2, y_l\right)\right\}$;
+
+第 9 行 第 11 行是根据第 $j$
+个视图对缓冲池中无标记样本的分类置信度赋予伪标记, 准备交给第 $3-j$
+个视图使用。
+
+## 13.6 半监督聚类
+
+### 13.6.1 图13.7的解释
+
+注意算法第 4 行到第 21 行是依次对每个样本进行处理, 其中第 8 行到第 21
+行是尝试将 样本 $\boldsymbol{x}_i$ 到底应该划入哪个族, 具体来说是按样本
+$\boldsymbol{x}_i$ 到各均值向量的距离从小到大依次尝试, 若最小的不违背
+$\mathcal{M}$ 和 $\mathcal{C}$ 中的约束, 则将样本 $\boldsymbol{x}_i$
+划入该簇并置 is_merge=true, 此时第 8 行 的while循环条件为假不再继续循环,
+若从小到大依次尝试各簇后均违背 $\mathcal{M}$ 和 $\mathcal{C}$ 中的约束则
+第 16 行的if条件为真, 算法报错结束; 依次对每个样本进行处理后第 22 行到第
+24 行更新均值向量, 重新开始新一轮迭代, 直到均值向量均末更新。
+
+### 13.6.2 图13.9的解释
+
+算法第6行到第10行即在聚类簇迭代更新过程中不改变种子样本的簇隶属关系;第11行到第15行即对非种子样本进行普通的k-means聚类过程;第16行到第18行更新均值向量,反复迭代,直到均值向量均未更新。
+
+## 参考文献
+
+[1] Wikipedia contributors. Laplacian matrix, 2020.
+
+[2] Dengyong Zhou, Olivier Bousquet, Thomas Lal, Jason Weston, and Bernhard Schölkopf. Learning
+with local and global consistency. Advances in neural information processing systems, 16, 2003.
+
+[3] Chang Xu, Dacheng Tao, and Chao Xu. A survey on multi-view learning. arXiv preprint
+arXiv:1304.5634, 2013.

+ 790 - 209
docs/chapter14/chapter14.md

@@ -1,448 +1,1029 @@
-## 14.1
+# 第14章 概率图模型
 
-$$
-\begin{aligned}
-P\left(x_{1}, y_{1}, \ldots, x_{n}, y_{n}\right)=P\left(y_{1}\right) P\left(x_{1} | y_{1}\right) \prod_{i=2}^{n} P\left(y_{i} | y_{i-1}\right) P\left(x_{i} | y_{i}\right)
-\end{aligned}
-$$
+本章介绍概率图模型,前三节分别介绍了有向图模型之隐马尔可夫模型以及无向图模型之马尔可夫随机场和条件随机场;接下来两节分别介绍精确推断和近似推断;最后一节简单介绍了话题模型的典型代表隐狄利克雷分配模型(LDA)。
 
-[解析]:所有的相乘关系都表示概率的相互独立。三种概率$P\left(y_{i}\right), P\left(x_{i} | y_{i}\right), P\left(y_{i} | y_{i-1}\right)$ 分别表示初始状态概率,输出观测概率和条件转移概率。
+## 14.1 隐马尔可夫模型
 
-## 14.2
+本节前三段内容实际上是本章的概述,从第四段才开始介绍"隐马尔可夫模型"。马尔可夫的大名相信很多人听说过,比如马尔可夫链;虽然隐马尔可夫模型与马尔可夫链并非同一人提出,但其中关键字"马尔可夫"蕴含的概念是相同的,即系统下一时刻的状态仅由当前状态决定。
 
-$$
-P(\mathbf{x})=\frac{1}{Z} \prod_{Q \in C} \psi_{Q}\left(\mathbf{x}_{Q}\right)
-$$
+### 14.1.1 生成式模型和判别式模型
 
-[解析]:因为各个团之间概率分布相互独立,因此它们连乘可以表示最终的概率。
+一般来说, 机器学习的任务是根据输入特征 $\boldsymbol{x}$ 预测输出变量
+$y$; 生成式模型最终求得联 合概率 $P(\boldsymbol{x}, y)$,
+而判别式模型最终求得条件概率 $P(y \mid \boldsymbol{x})$ 。
 
-## 14.3
+统计机器学习算法都是基于样本独立同分布(independent and identically
+distributed, 简 称 $i . i . d$. .)的假设, 也就是说,
+假设样本空间中全体样本服从一个末知的 "分布" $\mathcal{D}$, 我们获
+得的每个样本都是独立地从这个分布上采样获得的。
 
-$$
-P(\mathbf{x})=\frac{1}{Z^*} \prod_{Q \in C*} \psi_{Q}\left(\mathbf{x}_{Q}\right)
-$$
+对于一个样本 $(\boldsymbol{x}, y)$, 联合概率 $P(\boldsymbol{x}, y)$
+表示从样本空间中采样得到该样本的概率; 因 为 $P(\boldsymbol{x}, y)$ 表示
+"生成" 样本本身的概率, 故称之为 "生成式模型"。而条件概率
+$P(y \mid \boldsymbol{x})$ 则 表示已知 $\boldsymbol{x}$ 的条件下输出为
+$y$ 的概率, 即根据 $\boldsymbol{x}$ "判别" $y$, 因此称为 "判别式模型"。
+
+常见的对率回归、支持向量机等都属于判别式模型,
+而朴素贝叶斯则属于生成式模型。
 
-[解析]:意义同式$14.2$, 区别在于此处的团为极大团。
+### 14.1.2 式(14.1)的推导
+
+由概率公式 $P(A B)=P(A \mid B) \cdot P(B)$ 可得:
 
-## 14.4
 
 $$
-P\left(x_{A}, x_{B}, x_{C}\right)=\frac{1}{Z} \psi_{A C}\left(x_{A}, x_{C}\right) \psi_{B C}\left(x_{B}, x_{C}\right)
+
+P\left(x_1, y_1, \ldots, x_n, y_n\right)=P\left(x_1, \ldots, x_n \mid y_1, \ldots, y_n\right) \cdot P\left(y_1, \ldots, y_n\right)
+
 $$
 
-[解析]:将图$14.3$分解成$x_{A}, x_{C}$ 和 $x_{B}, x_{C}$ 两个团。
 
-## 14.5
+
+其中, 进一步可将 $P\left(y_1, \ldots, y_n\right)$ 做如下变换:
+
 
 $$
-P\left(x_{A}, x_{B} | x_{C}\right) =\frac{\psi_{A C}\left(x_{A}, x_{C}\right)}{\sum_{x_{A}^{\prime}} \psi_{A C}\left(x_{A}^{\prime}, x_{C}\right)} \cdot \frac{\psi_{B C}\left(x_{B}, x_{C}\right)}{\sum_{x_{B}^{\prime}} \psi_{B C}\left(x_{B}^{\prime}, x_{C}\right)}
+
+\begin{aligned}
+P\left(y_1, \ldots, y_n\right) & =P\left(y_n \mid y_1, \ldots, y_{n-1}\right) \cdot P\left(y_1, \ldots, y_{n-1}\right) \\
+& =P\left(y_n \mid y_1, \ldots, y_{n-1}\right) \cdot P\left(y_{n-1} \mid y_1, \ldots, y_{n-2}\right) \cdot P\left(y_1, \ldots, y_{n-2}\right) \\
+& =\ldots \ldots \\
+& =P\left(y_n \mid y_1, \ldots, y_{n-1}\right) \cdot P\left(y_{n-1} \mid y_1, \ldots, y_{n-2}\right) \cdot \ldots \cdot P\left(y_2 \mid y_1\right) \cdot P\left(y_1\right)
+\end{aligned}
+
 $$
 
-[推导]:参见原书推导。
 
-## 14.6
+
+由于状态 $y_1, \ldots, y_n$ 构成马尔可夫链, 即 $y_t$ 仅由 $y_{t-1}$
+决定; 基于这种依赖关系, 有 
 
 $$
-P\left(x_{A} | x_{C}\right) =\frac{\psi_{A C}\left(x_{A,} x_{C}\right)}{\sum_{x_{A}} \psi_{A C}\left(x_{A}^{\prime}, x_{C}\right)}
+
+\begin{aligned}
+P\left(y_n \mid y_1, \ldots, y_{n-1}\right) & =P\left(y_n \mid y_{n-1}\right) \\
+P\left(y_{n-1} \mid y_1, \ldots, y_{n-2}\right) & =P\left(y_{n-1} \mid y_{n-2}\right) \\
+P\left(y_{n-2} \mid y_1, \ldots, y_{n-3}\right) & =P\left(y_{n-2} \mid y_{n-3}\right)
+\end{aligned}
+
 $$
 
-[推导]:参见原书推导。
 
-## 14.7
+
+因此 $P\left(y_1, \ldots, y_n\right)$ 可化简为 
 
 $$
-P\left(x_{A}, x_{B} | x_{C}\right)=P\left(x_{A} | x_{C}\right) P\left(x_{B} | x_{C}\right)
+
+\begin{aligned}
+P\left(y_1, \ldots, y_n\right) & =P\left(y_n \mid y_{n-1}\right) \cdot P\left(y_{n-1} \mid y_{n-2}\right) \cdot \ldots \cdot P\left(y_2 \mid y_1\right) \cdot P\left(y_1\right) \\
+& =P\left(y_1\right) \prod_{i=2}^n P\left(y_i \mid y_{i-1}\right)
+\end{aligned}
+
 $$
 
-[解析]:可由14.5、14.6联立可得。
 
-## 14.8
+
+而根据"西瓜书"图14.1表示的变量间的依赖关系: 在任一时刻,
+观测变量的取值仅依赖于状态 变量, 即 $x_t$ 由 $y_t$ 确定,
+与其它状态变量及观测变量的取值无关。因此 
 
 $$
-\psi_{Q}\left(\mathbf{x}_{Q}\right)=e^{-H_{Q}\left(\mathbf{x}_{Q}\right)}
+
+\begin{aligned}
+P\left(x_1, \ldots, x_n \mid y_1, \ldots, y_n\right) & =P\left(x_1 \mid y_1, \ldots, y_n\right) \cdot \ldots \cdot P\left(x_n \mid y_1, \ldots, y_n\right) \\
+& =P\left(x_1 \mid y_1\right) \cdot \ldots \cdot P\left(x_n \mid y_n\right) \\
+& =\prod_{i=1}^n P\left(x_i \mid y_i\right)
+\end{aligned}
+
 $$
 
-[解析]:此为势函数的定义式,即将势函数写作指数函数的形式。指数函数满足非负性,且便于求导,因此在机器学习中具有广泛应用,例如西瓜书公式8.5和13.11。
 
-## 14.9
+
+综上所述, 可得 
 
 $$
-H_{Q}\left(\mathbf{x}_{Q}\right)=\sum_{u, v \in Q, u \neq v} \alpha_{u v} x_{u} x_{v}+\sum_{v \in Q} \beta_{v} x_{v}
+
+\begin{aligned}
+P\left(x_1, y_1, \ldots, x_n, y_n\right) & =P\left(x_1, \ldots, x_n \mid y_1, \ldots, y_n\right) \cdot P\left(y_1, \ldots, y_n\right) \\
+& =\left(\prod_{i=1}^n P\left(x_i \mid y_i\right)\right) \cdot\left(P\left(y_1\right) \prod_{i=2}^n P\left(y_i \mid y_{i-1}\right)\right) \\
+& =P\left(y_1\right) P\left(x_1 \mid y_1\right) \prod_{i=2}^n P\left(y_i \mid y_{i-1}\right) P\left(x_i \mid y_i\right)
+\end{aligned}
+
 $$
 
-[解析]:此为定义在变量$\mathbf{x}_{Q}$上的函数$H_{Q}\left(\cdot\right)$的定义式,第二项考虑单节点,第一项考虑每一对节点之间的关系。
 
-## 14.10
+
+### 14.1.3 隐马尔可夫模型的三组参数
+
+状态转移概率和输出观测概率都容易理解, 简单解释一下初始状态概率。
+特别注意, 初始状态概率中
+$\pi_i=P\left(y_1 \mid s_i\right), 1 \leqslant i \leqslant N$, 这里只有
+$y_1$, 因为 $y_2$ 及以 后的其它状态是由状态转移概率和 $y_1$ 确定的,
+具体参见课本第 321 页 "给定隐马尔可夫模型 $\lambda$,
+它按如下过程产生观测序列 $\left\{x_1, x_2, \ldots, x_n\right\} ”$
+的四个步骤。
+
+## 14.2 马尔可夫随机场
+
+本节介绍无向图模型的著名代表之一:马尔可夫随机场。本节的部分概念(例如势函数、极大团等)比较抽象,我亦无好办法,只能建议多读几遍,从心里接受这些概念就好。另外,从因果关系角度来讲,首先是因为满足全局、局部或成对马尔可夫性的无向图模型称为马尔可夫随机场,所以马尔可夫随机场才具有全局、局部或成对马尔可夫性。
+
+### 14.2.1 式(14.2)和式(14.3)的解释
+
+注意式(14.2)之前的介绍是 "则联合概率 $P(\mathbf{x})$ 定义为",
+而在式(14.3)之前也有类似的描 述。因此,
+可以将式(14.2)和式(14.3)理解为一种定义,
+记住并接受这个定义就好了。实际上, 该定义是根据 Hammersley-Clifford
+定理而得, 可以具体了解一下该定理, 这里不再赘述。
+
+值得一提的是, 在接下来讨论 "条件独立性" 时, 即式(14.4)
+式(14.7)的推导过程直接 使用了该定义。注意:在有了式(14.3)的定义后,
+式(14.2)已作废, 不再使用。
+
+### 14.2.2 式(14.4)到式(14.7)的推导
+
+首先, 式(14.4)直接使用了式(14.3)有关联合概率的定义。
+
+对于式(14.5), 第一行两个等号变形就是概率论中的知识;
+第二行的变形直接使用了式 (14.3)有关联合概率的定义; 第三行中, 由于
+$\psi_{A C}\left(x_A^{\prime}, x_C\right)$ 与变量 $x_B^{\prime}$ 无关,
+因此可以拿到求 和号 $\sum_{x_B^{\prime}}$ 外面, 即
+
 
 $$
-P\left(y_{v} | \mathbf{x}, \mathbf{y}_{V \backslash\{v\}}\right)=P\left(y_{v} | \mathbf{x}, \mathbf{y}_{n(v)}\right)
+
+\sum_{x_A^{\prime}} \sum_{x_B^{\prime}} \psi_{A C}\left(x_A^{\prime}, x_C\right) \psi_{B C}\left(x_B^{\prime}, x_C\right)=\sum_{x_A^{\prime}} \psi_{A C}\left(x_A^{\prime}, x_C\right) \sum_{x_B^{\prime}} \psi_{B C}\left(x_B^{\prime}, x_C\right)
+
 $$
 
-[解析]:根据局部马尔科夫性,给定某变量的邻接变量,则该变量独立与其他变量,即该变量只与其邻接变量有关,所以式$14.10$中给定变量$v$ 以外的所有变量与仅给定变量$v$的邻接变量是等价的。
 
-## 14.14
+
+举个例子, 假设
+$\mathbf{x}=\left\{x_1, x_2, x_3\right\}, \mathbf{y}=\left\{y_1, y_2, y_3\right\}$,
+则 
 
 $$
+
 \begin{aligned}
-P\left(x_{5}\right) &=\sum_{x_{4}} \sum_{x_{3}} \sum_{x_{2}} \sum_{x_{1}} P\left(x_{1}, x_{2}, x_{3}, x_{4}, x_{5}\right) \\
-&=\sum_{x_{4}} \sum_{x_{3}} \sum_{x_{2}} \sum_{x_{1}} P\left(x_{1}\right) P\left(x_{2} | x_{1}\right) P\left(x_{3} | x_{2}\right) P\left(x_{4} | x_{3}\right) P\left(x_{5} | x_{3}\right)
+\sum_{i=1}^3 \sum_{j=1}^3 x_i y_j & =x_1 y_1+x_1 y_2+x_1 y_3+x_2 y_1+x_2 y_2+x_2 y_3+x_3 y_1+x_3 y_2+x_3 y_3 \\
+& =x_1 \times\left(y_1+y_2+y_3\right)+x_2 \times\left(y_1+y_2+y_3\right)+x_3 \times\left(y_1+y_2+y_3\right) \\
+& =\left(x_1+x_2+x_3\right) \times\left(y_1+y_2+y_3\right)=\left(\sum_{i=1}^3 x_i\right)\left(\sum_{j=1}^3 y_j\right)
 \end{aligned}
+
 $$
 
-[解析]:在消去变量的过程中,在消去每一个变量时需要保证其依赖的变量已经消去,因此消去顺序应该是有向概率图中的一条以目标节点为终点的拓扑序列。
 
-## 14.15
+
+同理可得式(14.6)。类似于式(14.6), 还可以得到
+$P\left(x_B \mid x_C\right)=\frac{\psi_{B C}\left(x_B, x_C\right)}{\sum_{x_B^{\prime}} \psi_{B C}\left(x_B^{\prime}, x_C\right)}$
+
+最后, 综合可得式(14.7)成立, 即马尔可夫随机场 "条件独立性" 得证。
+
+### 14.2.3 马尔可夫毯(Markov blanket)
+
+本节共提到三个性质, 分别是全局马尔可夫性、局部马尔可夫性和成对马
+尔可夫性, 三者本质上是一样的, 只是适用场景略有差异。
+
+在"西瓜书"第 325 页左上角边注提到 "马尔可夫㲜" 的概念,
+专门提一下这个概念主要是其名字
+与马尔可夫链、隐马尔可夫模型、马尔可夫随机场等很像; 但实际上,
+马尔可夫㲜是一个局 部的概念,
+而马尔可夫链、隐马尔可夫模型、马尔可夫随机场则是整体模型级别的概念。
+
+对于某变量, 当它的马尔可夫㲜 (即其所有邻接变量,
+包含父变量、子变量、子变量的 其他父变量等组成的集合)确定时,
+则该变量条件独立于其它变量, 即局部马尔可夫性。
+
+### 14.2.4 势函数(potential function)
+
+势函数贯穿本节,但却一直以抽象函数符号形式出现,直到本节最后才简单介绍势函数的具体形式,个人感觉这为理解本节内容增加不少难度。
+具体来说,若已知势函数,例如以"西瓜书"图14.4为例的 和
+取值,则可以根据式(14.3)基于最大团势函数定义的联合概率公式解得各种可能变量值指派的联合概率,进而完成一些预测工作;若势函数未知,在假定势函数的形式之后,应该就需要根据数据去学习势函数的参数。
+
+### 14.2.5 式(14.8)的解释
+
+此为势函数的定义式,即将势函数写作指数函数的形式。指数函数满足非负性,且便于求导,因此在机器学习中具有广泛应用,例如西瓜书式(8.5)和式(13.11)。
+
+### 14.2.6 式(14.9)的解释
+
+此为定义在变量$\mathbf{x}_{Q}$上的函数$H_{Q}\left(\cdot\right)$的定义式,第二项考虑单节点,第一项考虑每一对节点之间的关系。
+
+## 14.3 条件随机场
+
+条件随机场是给定一组输入随机变量 $\mathbf{x}$ 条件下, 另一组输出随机变量
+$\mathbf{y}$ 构成的马尔可夫 随机场, 即本页边注中所说
+"条件随机场可看作给定观测值的马尔可夫随机场", 条件随机 场的 "条件"
+应该就来源于此吧, 因为需要求解的概率为条件联合概率
+$P(\mathbf{y} \mid \mathbf{x})$, 因此它 是一种判别式模型, 参见"西瓜书"图
+14.6。
+
+### 14.3.1 式(14.10)的解释
+
+
 
 $$
-\begin{aligned}
-P\left(x_{5}\right) &=\sum_{x_{3}} P\left(x_{5} | x_{3}\right) \sum_{x_{4}} P\left(x_{4} | x_{3}\right) \sum_{x_{2}} P\left(x_{3} | x_{2}\right) \sum_{x_{1}} P\left(x_{1}\right) P\left(x_{2} | x_{1}\right)\\
-&=\sum_{x_{3}} P\left(x_{5} | x_{3}\right) \sum_{x_{4}} P\left(x_{4} | x_{3}\right) \sum_{x_{2}} P\left(x_{3} | x_{2}\right) m_{12}\left(x_{2}\right)
-\end{aligned}
+
+P\left(y_{v} | \mathbf{x}, \mathbf{y}_{V \backslash\{v\}}\right)=P\left(y_{v} | \mathbf{x}, \mathbf{y}_{n(v)}\right)
+
 $$
 
-[解析]:变量消去的顺序为从右至左求和号的下标,应当注意$x_4$与$x_5$相互独立,因此可与$x_3$的消去顺序互换,对最终结果无影响。
 
-## 14.16
+\[解析\]:根据局部马尔科夫性,给定某变量的邻接变量,则该变量独立与其他变量,即该变量只与其邻接变量有关,所以式(14.10)中给定变量$v$
+以外的所有变量与仅给定变量$v$的邻接变量是等价的。
+
+特别注意, 本式下方写到 "则 $(\mathbf{y}, \mathbf{x})$
+构成一个条件随机场"; 也就是说, 因为 $(\mathbf{y}, \mathbf{x})$ 满足 式
+(14.10), 所以 $(\mathbf{y}, \mathbf{x})$ 构成一个条件随机场,
+类似马尔可夫随机场与马尔可夫性的因果关系。
+
+### 14.3.2 式(14.11)的解释
+
+注意本式前面的话:"条件概率被定义为"。至于式中使用的转移特征函数
+和状态特征函数
+,一般这两个函数取值为1或0,当满足特征条件时取值为1,否则为0。
+
+### 14.3.3 学习与推断
+
+本节前4段内容(标题"14.4.1
+变量消去"之前)至关重要,可以看作是14.4节和14.5节的引言,为后面这两节内容做铺垫,因此一定要反复研读几遍,因为这几段内容告诉你接下来两节要解决什么问题,心中装着问题再去看书会事半功倍,否则即使推明白了公式也不知道为什么要去推这些公式。本节介绍两种精确推断方法,下一节则介绍两种近似推断方法。
+
+### 14.3.4 式(14.14)的推导
+
+该式本身的含义很容易理解, 即为了求 $P\left(x_5\right)$
+对联合分布中其他无关变量(即 $x_1, x_2$, $x_3, x_4$ )进行积分 (或求和)
+的过程, 也就是 "边际化" (marginalization)。
+
+关键在于为什么从第 1 个等号可以得到第 2 个等号, 边注中提到
+"基于有向图模型所描 述的条件独立性", 此即第 7
+章式(7.26)。这里的变换类似于式(7.27)的推导过程, 不再赘述。
+
+总之,在消去变量的过程中,在消去每一个变量时需要保证其依赖的变量已经消去,因此消去顺序应该是有向概率图中的一条以目标节点为终点的拓扑序列。
+
+### 14.3.5 式(14.15)和式(14.16)的推导
+
+这里定义新符号 $m_{i j}\left(x_j\right)$,
+请一定理解并记住其含义。依次推导如下: 
 
 $$
+
 \begin{aligned}
-P\left(x_{5}\right) &=\sum_{x_{3}} P\left(x_{5} | x_{3}\right) \sum_{x_{4}} P\left(x_{4} | x_{3}\right) m_{23}\left(x_{3}\right) \\
-&=\sum_{x_{3}} P\left(x_{5} | x_{3}\right) m_{23}\left(x_{3}\right) \sum_{x_{4}} P\left(x_{4} | x_{3}\right) \\
-&=\sum_{x_{3}} P\left(x_{5} | x_{3}\right) m_{23}\left(x_{3}\right) \\
-&=m_{35}\left(x_{5}\right)
+& m_{12}\left(x_2\right)=\sum_{x_1} P\left(x_1\right) P\left(x_2 \mid x_1\right)=\sum_{x_1} P\left(x_2, x_1\right)=P\left(x_2\right) \\
+& m_{23}\left(x_3\right)=\sum_{x_2} P\left(x_3 \mid x_2\right) m_{12}\left(x_2\right)=\sum_{x_2} P\left(x_3, x_2\right)=P\left(x_3\right) \\
+& \left.m_{43}\left(x_3\right)=\sum_{x_4} P\left(x_4 \mid x_3\right) m_{23}\left(x_3\right)=\sum_{x_4} P\left(x_4, x_3\right)=P\left(x_3\right) \text { (这里与书中不一样 }\right) \\
+& m_{35}\left(x_5\right)=\sum_{x_3} P\left(x_5 \mid x_3\right) m_{43}\left(x_3\right)=\sum_{x_3} P\left(x_5, x_3\right)=P\left(x_5\right)
 \end{aligned}
+
 $$
 
-[解析]:注意到$\sum_{x_{4}} P\left(x_{4} | x_{3}\right) = 1$。
+ 注意: 这里的过程与"西瓜书"中不太一样, 但本质一样, 因为
+$m_{43}\left(x_3\right)=\sum_{x_4} P\left(x_4 \mid x_3\right)=1$ 。
 
-## 14.17
+### 14.3.6 式(14.17)的解释
 
-$$
-P\left(x_{1}, x_{2}, x_{3}, x_{4}, x_{5}\right)=\frac{1}{Z} \psi_{12}\left(x_{1}, x_{2}\right) \psi_{23}\left(x_{2}, x_{3}\right) \psi_{34}\left(x_{3}, x_{4}\right) \psi_{35}\left(x_{3}, x_{5}\right)
-$$
+忽略图14.7(a)中的箭头,然后把无向图中的每条边的两个端点作为一个团将其分解为四个团因子的乘积。$Z$为规范化因子确保所有可能性的概率之和为$1$。本式就是基于极大团定义的联合概率分布,参见式(14.3)。
+
+### 14.3.7 式(14.18)的推导
+
+原理同式$14.15$,
+区别在于把条件概率替换为势函数。由于势函数的定义是抽象的, 无法类似于
+$\sum_{x_4} P\left(x_4 \mid x_3\right)=1$ 去处理
+$\sum_{x_4} \psi\left(x_3, x_4\right)$ 。
+
+但根据边际化运算规则,可以知道:
+
+$m_{12}\left(x_2\right)=\sum_{x_1} \psi_{12}\left(x_1, x_2\right)$ 只含
+$x_2$ 不含 $x_1$;
+
+$m_{23}\left(x_3\right)=\sum_{x_2} \psi_{23}\left(x_2, x_3\right) m_{12}\left(x_2\right)$
+只含 $x_3$ 不含 $x_2$;
 
-[解析]:忽略图$14.7(a)$中的箭头,然后把无向图中的每条边的两个端点作为一个团将其分解为四个团因子的乘积。$Z$为规范化因子确保所有可能性的概率之和为$1$。
+$m_{43}\left(x_3\right)=\sum_{x_4} \psi_{34}\left(x_3, x_4\right) m_{23}\left(x_3\right)$
+只含 $x_3$ 不含 $x_4$;
 
-## 14.18
+$m_{35}\left(x_5\right)=\sum_{x_3} \psi_{35}\left(x_3, x_5\right) m_{43}\left(x_3\right)$
+只含 $x_5$ 不含 $x_3$, 即最后得到 $P\left(x_5\right)$ 。
+
+### 14.3.8 式(14.19)的解释
+
+首先解释符号含义, $k \in n(i) \backslash j$ 表示 $k$ 属于除去 $j$ 之外的
+$x_i$ 的邻接结点, 例如 $n(1) \backslash 2$ 为 空集 (因为 $x_1$
+只有邻接结点 2 ), $n(2) \backslash 3=\{1\}$ (因为 $x_2$ 有邻接结点 1 和
+3 ),n(4) $n 3$ 为空 集 (因为 $x_4$ 只有邻接结点 3 ),
+$n(3) \backslash 5=\{2,4\}$ (因为 $x_3$ 有邻接结点 2,4 和 5 )。
+
+接下来, 仍然以图14.7 计算 $P\left(x_5\right)$ 为例: 
 
 $$
+
 \begin{aligned}
-P\left(x_{5}\right) &=\frac{1}{Z} \sum_{x_{3}} \psi_{35}\left(x_{3}, x_{5}\right) \sum_{x_{4}} \psi_{34}\left(x_{3}, x_{4}\right) \sum_{x_{2}} \psi_{23}\left(x_{2}, x_{3}\right) \sum_{x_{1}} \psi_{12}\left(x_{1}, x_{2}\right) \\
-&=\frac{1}{Z} \sum_{x_{3}} \psi_{35}\left(x_{3}, x_{5}\right) \sum_{x_{4}} \psi_{34}\left(x_{3}, x_{4}\right) \sum_{x_{2}} \psi_{23}\left(x_{2}, x_{3}\right) m_{12}\left(x_{2}\right) \\
-&=\cdots \\
-&=\frac{1}{Z} m_{35}\left(x_{5}\right)
+& m_{12}\left(x_2\right)=\sum_{x_1} \psi_{12}\left(x_1, x_2\right) \prod_{k \in n(1) \backslash 2} m_{k 1}\left(x_1\right)=\sum_{x_1} \psi_{12}\left(x_1, x_2\right) \\
+& m_{23}\left(x_3\right)=\sum_{x_2} \psi_{23}\left(x_2, x_3\right) \prod_{k \in n(2) \backslash 3} m_{k 2}\left(x_2\right)=\sum_{x_1} \psi_{12}\left(x_1, x_2\right) m_{12}\left(x_2\right) \\
+& m_{43}\left(x_3\right)=\sum_{x_4} \psi_{34}\left(x_3, x_4\right) \prod_{k \in n(4) \backslash 3} m_{k 4}\left(x_4\right)=\sum_{x_4} \psi_{34}\left(x_3, x_4\right) \\
+& m_{35}\left(x_5\right)=\sum_{x_3} \psi_{35}\left(x_3, x_5\right) \prod_{k \in n(3) \backslash 5} m_{k 3}\left(x_3\right)=\sum_{x_3} \psi_{35}\left(x_3, x_5\right) m_{23}\left(x_3\right) m_{43}\left(x_3\right)
 \end{aligned}
+
 $$
 
-[解析]:原理同式$14.15$, 区别在于把条件概率替换为势函数。
 
-## 14.19
 
-$$
-m_{i j}\left(x_{j}\right)=\sum_{x_{i}} \psi\left(x_{i}, x_{j}\right) \prod_{k \in n(i) \backslash j} m_{k i}\left(x_{i}\right)
-$$
+该式表示从节点$i$传递到节点$j$的过程,求和号表示要考虑节点$i$的所有可能取值。连乘号解释见式$14.20$。应当注意这里连乘号的下标不包括节点$j$,节点$i$只需要把自己知道的关于$j$以外的消息告诉节点$j$即可。
 
-[解析]:该式表示从节点$i$传递到节点$j$的过程,求和号表示要考虑节点$i$的所有可能取值。连乘号解释见式$14.20$。应当注意这里连乘号的下标不包括节点$j$,节点$i$只需要把自己知道的关于$j$以外的消息告诉节点$j$即可。
+### 14.3.9 式(14.20)的解释
 
-## 14.20
+应当注意这里是正比于而不是等于,因为涉及到概率的规范化。可以这么解释,每个变量可以看作一个有一些邻居的房子,每个邻居根据其自己的见闻告诉你一些事情(消息),任何一条消息的可信度应当与所有邻居都有相关性,此处这种相关性用乘积来表达。
 
-$$
-P\left(x_{i}\right) \propto \prod_{k \in n(i)} m_{k i}\left(x_{i}\right)
-$$
+### 14.3.10 式(14.22)的推导
 
-[解析]:应当注意这里是正比于而不是等于,因为涉及到概率的规范化。可以这么解释,每个变量可以看作一个有一些邻居的房子,每个邻居根据其自己的见闻告诉你一些事情(消息),任何一条消息的可信度应当与所有邻居都有相关性,此处这种相关性用乘积来表达。【引用http://helper.ipam.ucla.edu/publications/gss2013/gss2013_11344.pdf】
+假设$x$有M种不同的取值,$x_i$的采样数量为$m_i$(连续取值可以采用微积分的方法分割为离散的取值),则
 
-## 14.22
 
-$$
-\hat{f}=\frac{1}{N} \sum_{i=1}^{N} f\left(x_{i}\right)
 $$
 
-[推导]:假设$x$有M种不同的取值,$x_i$的采样数量为$m_i$(连续取值可以采用微积分的方法分割为离散的取值),则
-$$
 \begin{aligned}
 \hat{f}&=\frac{1}{N} \sum_{j=1}^{M} f\left(x_{j}\right) \cdot m_j \\
 &= \sum_{j=1}^{M} f\left(x_{j}\right)\cdot \frac{m_j}{N} \\
 &\approx \sum_{j=1}^{M} f\left(x_{j}\right)\cdot p(x_j)  \\
 &\approx \int f(x) p(x) dx
 \end{aligned}
+
 $$
 
-## 14.26
 
-$$
-p\left(\mathbf{x}^{t}\right) T\left(\mathbf{x}^{t-1} \mid \mathbf{x}^{t}\right)=p\left(\mathbf{x}^{t-1}\right) T\left(\mathbf{x}^{t} \mid \mathbf{x}^{t-1}\right)
-$$
 
+### 14.3.11 图14.8的解释
+
+图(a)表示信念传播算法的第 1 步, 即指定一个根结点,
+从所有叶结点开始向根结点传 递消息, 直到根结点收到所有邻接结点的消息;
+图(b)表示信念传播算法的第 2 步, 即从根 结点开始向叶结点传递消息,
+直到所有叶结点均收到消息。
+
+本图并不难理解, 接下来思考如下两个问题:
+
+【思考 1】如何编程实现本图信念传播的过程? 这其中涉及到很多问题,
+例如从叶结点 $x_4$ 向根结点传递消息时, 当传递到 $x_3$ 时如何判 断应该向
+$x_2$ 传递还是向 $x_5$ 传递? 当然, 你可能感觉 $x_5$ 是叶结点,
+所以肯定是向 $x_2$ 传递, 那 是因为这个无向图模型很简单, 如果 $x_5$ 和
+$x_3$ 之间还有很多个结点呢?
+
+【思考 2】14.4.2 节开头就说到
+"信念传播\...\...较好地解决了求解多个边际分布时的重 复计算问题",
+但如果图模型很复杂而我本身只需要计算少量边际分布, 是否还应该使用信
+念传播呢? 其实计算边际分布类似于第 $10.1$ 节提到的 "懒惰学习",
+只有在计算边际分布时
+才需要计算某些"消息"。这可能要根据实际情况在变量消去和信念传播两种方法之间取舍。
+
+## 14.4 近似推断
+
+本节介绍两种近似推断方法:MCMC采样和变分推断。提到推断,一般是为了求解某个概率分布(参见上一节的例子),但需要特别说明的是,本节将要介绍的MCMC采样并不是为了求解某个概率分布,而是在已知某个概率分布的前提下去构造服从该分布的独立同分布的样本集合,理解这一点对于读懂14.5.1节的内容非常关键,即14.5.1节中的$p(\mathbf{x})$是已知的;变分推断是概率图模型常用的推断方法,要尽可能理解并掌握其中的细节。
+
+### 14.4.1 式(14.21)到式(14.25)的解释
+
+这五个公式都是概率论课程中的基本公式, 很容易理解; 从 14.5.1
+节开始到式(14.25), 实际都在为 MCMC 采样做铺垫, 即为什么要做 MCMC 采样?
+以下分三点说明:
 
+\(1\) 若已知概率密度函数 $p(x)$, 则可通过式(14.21)计算函数 $f(x)$
+在该概率密度函数 $p(x)$ 下的期望; 这个过程也可以先根据 $p(x)$
+抽取一组样本再通过式(14.22)近似完成。
+
+(2)为什么要通过式(14.22)近似完成呢? 这是因为 "若 $x$
+不是单变量而是一个高维多元变 量 $\mathbf{x}$, 且服从一个非常复杂的分布,
+则对式(14.24)求积分通常很困难"。
+
+\(3\) "然而, 若概率密度函数 $p(\mathbf{x})$ 很复杂, 则构造服从 $p$
+分布的独立同分布样本也很困难", 这时可以使用 MCMC 采样技术完成采样过程。
+
+式(14.23)就是在区间 $A$ 中的概率计算公式,
+而式(14.24)与式(14.21)的区别也就在于式 (14.24)限定了积分变量 $x$ 的区间
+(可能写成定积分形式可能更容易理解)。
+
+### 14.4.2 式(14.26)的解释
+
+假设变量$\mathbf{x}$所在的空间有$n$个状态($s_1,s_2,..,s_n$),
+定义在该空间上的一个转移矩阵$\mathbf{T}\in\mathbb{R}^{n\times n}$满足一定的条件则该马尔可夫过程存在一个稳态分布$\boldsymbol{\pi}$,
+使得 
 
-[解析]:假设变量$\mathbf{x}$所在的空间有$n$个状态($s_1,s_2,..,s_n$), 定义在该空间上的一个转移矩阵$\mathbf{T}\in\mathbb{R}^{n\times n}$满足一定的条件则该马尔可夫过程存在一个稳态分布$\boldsymbol{\pi}$, 使得
 $$
+
 \begin{aligned}
 \boldsymbol{\pi} \mathbf{T}=\boldsymbol{\pi}
 \end{aligned}
+
 $$
-其中, $\boldsymbol{\pi}$是一个是一个$n$维向量,代表$s_1,s_2,..,s_n$对应的概率. 反过来, 如果我们希望采样得到符合某个分布$\boldsymbol{\pi}$的一系列变量$\mathbf{x}^1,\mathbf{x}^2,..,\mathbf{x}^t$, 应当采用哪一个转移矩阵$\mathbf{T}\in\mathbb{R}^{n\times n}$呢?
 
-事实上,转移矩阵只需要满足马尔可夫细致平稳条件
+ 其中,
+$\boldsymbol{\pi}$是一个是一个$n$维向量,代表$s_1,s_2,..,s_n$对应的概率.
+反过来,
+如果我们希望采样得到符合某个分布$\boldsymbol{\pi}$的一系列变量$\mathbf{x}^1,\mathbf{x}^2,..,\mathbf{x}^t$,
+应当采用哪一个转移矩阵$\mathbf{T}\in\mathbb{R}^{n\times n}$呢?
+
+事实上,转移矩阵只需要满足马尔可夫细致平稳条件 
+
 $$
+
 \begin{aligned}
 \pi_i \mathbf{T}_{ij}=\pi_j \mathbf{T}_{ji}
 \end{aligned}
+
 $$
-即公式$14.26$,这里采用的符号与西瓜书略有区别以便于理解.  证明如下
+
+ 即式(14.26),这里采用的符号与西瓜书略有区别以便于理解.
+证明如下 
+
 $$
+
 \begin{aligned}
 \boldsymbol{\pi} \mathbf{T}_{j\cdot} = \sum _i \pi_i\mathbf{T}_{ij} = \sum _i \pi_j\mathbf{T}_{ji} = \pi_j
 \end{aligned}
+
 $$
+
+
 假设采样得到的序列为$\mathbf{x}^1,\mathbf{x}^2,..,\mathbf{x}^{t-1},\mathbf{x}^t$,则可以使用$MH$算法来使得$\mathbf{x}^{t-1}$(假设为状态$s_i$)转移到$\mathbf{x}^t$(假设为状态$s_j$)的概率满足式。
 
-## 14.27
+本式为某个时刻马尔可夫链平稳的条件, 注意式中的
+$p\left(\mathbf{x}^t\right)$ 和 $p\left(\mathbf{x}^{t-1}\right)$ 已知,
+但状态转 移概率 $T\left(\mathbf{x}^{t-1} \mid \mathbf{x}^t\right)$ 和
+$T\left(\mathbf{x}^t \mid \mathbf{x}^{t-1}\right)$
+末知。如何构建马尔可夫链转移概率至关重要, 不同的 构造方法将产生不同的
+MCMC 算法(可以认为 MCMC 算法是一个大的框架或一种思想, 即 "MCMC
+方法先设法构造一条马尔可夫链, 使其收玫至平稳分布恰为待估计参数的后验
+分布, 然后通过这条马尔可夫链来产生符合后验分布的样本,
+并基于这些样本来进行估计", 具体如何构建马尔可夫链有多种实现途径,
+接下来介绍的 $\mathrm{MH}$ 算法就是其中一种)。
 
-$$
-p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^{*} | \mathbf{x}^{t-1}\right) A\left(\mathbf{x}^{*} | \mathbf{x}^{t-1}\right)=p\left(\mathbf{x}^{*}\right) Q\left(\mathbf{x}^{t-1} | \mathbf{x}^{*}\right) A\left(\mathbf{x}^{t-1} | \mathbf{x}^{*}\right)
-$$
+### 14.4.3 式(14.27)的解释
 
-[解析]:这里把式$14.26$中的函数$T$ 拆分为两个函数$Q$和$A$之积,即先验概率和接受概率,便于实际算法的实现。
+若将本式 $\mathbf{x}^{t-1}$ 和 $\mathbf{x}^*$ 分别对应式(14.27)的
+$\mathbf{x}^t$ 和 $\mathbf{x}^{t-1}$, 则本式与式(14.27)区别仅在于状态
+转移概率 $T\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$ 由先验概率
+$Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$ 和被接受的概率
+$A\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$ 的乘积表示。
 
-## 14.28
+### 14.4.4 式(14.28)的推导
 
-$$A(x^* | x^{t-1}) = \min\left ( 1,\frac{p(x^*)Q(x^{t-1} | x^*) }{p(x^{t-1})Q(x^* | x^{t-1})} \right )$$
+注意, 本式中的概率分布 $p(\mathbf{x})$ 和先验转移概率 $Q$ 均为已知,
+因此可计算出接受概率。
+将本式代入式(14.27)可以验证本式是正确的。具体来说,
+式(14.27)等号左边将变为: 
 
-[推导]:这个公式其实是拒绝采样的一个trick,因为基于式$14.27$只需要
 $$
+
 \begin{aligned}
-  A(x^* | x^{t-1}) &= p(x^*)Q(x^{t-1} | x^*)  \\
-  A(x^{t-1} | x^*) &= p(x^{t-1})Q(x^* | x^{t-1})
- \end{aligned} 
+& p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right) A\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right) \\
+= & p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right) \min \left(1, \frac{p\left(\mathbf{x}^*\right) Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)}{p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)}\right) \\
+= & \min \left(p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right), p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right) \frac{p\left(\mathbf{x}^*\right) Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)}{p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)}\right) \\
+= & \min \left(p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right), p\left(\mathbf{x}^*\right) Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)\right)
+\end{aligned}
+
 $$
-即可满足式$14.26$,但是实际上等号右边的数值可能比较小,比如各为0.1和0.2,那么好不容易才到的样本只有百分之十几得到利用,所以不妨将接受率设为0.5和1,则细致平稳分布条件依然满足,样本利用率大大提高, 所以可以改进为
+
+
+
+将 $A\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)$ 代入右边 (符号式
+$\mathbf{x}^{t-1}$ 和 $\mathbf{x}^*$ 调换位置), 同理可得如上结果,
+即本式的 接受概率形式可保证式(14.27)成立。
+
+验证完毕之后可以再做一个简单的推导。其实若想要式(14.27)成立, 简单令:
+
+
 $$
-\begin{aligned} 
-A(x^* | x^{t-1}) &=  \frac{p(x^*)Q(x^{t-1} | x^*)}{norm}  \\  
-A(x^{t-1} | x^*) &= \frac{p(x^{t-1})Q(x^* | x^{t-1}) }{norm}
-\end{aligned} 
+
+A\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)=C \cdot p\left(\mathbf{x}^*\right) Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)
+
 $$
-其中
+
+
+
+(则等号右则的
+$A\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)=C \cdot p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$
+)
+
+即可, 其中 $C$ 为大于零的常数, 且不能使
+$A\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$ 和
+$A\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)$ 大于 1 (因为它们是
+概率)。注意待解 $A\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$
+为接受概率, 在保证式(14.27)成立的基础上, 其值应该尽可能大一些
+(但概率值不会超过 1 ), 否则在图 $14.9$ 描述的 $\mathrm{MH}$
+算法中采样出的候选样本将会 有大部分会被拒绝。所以, 常数 $C$
+尽可能大一些, 那么 $C$ 最大可以为多少呢?
+
+对于
+$A\left(\mathrm{x}^* \mid \mathrm{x}^{t-1}\right)=C \cdot p\left(\mathrm{x}^*\right) Q\left(\mathrm{x}^{t-1} \mid \mathrm{x}^*\right)$,
+易知 $C$ 最大可以取值
+$\frac{1}{p\left(\mathrm{x}^*\right) Q\left(\mathrm{x}^{t-1} \mid \mathrm{x}^*\right)}$,
+再大则会使 $A\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$ 大于 1 ;
+对于
+$A\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)=C \cdot p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)$,
+易知 $C$ 最 大可以取值
+$\frac{1}{p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)}$;
+常数 $C$ 的取值需要同时满足两个约束, 因此
+
+
 $$
-\begin{aligned} 
-norm = \max\left (p(x^{t-1})Q(x^* | x^{t-1}),p(x^*)Q(x^{t-1} | x^*) \right )
-\end{aligned}  
+
+C=\min \left(\frac{1}{\cdot p\left(\mathbf{x}^*\right) Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)}, \frac{1}{p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)}\right)
+
 $$
-即西瓜书中的$14.28$。
 
-## 14.29
+
+
+将这个常数 $C$ 的表达式代入
+$A\left(\mathrm{x}^* \mid \mathrm{x}^{t-1}\right)=C \cdot p\left(\mathrm{x}^*\right) Q\left(\mathrm{x}^{t-1} \mid \mathrm{x}^*\right)$
+即得式(14.28)。
+
+### 14.4.5 吉布斯采样与MH算法
+
+这里解释一下为什么说吉布斯采样是 MH 算法的特例。
+
+吉布斯采样算法如下 ("西瓜书"第 334 页):
+
+\(1\) 随机或以某个次序选取某变量 $x_i$;
+
+\(2\) 根据 $\mathbf{x}$ 中除 $x_i$ 外的变量的现有取值, 计算条件概率
+$p\left(x_i \mid \mathbf{x}_{\bar{i}}\right)$, 其中
+$\mathbf{x}_{\bar{i}}=\left\{x_1, x_2, \ldots, x_{i-1}, x_{i+1}, \ldots, x_N\right\}$;
+
+\(3\) 根据 $p\left(x_i \mid \mathbf{x}_{\bar{i}}\right)$ 对变量 $x_i$
+采样, 用采样值代替原值。
+
+对应到式(14.27)和式(14.28)表示的 MH 采样, 候选样本 $\mathbf{x}^*$ 与
+$t-1$ 时刻样本 $\mathbf{x}^{t-1}$ 的区别 仅在于第 $i$ 个变量的取值不同,
+即 $\mathbf{x}_{\bar{i}}^*$ 与 $\mathbf{x}_{\bar{i}}^{t-1}$
+相同。先给几个概率等式:
+
+\(1\)
+$Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)=p\left(x_i^* \mid \mathbf{x}_{\bar{i}}^{t-1}\right)$;
+
+\(2\)
+$Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)=p\left(x_i^{t-1} \mid \mathbf{x}_{\bar{i}}^*\right)$;
+
+\(3\)
+$p\left(\mathbf{x}^*\right)=p\left(x_i^*, \mathbf{x}_{\bar{i}}^*\right)=p\left(x_i^* \mid \mathbf{x}_{\bar{i}}^*\right) p\left(\mathbf{x}_{\bar{i}}^*\right)$;
+
+\(4\)
+$p\left(\mathbf{x}^{t-1}\right)=p\left(x_i^{t-1}, \mathbf{x}_{\bar{i}}^{t-1}\right)=p\left(x_i^{t-1} \mid \mathbf{x}_{\bar{i}}^{t-1}\right) p\left(\mathbf{x}_{\bar{i}}^{t-1}\right)$。
+
+其中等式(1)是由于吉布斯采样中 "根据
+$p\left(x_i \mid \mathbf{x}_i\right)$ 对变量 $x_i$ 采样" (参见以上第 (3)
+步), 即用 户给定的先验概率为
+$p\left(x_i \mid \mathbf{x}_{\bar{i}}\right)$, 同理得等式(2);
+等式(3)就是将联合概率 $p\left(\mathbf{x}^*\right)$ 换了种形式,
+然写成了条件概率和先验概率乘积, 同理得等式(4)。
+
+对于式(14.28)来说 (注意:
+$\mathbf{x}_{\bar{i}}^*=\mathbf{x}_{\bar{i}}^{t-1}$ )
+
 
 $$
-p(\mathbf{x} | \Theta)=\prod_{i=1}^{N} \sum_{\mathbf{z}} p\left(x_{i}, \mathbf{z} | \Theta\right)
+
+\frac{p\left(\mathbf{x}^*\right) Q\left(\mathbf{x}^{t-1} \mid \mathbf{x}^*\right)}{p\left(\mathbf{x}^{t-1}\right) Q\left(\mathbf{x}^* \mid \mathbf{x}^{t-1}\right)}=\frac{p\left(x_i^* \mid \mathbf{x}_i^*\right) p\left(\mathbf{x}_i^*\right) p\left(x_i^{t-1} \mid \mathbf{x}_{\bar{i}}^*\right)}{p\left(x_i^{t-1} \mid \mathbf{x}_{\bar{i}}^{t-1}\right) p\left(\mathbf{x}_{\bar{i}}^{t-1}\right) p\left(x_i^* \mid \mathbf{x}_{\bar{i}}^{t-1}\right)}=1
+
 $$
 
-[解析]:连乘号是因为$N$个变量的生成过程相互独立。求和号是因为每个变量的生成过程需要考虑中间隐变量的所有可能性,类似于边际分布的计算方式。
 
-## 14.30
+
+即在吉布斯采样中接受概率恒等于 1 , 也就是说吉布斯采样是接受概率为 1 的
+MH 采样。
+
+该推导参考了PRML[1]第 544 页。
+
+### 14.4.6 式(14.29)的解释
+
+连乘号是因为$N$个变量的生成过程相互独立。求和号是因为每个变量的生成过程需要考虑中间隐变量的所有可能性,类似于边际分布的计算方式。
+
+### 14.4.7 式(14.30)的解释
+
+对式(14.29)取对数。本式就是求对数后, 原来的连乘变为了连加, 即性质
+$\ln (a b)=\ln a+\ln b$ 。
+
+接下来提到"图14.10所对应的推断和学习任务主要是由观察到的变量
+$\mathbf{x}$ 来估计隐变量 $\mathbf{Z}$ 和分布参数变量 $\Theta$, 即求解
+$p(\mathbf{z} \mid \mathbf{x}, \Theta)$ 和 $\Theta$ ",
+这里可以对应式(3.26)来这样不严谨理解: $\Theta$ 对应式(3.26)的
+$\boldsymbol{w}, b$, 而 $\mathbf{z}$ 对应式(3.26)的 $y$ 。
+
+### 14.4.8 式(14.31)的解释
+
+对应7.6节EM算法中的M步,参见第163页的式(7.36)和式(7.37)。
+
+### 14.4.9 式(14.32)到式(14.34)的推导
+
+从式(14.31)到式(14.32)之间的跳跃比较大, 接下来为了方便忽略分布参数变量
+$\Theta$ 。 这里的主要问题是后验概率 $p(\mathbf{z} \mid \mathbf{x})$
+难于获得, 进而使用一个已知简单分布 $q(\mathbf{z})$ 去近似
+需要推导的复杂分布 $p(\mathbf{z} \mid \mathbf{x})$,
+这就是变分推断的核心思想。
+
+根据概率论公式
+$p(\mathbf{x}, \mathbf{z})=p(\mathbf{z} \mid \mathbf{x}) p(\mathbf{x})$,
+得:
+
 
 $$
-\ln p(\mathbf{x} | \Theta)=\sum_{i=1}^{N} \ln \left\{\sum_{\mathbf{z}} p\left(x_{i}, \mathbf{z} | \Theta\right)\right\}
+
+p(\mathbf{x})=\frac{p(\mathbf{x}, \mathbf{z})}{p(\mathbf{z} \mid \mathbf{x})}
+
 $$
 
-[解析]:对式$14.29$取对数。
 
-## 14.31
+
+分子分母同时除以 $q(\mathbf{z})$, 得:
+
 
 $$
-\begin{aligned}
-\Theta^{t+1} &=\underset{\Theta}{\arg \max } \mathcal{Q}\left(\Theta ; \Theta^{t}\right) \\
-&=\underset{\Theta}{\arg \max } \sum_{\mathbf{z}} p\left(\mathbf{z} | \mathbf{x}, \Theta^{t}\right) \ln p(\mathbf{x}, \mathbf{z} | \Theta)
-\end{aligned}
+
+p(\mathbf{x})=\frac{p(\mathbf{x}, \mathbf{z}) / q(\mathbf{z})}{p(\mathbf{z} \mid \mathbf{x}) / q(\mathbf{z})}
+
 $$
 
-[解析]:EM算法中的M步,参见$7.6$节。
 
-## 14.32
 
-$${\rm ln}p(x)=\mathcal{L}(q)+{\rm KL}(q \parallel p)$$ 
+等号两边同时取自然对数, 得:
 
-[推导]:根据条件概率公式$p(x,z)=p(z|x)*p(x)$,可以得到$p(x)=\frac{p(x,z)}{p(z|x)}$
 
-然后两边同时作用${\rm ln}$函数,可得${\rm ln}p(x)={\rm ln}\frac{p(x,z)}{p(z|x)}$    (1)
+$$
 
-因为$q(z)$是概率密度函数,所以$1=\int q(z)dz$
+\ln p(\mathbf{x})=\ln \frac{p(\mathbf{x}, \mathbf{z}) / q(\mathbf{z})}{p(\mathbf{z} \mid \mathbf{x}) / q(\mathbf{z})}=\ln \frac{p(\mathbf{x}, \mathbf{z})}{q(\mathbf{z})}-\ln \frac{p(\mathbf{z} \mid \mathbf{x})}{q(\mathbf{z})}
 
-等式两边同时乘以${\rm ln}p(x)$,因为${\rm ln}p(x)$是不关于变量$z$的函数,所以${\rm ln}p(x)$可以拿进积分里面,得到${\rm ln}p(x)=\int q(z){\rm ln}p(x)dz$
 $$
-\begin{aligned}
-{\rm ln}p(x)&=\int q(z){\rm ln}p(x)dz \\
- &=\int q(z){\rm ln}\frac{p(x,z)}{p(z|x)}\\
- &=\int q(z){\rm ln}\bigg\{\frac{p(x,z)}{q(z)}\cdot\frac{q(z)}{p(z|x)}\bigg\} \\
- &=\int q(z)\bigg({\rm ln}\frac{p(x,z)}{q(z)}-{\rm ln}\frac{p(z|x)}{q(z)}\bigg) \\
-  &=\int q(z){\rm ln}\bigg\{\frac{p(x,z)}{q(z)}\bigg\}-\int q(z){\rm ln}\frac{p(z|x)}{q(z)} \\
-  &=\mathcal{L}(q)+{\rm KL}(q \parallel p)\qquad
-\end{aligned}
+
+
+
+等号两边同时乘以 $q(\mathbf{z})$ 并积分, 得:
+
+
 $$
-最后一行是根据$\mathcal{L}$和${\rm KL}$的定义。
-## 14.33
+
+\int q(\mathbf{z}) \ln p(\mathbf{x}) \mathrm{d} \mathbf{z}=\int q(\mathbf{z}) \ln \frac{p(\mathbf{x}, \mathbf{z})}{q(\mathbf{z})} \mathrm{d} \mathbf{z}-\int q(\mathbf{z}) \ln \frac{p(\mathbf{z} \mid \mathbf{x})}{q(\mathbf{z})} \mathrm{d} \mathbf{z}
+
+$$
+
+
+
+对于等号左边的积分, 由于 $p(\mathbf{x})$ 与变量 $\mathbf{z}$ 无关,
+因此可以当作常数拿到积分号外面:
+
 
 $$
-\mathcal{L}(q)=\int q(\mathbf{z}) \ln \left\{\frac{p(\mathbf{x}, \mathbf{z})}{q(\mathbf{z})}\right\} \mathrm{d} \mathbf{z}
+
+\int q(\mathbf{z}) \ln p(\mathbf{x}) \mathrm{d} \mathbf{z}=\ln p(\mathbf{x}) \int q(\mathbf{z}) \mathrm{d} \mathbf{z}=\ln p(\mathbf{x})
+
 $$
 
 
 
-[解析]:见$14.32$解析。
+其中 $q(\mathbf{z})$ 为一个概率分布, 所以积分等于 1 。至此,
+前面式子变为:
 
-## 14.34
 
 $$
-\mathrm{KL}(q \| p)=-\int q(\mathrm{z}) \ln \frac{p(\mathrm{z} | \mathrm{x})}{q(\mathrm{z})} \mathrm{d} \mathrm{z}
+
+\ln p(\mathbf{x})=\int q(\mathbf{z}) \ln \frac{p(\mathbf{x}, \mathbf{z})}{q(\mathbf{z})} \mathrm{d} \mathbf{z}-\int q(\mathbf{z}) \ln \frac{p(\mathbf{z} \mid \mathbf{x})}{q(\mathbf{z})} \mathrm{d} \mathbf{z}
+
 $$
 
 
 
-[解析]:见$14.32$解析。
+此即式(14.32), 等号右边第 1 项即式(14.33)称为 Evidence Lower Bound
+(ELBO), 等号右边 第 2 项即式(14.34)为 $K L$ 散度(参见附录 C.3)。
+我们的目标是用分布 $q(\mathbf{z})$ 去近似后验概率
+$p(\mathbf{z} \mid \mathbf{x})$, 而 $\mathrm{KL}$
+散度用于度量两个概率分布 之间的差异, 其中 KL
+散度越小表示两个分布差异越小, 因此可以最小化式(14.34):
 
-## 14.35
 
 $$
-q(\mathbf{z})=\prod_{i=1}^{M} q_{i}\left(\mathbf{z}_{i}\right)
+
+\min _{q(\mathbf{z})} \operatorname{KL}(q(\mathbf{z}) \| p(\mathbf{z} \mid \mathbf{x}))
+
 $$
 
-[解析]:再一次,条件独立的假设。可以看到,当问题复杂是往往简化问题到最简单最容易计算的局面,实际上往往效果不错。
 
-## 14.36
+
+但这并没有什么意义, 因为 $p(\mathbf{z} \mid \mathbf{x})$ 末知。注意,
+式(14.32)恒等于常数 $\ln p(\mathbf{x})$, 因此最小化
+式(14.34)等价于最大化式(14.33)的 ELBO。 在本节接下来的推导中,
+就是通过最大化式(14.33)来求解 $p(\mathbf{z} \mid \mathbf{x})$ 的近似
+$q(\mathbf{z})$ 。
+
+### 14.4.10 式(14.35)的解释
+
+在"西瓜书" 14.5.2 节开篇提到,
+"变分推断通过使用已知简单分布来逼近需推断的复杂分布", 这 里我们使用
+$q(\mathbf{z})$ 去近似后验分布 $p(\mathbf{z} \mid \mathbf{x})$
+。而本式进一步假设复杂的多变量 $\mathbf{z}$ 可拆解为一系
+列相互独立的多变量 $\mathbf{z}_i$, 进而有
+$q(\mathbf{z})=\prod_{i=1}^M q_i\left(\mathbf{z}_i\right)$,
+以便于后面简化求解。
+
+### 14.4.11 式(14.36)的推导
+
+将式(14.35)代入式(14.33), 得: 
+
 $$
+
 \begin{aligned}
-\mathcal{L}(q)&=\int \prod_{i}q_{i}\bigg\{ {\rm ln}p({\rm \mathbf{x},\mathbf{z}})-\sum_{i}{\rm ln}q_{i}\bigg\}d{\rm\mathbf{z}} \\
-&=\int q_{j}\bigg\{\int p(x,z)\prod_{i\ne j}q_{i}d{\rm\mathbf{z_{i}}}\bigg\}d{\rm\mathbf{z_{j}}}-\int q_{j}{\rm ln}q_{j}d{\rm\mathbf{z_{j}}}+{\rm const} \\
-&=\int q_{j}{\rm ln}\tilde{p}({\rm \mathbf{x},\mathbf{z_{j}}})d{\rm\mathbf{z_{j}}}-\int q_{j}{\rm ln}q_{j}d{\rm\mathbf{z_{j}}}+{\rm const}
+\mathcal{L}(q) & =\int q(\mathbf{z}) \ln \frac{p(\mathbf{x}, \mathbf{z})}{q(\mathbf{z})} \mathrm{d} \mathbf{z}=\int q(\mathbf{z})\{\ln p(\mathbf{x}, \mathbf{z})-\ln q(\mathbf{z})\} \mathrm{d} \mathbf{z} \\
+& =\int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right)\left\{\ln p(\mathbf{x}, \mathbf{z})-\ln \prod_{i=1}^M q_i\left(\mathbf{z}_i\right)\right\} \mathrm{d} \mathbf{z} \\
+& =\int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \ln p(\mathbf{x}, \mathbf{z}) \mathrm{d} \mathbf{z}-\int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \ln \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z} \triangleq \mathcal{L}_1(q)-\mathcal{L}_2(q)
 \end{aligned}
+
 $$
-[推导]:
+
+
+
+接下来推导中大量使用交换积分号次序, 记积分项为
+$Q(\mathbf{x}, \mathbf{z})$, 则上式可变形为:
+
+
 $$
-\mathcal{L}(q)=\int \prod_{i}q_{i}\bigg\{ {\rm ln}p({\rm \mathbf{x},\mathbf{z}})-\sum_{i}{\rm ln}q_{i}\bigg\}d{\rm\mathbf{z}}=\int\prod_{i}q_{i}{\rm ln}p({\rm \mathbf{x},\mathbf{z}})d{\rm\mathbf{z}}-\int\prod_{i}q_{i}\sum_{i}{\rm ln}q_{i}d{\rm\mathbf{z}}
+
+\mathcal{L}(q)=\int Q(\mathbf{x}, \mathbf{z}) \mathrm{d} \mathbf{z}=\int \cdots \int Q(\mathbf{x}, \mathbf{z}) \mathrm{d} \mathbf{z}_1 \mathrm{~d} \mathbf{z}_2 \cdots \mathrm{d} \mathbf{z}_M
+
 $$
-公式可以看做两个积分相减,我们先来看左边积分$\int\prod_{i}q_{i}{\rm ln}p({\rm \mathbf{x},\mathbf{z}})d{\rm\mathbf{z}}$的推导。
+
+
+
+根据积分相关知识, 在满足某种条件下, 积分号的次序可以任意交换。
+
+对于第 1 项 $\mathcal{L}_1(q)$, 交换积分号次序, 得:
+
+
 $$
-\begin{aligned}
-\int\prod_{i}q_{i}{\rm ln}p({\rm \mathbf{x},\mathbf{z}})d{\rm\mathbf{z}} &= \int q_{j}\prod_{i\ne j}q_{i}{\rm ln}p({\rm \mathbf{x},\mathbf{z}})d{\rm\mathbf{z}} \\
-&= \int q_{j}\bigg\{\int{\rm ln}p({\rm \mathbf{x},\mathbf{z}})\prod_{i\ne j}q_{i}d{\rm\mathbf{z_{i}}}\bigg\}d{\rm\mathbf{z_{j}}}\qquad 
-\end{aligned}
+
+\mathcal{L}_1(q)=\int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \ln p(\mathbf{x}, \mathbf{z}) \mathrm{d} \mathbf{z}=\int q_j\left\{\int \ln p(\mathbf{x}, \mathbf{z}) \prod_{i \neq j}^M\left(q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z}_i\right)\right\} \mathrm{d} \mathbf{z}_j
+
 $$
-即先对$\rm\mathbf{z_{j}}$求积分,再对$\rm\mathbf{z_{i}}$求积分,这个就是教材中的$14.36$左边的积分部分。
-我们现在看下右边积分的推导$\int\prod_{i}q_{i}\sum_{i}{\rm ln}q_{i}d{\rm\mathbf{z}}$的推导。
-在此之前我们看下$\int\prod_{i}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z}}$的计算
+
+
+
+令
+$\ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)=\int \ln p(\mathbf{x}, \mathbf{z}) \prod_{i \neq j}^M\left(q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z}_i\right)$
+(这里与式(14.37)略有不同, 具体参见接下 来一条的解释), 代入, 得:
+
+
 $$
+
+\mathcal{L}_1(q)=\int q_j \ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j
+
+$$
+
+
+
+对于第 2 项 $\mathcal{L}_2(q):$ 
+
+$$
+
 \begin{aligned}
-\int\prod_{i}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z}}&= \int q_{i^{\prime}}\prod_{i\ne i^{\prime}}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z}}\qquad  \\
-&=\int q_{i^{\prime}}\bigg\{\int\prod_{i\ne i^{\prime}}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z_{i}}}\bigg\}d{\rm\mathbf{z_{i^{\prime}}}}
+\mathcal{L}_2(q) & =\int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \ln \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z}=\int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \sum_{i=1}^M \ln q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z} \\
+& =\sum_{i=1}^M \int \prod_{i=1}^M q_i\left(\mathbf{z}_i\right) \ln q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z}=\sum_{i_1=1}^M \int \prod_{i_2=1}^M q_{i_2}\left(\mathbf{z}_{i_2}\right) \ln q_{i_1}\left(\mathbf{z}_{i_1}\right) \mathrm{d} \mathbf{z}
 \end{aligned}
+
 $$
-第一个等式是一个展开项,选取一个变量$q_{i^{\prime}}, i^{\prime}\ne k$,由于
-$\bigg\{\int\prod_{i\ne i^{\prime}}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z_{i}}}\bigg\}$部分与变量$q_{i^{\prime}}$无关,所以可以拿到积分外面。又因为$\int q_{i^{\prime}}d{\rm\mathbf{z_{i^{\prime}}}}=1$,所以
+
+
+
+解释一下第 2 行的第 2 个等号后的结果,
+这是因为课本在这里符号表示并不严谨, 求和变量 和连乘变量不能同时使用 $i$,
+这里求和变量和连乘变量分布使用 $i_1$ 和 $i_2$ 表示。对于求和号内的
+积分项,考虑当 $i_1=j$ 时: 
+
 $$
+
 \begin{aligned}
-\int\prod_{i}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z}}&=\int\prod_{i\ne i^{\prime}}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z_{i}}} \\
-&= \int q_{k}{\rm ln}q_{k}d{\rm\mathbf{z_k}}\qquad 
+\int \prod_{i_2=1}^M q_{i_2}\left(\mathbf{z}_{i_2}\right) \ln q_j\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z} & =\int q_j\left(\mathbf{z}_j\right) \prod_{i_2 \neq j} q_{i_2}\left(\mathbf{z}_{i_2}\right) \ln q_j\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z} \\
+& =\int q_j\left(\mathbf{z}_j\right) \ln q_j\left(\mathbf{z}_j\right)\left\{\int \prod_{i_2 \neq j} q_{i_2}\left(\mathbf{z}_{i_2}\right) \prod_{i_2 \neq j} \mathrm{~d} \mathbf{z}_{i_2}\right\} \mathrm{d} \mathbf{z}_j
 \end{aligned}
+
+$$
+
+
+
+注意到
+$\int \prod_{i_2 \neq j} q_{i_2}\left(\mathbf{z}_{i_2}\right) \prod_{i_2 \neq j} \mathrm{~d} \mathbf{z}_{i_2}=1$,
+为了直观说明这个结论, 假设这里只有 $q_1\left(\mathbf{z}_1\right)$,
+$q_2\left(\mathbf{z}_2\right)$ 和 $q_3\left(\mathbf{z}_3\right)$, 即:
+
+
 $$
-即所有$k$以外的变量都可以通过上面的方式消除,有了这个结论,我们再来看公式
+
+\iiint q_1\left(\mathbf{z}_1\right) q_2\left(\mathbf{z}_2\right) q_3\left(\mathbf{z}_3\right) \mathrm{d} \mathbf{z}_1 \mathrm{~d} \mathbf{z}_2 \mathrm{~d} \mathbf{z}_3=\int q_1\left(\mathbf{z}_1\right) \int q_2\left(\mathbf{z}_2\right) \int q_3\left(\mathbf{z}_3\right) \mathrm{d} \mathbf{z}_3 \mathrm{~d} \mathbf{z}_2 \mathrm{~d} \mathbf{z}_1
+
 $$
+
+
+
+对于概率分布, 我们有
+$\int q_1\left(\mathbf{z}_1\right) \mathrm{d} \mathbf{z}_1=\int q_2\left(\mathbf{z}_2\right) \mathrm{d} \mathbf{z}_2=\int q_3\left(\mathbf{z}_3\right) \mathrm{d} \mathbf{z}_3=1$,
+代入即得。因此:
+
+
+$$
+
+\int \prod_{i_2=1}^M q_{i_2}\left(\mathbf{z}_{i_2}\right) \ln q_j\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z}=\int q_j\left(\mathbf{z}_j\right) \ln q_j\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j
+
+$$
+
+
+
+进而第 2 项可化简为: 
+
+$$
+
 \begin{aligned}
-\int\prod_{i}q_{i}\sum_{i}{\rm ln}q_{i}d{\rm\mathbf{z}}&= \int\prod_{i}q_{i}{\rm ln}q_{j}d{\rm\mathbf{z}} + \sum_{k\ne j}\int\prod_{i}q_{i}{\rm ln}q_{k}d{\rm\mathbf{z}} \\
-&= \int q_{j}{\rm ln}q_{j}d{\rm\mathbf{z_j}} + \sum_{k\ne j}\int q_{k}{\rm ln}q_{k}d{\rm\mathbf{z_k}}\qquad \\
-&= \int q_{j}{\rm ln}q_{j}d{\rm\mathbf{z_j}} + {\rm const} \qquad
+\mathcal{L}_2(q) & =\sum_{i_1=1}^M \int q_{i_1}\left(\mathbf{z}_{i_1}\right) \ln q_{i_1}\left(\mathbf{z}_{i_1}\right) \mathrm{d} \mathbf{z}_{i_1} \\
+& =\int q_j\left(\mathbf{z}_j\right) \ln q_j\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j+\sum_{i_1 \neq j}^M \int q_{i_1}\left(\mathbf{z}_{i_1}\right) \ln q_{i_1}\left(\mathbf{z}_{i_1}\right) \mathrm{d} \mathbf{z}_{i_1}
 \end{aligned}
+
 $$
-其中第二个等式是依据上述规律进行消除,最后将与$q_j$无关的部分写作$\rm const$,这个就是$14.36$右边的积分部分。
-## 14.37
+
+
+
+由于这里只关注 $q_j$ (即固定 $q_{i \neq j}$ ), 因此第 2
+项进一步表示为第 $j$ 项加上一个常数:
+
 
 $$
-\ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_{j}\right)=\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]+\text { const }
+
+\mathcal{L}_2(q)=\int q_j\left(\mathbf{z}_j\right) \ln q_j\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j+\text { const }
+
 $$
 
 
 
-[解析]:参见14.36
+综上所述, 可得式(14.36)的形式。
+
+### 14.4.12 式(14.37)到式(14.38)的解释
+
+首先解释式(14.38), 该式等号右侧就是式(14.36)第 2
+个等号后面花括号中的内容, 之所 以这里写成了期望的形式, 这是将
+$\prod_{i \neq j} q_i$ 看作为一个概率分布, 则该式表示函数
+$\ln p(\mathbf{x}, \mathbf{z})$ 在概率分布 $\prod_{i \neq j} q_i$
+下的期望, 类似于式(14.21)和式(14.24)。
 
-## 14.38
+然后解释式(14.37), 该式就是一个定义, 即令等号右侧的项为
+$\ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)$, 但该式却包
+含一个常数项 const, 当然这并没有什么问题,
+并不影响式(14.36)本身。具体来说, 将本项反代回式(14.36)第二个等号右侧第 1
+项, 即: 
 
 $$
-\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]=\int \ln p(\mathbf{x}, \mathbf{z}) \prod_{i \neq j} q_{i} \mathrm{d} \mathbf{z}_{i}
+
+\begin{aligned}
+& \int q_j\left\{\int \ln p(\mathbf{x}, \mathbf{z}) \prod_{i \neq j}^M\left(q_i\left(\mathbf{z}_i\right) \mathrm{d} \mathbf{z}_i\right)\right\} \mathrm{d} \mathbf{z}_j=\int q_j \mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})] \mathrm{d} \mathbf{z}_j \\
+& =\int q_j\left(\ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)-\text { const }\right) \mathrm{d} \mathbf{z}_j \\
+& =\int q_j \ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j-\int q_j \operatorname{constd} \mathbf{z}_j \\
+& =\int q_j \ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j-\text { const } \\
+&
+\end{aligned}
+
 $$
 
 
 
-[解析]:参见14.36
+注意, 加或减一个常数 const 实际等价, 只需 const
+定义时添个符号即可。将这个 const 与式 (14.36)第 2 个等号后面的 const
+合并(注意二者表示不同的值), 即式(14.36) 第 3 个等号后 面的 const。
+
+### 14.4.13 式(14.39)的解释
 
-## 14.39
+对于式(14.36), 可继续变形为: 
 
 $$
-\ln q_{j}^{*}\left(\mathbf{z}_{j}\right)=\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]+\mathrm{const}
+
+\begin{aligned}
+\mathcal{L}(q) & =\int q_j \ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j-\int q_j \ln q_j \mathrm{~d} \mathbf{z}_j+\mathrm{const} \\
+& =\int q_j \ln \frac{\tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)}{q_j} \mathrm{~d} \mathbf{z}_j+\mathrm{const} \\
+& =-\mathrm{KL}\left(q_j \| \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)\right)+\mathrm{const}
+\end{aligned}
+
 $$
 
-[解析]:散度取得极值的条件是两个概率分布相同,见附录$C.3$。
+ 注意, 在前面关于 "式(14.32) 式(14.34)的推导" 中提到,
+我们的目标是用分布 $q(\mathbf{z})$ 去 近似后验概率
+$p(\mathbf{z} \mid \mathbf{x})$, 而 $\mathrm{KL}$
+散度则用于度量两个概率分布之间的差异, 其中 $\mathrm{KL}$ 散度越
+小表示两个分布差异越小, 因此可以最小化式(14.34), 但这并没有什么意义,
+因为 $p(\mathbf{z} \mid \mathbf{x})$ 末知。又因为式(14.32)恒等于常数
+$\ln p(\mathbf{x})$, 因此最小化式(14.34)等价于最大化式(14.33)。刚
+刚又得到式(14.33)等于
+$-\mathrm{KL}\left(q_j \| \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)\right)+$
+const, 因此最大化式(14.33)等价于最小化这 里的 $\mathrm{KL}$ 散度,
+因此可知当 $q_j=\tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)$ 时这个
+$\mathrm{KL}$ 散度最小, 即式(14.33)最大, 也就是分 布 $q(\mathbf{z})$
+与后验概率 $p(\mathbf{z} \mid \mathbf{x})$ 最相似。
+
+而根据式(14.37)有
+$\ln \tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)=\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]+\mathrm{const}$,
+再结合 $q_j=\tilde{p}\left(\mathbf{x}, \mathbf{z}_j\right)$, 可 知
+$\ln q_j=\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]+\mathrm{const}$,
+即本式。
+
+### 14.4.14 式(14.40)的解释
 
-## 14.40
+对式(14.39)两边同时取 $\exp (\cdot)$ 操作, 得 
 
 $$
-\begin{aligned} 
-q_j^*(\mathbf{z}_j) = \frac{ \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right ) }{\int \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right ) \mathrm{d}\mathbf{z}_j}
+
+\begin{aligned}
+q_j^*\left(\mathbf{z}_j\right) & =\exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]+\text { const }\right) \\
+& =\exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right) \cdot \exp (\text { const })
 \end{aligned}
+
 $$
 
-[推导]:由$14.39$去对数并积分
+ 两边同时取积分 $\int(\cdot) \mathrm{d} \mathbf{z}_j$
+操作, 由于 $q_j^*\left(\mathbf{z}_j\right)$ 为概率分布, 所以
+$\int q_j^*\left(\mathbf{z}_j\right) \mathrm{d} \mathbf{z}_j=1$, 因此有
+
+
 $$
-\begin{aligned} 
- \int q_j^*(\mathbf{z}_j)\mathrm{d}\mathbf{z}_j &=\int \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right )\cdot\exp(const) \, \mathrm{d}\mathbf{z}_j \\
- &=\exp(const) \int \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right ) \, \mathrm{d}\mathbf{z}_j \\
- &= 1
- \end{aligned}
+
+\begin{aligned}
+1 & =\int \exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right) \cdot \exp (\text { const }) \mathrm{d} \mathbf{z}_j \\
+& =\exp (\text { const }) \int \exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right) \mathrm{d} \mathbf{z}_j
+\end{aligned}
+
 $$
-所以
+
+ 这里就是将常数拿到了积分号外面, 因此:
+
+
 $$
-\exp(const)  = \dfrac{1}{\int \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right ) \, \mathrm{d}\mathbf{z}_j}  \\
+
+\exp (\text { const })=\frac{1}{\int \exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right) \mathrm{d} \mathbf{z}_j}
+
 $$
 
+
+代入刚开始的表达式, 可得本式: 
+
 $$
-\begin{aligned} 
-  q_j^*(\mathbf{z}_j) &= \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right )\cdot\exp(const)  \\
- &= \frac{ \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right ) }{\int \exp\left ( \mathbb{E}_{i\neq j}[\ln (p(\mathbf{x},\mathbf{z}))] \right ) \mathrm{d}\mathbf{z}_j}
- \end{aligned}
+
+\begin{aligned}
+q_j^*\left(\mathbf{z}_j\right) & =\exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right) \cdot \exp (\text { const }) \\
+& =\frac{\exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right)}{\int \exp \left(\mathbb{E}_{i \neq j}[\ln p(\mathbf{x}, \mathbf{z})]\right) \mathrm{d} \mathbf{z}_j}
+\end{aligned}
+
 $$
 
-## 14.41
+ 实际上, 本式的分母为归一化因子, 以保证
+$q_j^*\left(\mathbf{z}_j\right)$ 为概率分布。
+
+## 14.5 话题模型
+
+本节介绍话题模型的概念及其典型代表:隐狄利克雷分配模型(LDA)。
+
+概括来说,给定一组文档,话题模型可以告诉我们这组文档谈论了哪些话题,以及每篇文档与哪些话题有关。举个例子,社会中出现了一个热点事件,为了大致了解网民的思想动态,于是抓取了一组比较典型的网页(博客、评论等);每个网页就是一篇文档,我们通过分析这组网页,可以大致了解到网民都从什么角度关注这件事情(每个角度可视为一个主题,其中LDA模型中主题个数
+需要人工指定),并大致知道每个网页都涉及哪些角度;这里学得的主题类似于聚类(参见第9章)中所得的簇(没有标记),每个主题最终由一个词频向量表示(即本节),通过分析该主题下的高频词,就可对其有大致的了解。
+
+### 14.5.1 式(14.41)的解释
+
+
 
 $$
+
 p(\boldsymbol W,\boldsymbol z,\boldsymbol \beta,\boldsymbol \theta | \boldsymbol \alpha,\boldsymbol \eta) =
 \prod_{t=1}^{T}p(\boldsymbol \theta_t | \boldsymbol \alpha)
 \prod_{k=1}^{K}p(\boldsymbol \beta_k | \boldsymbol \eta) 
 (\prod_{n=1}^{N}P(w_{t,n} | z_{t,n}, \boldsymbol \beta_k)P( z_{t,n} | \boldsymbol \theta_t))
+
 $$
 
 
+此式表示LDA模型下根据参数$\alpha, \eta$生成文档$W$的概率。其中$z, \beta, \theta$是生成过程的中间变量。具体的生成步骤可见概率图14.12,图中的箭头和式14.41中的条件概率中的因果项目一一对应。这里共有三个连乘符号,表示三个相互独立的概率关系。第一个连乘表示T个文档每个文档的话题分布都是相互独立的。第二个连乘表示K个话题每个话题下单词的分布是相互独立的。最后一个连乘号表示每篇文档中的所有单词的生成是相互独立的。
 
-[解析]:此式表示LDA模型下根据参数$\alpha, \eta$生成文档$W$的概率。其中$z, \beta, \theta$是生成过程的中间变量。具体的生成步骤可见概率图14.12,图中的箭头和式14.41中的条件概率中的因果项目一一对应。这里共有三个连乘符号,表示三个相互独立的概率关系。第一个连乘表示T个文档每个文档的话题分布都是相互独立的。第二个连乘表示K个话题每个话题下单词的分布是相互独立的。最后一个连乘号表示每篇文档中的所有单词的生成是相互独立的。
+### 14.5.2 式(14.42)的解释
 
-## 14.42
+本式就是狄利克雷分布的定义式, 参见"西瓜书"附录C1.6。
 
-$$
-p\left(\Theta_{t} | \boldsymbol{\alpha}\right)=\frac{\Gamma\left(\sum_{k} \alpha_{k}\right)}{\prod_{k} \Gamma\left(\alpha_{k}\right)} \prod_{k} \Theta_{t, k}^{\alpha_{k}-1}
-$$
+### 14.5.3 式(14.43)的解释
 
-[解析]:参见附录$C1.6$。
+本式为对数似然, 其中
+$p\left(\mathbf{w}_t \mid \boldsymbol{\alpha}, \boldsymbol{\eta}\right)=\iiint p\left(\mathbf{w}_t, \mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta} \mid \boldsymbol{\alpha}, \boldsymbol{\eta}\right) \mathrm{d} \mathbf{z} \mathrm{d} \boldsymbol{\beta} \mathrm{d} \boldsymbol{\Theta}$,
+即通过边际化
+$p\left(\mathbf{w}_t, \mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta} \mid \boldsymbol{\alpha}, \boldsymbol{\eta}\right)$
+而得。
 
-## 14.43
+由于 $T$ 篇文档相互独立, 所以
+$p(\mathbf{W}, \mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta} \mid \boldsymbol{\alpha}, \boldsymbol{\eta})=\prod_{t=1}^T p\left(\mathbf{w}_t, \mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta} \mid \boldsymbol{\alpha}, \boldsymbol{\eta}\right)$,
+求对数似然后连乘变为了连加, 即得本式。参见$7.2$极大似然估计。
 
-$$
-L L(\boldsymbol{\alpha}, \boldsymbol{\eta})=\sum_{t=1}^{T} \ln p\left(\boldsymbol{w}_{t} | \boldsymbol{\alpha}, \boldsymbol{\eta}\right)
-$$
+### 14.5.4 式(14.44)的解释
 
-[解析]:对数似然函数。参见$7.2$极大似然估计。
+本式就是联合概率、先验概率、条件概率之间的关系,
+换种表示方法可能更易理解:
 
-## 14.44
 
 $$
-p(\mathbf{z}, \boldsymbol{\beta}, \Theta | \mathbf{W}, \boldsymbol{\alpha}, \boldsymbol{\eta})=\frac{p(\mathbf{W}, \mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta} | \boldsymbol{\alpha}, \boldsymbol{\eta})}{p(\mathbf{W} | \boldsymbol{\alpha}, \boldsymbol{\eta})}
+
+p_{\boldsymbol{\alpha}, \boldsymbol{\eta}}(\mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta} \mid \mathbf{W})=\frac{p_{\boldsymbol{\alpha}, \boldsymbol{\eta}}(\mathbf{W}, \mathbf{z}, \boldsymbol{\beta}, \boldsymbol{\Theta})}{p_{\boldsymbol{\alpha}, \boldsymbol{\eta}}(\mathbf{W})}
+
 $$
 
-[解析]:分母为边际分布,需要对变量$\mathbf{z}, \boldsymbol{\beta}, \Theta$ 积分或者求和,所以往往难以直接求解。
+
+
+## 参考文献
+
+[1] Christopher M Bishop and Nasser M Nasrabadi. Pattern recognition and machine learning, volume 4.
+Springer, 2006.

+ 37 - 78
docs/chapter15/chapter15.md

@@ -1,100 +1,59 @@
-## 15.2
+# 第15章 规则学习
 
-$$
-\mathrm{LRS}=2 \cdot\left(\hat{m}_{+} \log _{2} \frac{\left(\frac{\hat{m}_{+}}{\hat{m}_{+}+\hat{m}_{-}}\right)}{\left(\frac{m_{+}}{m_{+}+m_{-}}\right)}+\hat{m}_{-} \log _{2} \frac{\left(\frac{\hat{m}_{-}}{\hat{m}_{+}+\hat{m}_{-}}\right)}{\left(\frac{m_{-}}{m_{+}+m_{-}}\right)}\right)
-$$
+规则学习是"符号主义学习"的代表性方法,用来从训练数据中学到一组能对未见示例进行判别的规则,形如"如果A或B,并且C的条件下,D满足"这样的形式。因为这种学习方法更加贴合人类从数据中学到经验的描述,具有非常良好的可解释性,是最早开始研究机器学习的技术之一。
 
-[解析]:似然率统计量(Likelihood Ratio Statistics)的定义式。
+## 15.1 剪枝优化
 
-## 15.3
+### 15.1.1 式(15.2)和式(15.3)的解释
 
-$$
-\mathrm{F}_{-} \text {Gain }=\hat{m}_{+} \times\left(\log _{2} \frac{\hat{m}_{+}}{\hat{m}_{+}+\hat{m}_{-}}-\log _{2} \frac{m_{+}}{m_{+}+m_{-}}\right)
-$$
+似然率统计量LRS定义为:
+$$\mathrm{LRS}=2 \cdot\left(\hat{m}_{+} \log _{2} \frac{\left(\frac{\hat{m}_{+}}{\hat{m}_{+}+\hat{m}_{-}}\right)}{\left(\frac{m_{+}}{m_{+}+m_{-}}\right)}+\hat{m}_{-} \log _{2} \frac{\left(\frac{\hat{m}_{-}}{\hat{m}_{+}+\hat{m}_{-}}\right)}{\left(\frac{m_{-}}{m_{+}+m_{-}}\right)}\right)$$
+同时,根据对数函数的定义,我们可以对式(15.3)进行化简: $$\begin{aligned}
+\mathrm{F}_{-} \text {Gain }&=\hat{m}_{+} \times\left(\log _{2} \frac{\hat{m}_{+}}{\hat{m}_{+}+\hat{m}_{-}}-\log _{2} \frac{m_{+}}{m_{+}+m_{-}}\right)\\
+&=\hat{m}_{+}\left(\log_{2}\frac{\frac{\hat{m}_{+}}{\hat{m}_{+}+\hat{m}_{-}}}{\frac{m_{+}}{m_{+}+m_{-}}}\right)
+\end{aligned}$$
+可以观察到F_Gain即为式(15.2)中LRS求和项中的第一项。这里"西瓜书"中做了详细的解释,FOIL仅考虑正例的信息量,由于关系数据中正例数旺旺远少于反例数,因此通常对正例应该赋予更多的关注。
 
-[解析]:FOIL增益(FOIL gain)的定义式。
+## 15.2 归纳逻辑程序设计
 
-## 15.6
+### 15.2.1 式(15.6)的解释
 
-$$
-(A \vee B)-\{B\}=A
-$$
+定义析合范式的删除操作符为"$-$",表示在$A$和$B$的析合式中删除成分$B$,得到成分$A$。
 
-[解析]:析合范式的删除操作定义式,表示在$A$和$B$的析合式中删除成分$B$,得到成分$A$。
+### 15.2.2 式(15.7)的推导
 
-## 15.7
+$C=A\vee B$,把$A=C_1 - \{L\}$和$L=C_2-\{\neg L\}$带入即得。
 
-$$
-C=\left(C_{1}-\{L\}\right) \vee\left(C_{2}-\{\neg L\}\right)
-$$
+### 15.2.3 式(15.9)的推导
 
-[解析]:$C=A\vee B$,把$A=C_1 - \{L\}$和$L=C_2-\{\neg L\}$代入即得。
+根据式(15.7) $C=\left(C_1-\{L\}\right) \vee\left(C_2-\{\neg L\}\right)$
+和析合范式的删除操作,等式两边同时删除析合项$C_2-\{\neg L\}$有:
+$$C - (C_1 - \{L\}) = C_2-\{\neg L\}$$
+再次运用析合范式删除操作符的逆定义,等式两边同时加上析合项$\{\neg L\}$有:
+$$C_2=\left(C-\left(C_1-\{L\}\right)\right) \vee\{\neg L\}$$
 
-## 15.9
+### 15.2.4 式(15.10)的解释
 
-$$
-C_{2}=\left(C-\left(C_{1}-\{L\}\right)\right) \vee\{\neg L\}
-$$
+该式是吸收(absorption)操作的定义。注意作者在文章中所用的符号定义,用
+$\frac{X}{Y}$ 表示 $X$ 蕴含
+$Y$,${X}$的子句或是${Y}$的归结项,或是$Y$中某个子句的等价项。所谓吸收,是指替换部分逻辑子句(大写字母),生成一个新的逻辑文字(小写字母)用于定义这些被替换的逻辑子句。在式(15.10)中,逻辑子句$A$被逻辑文字$q$替换。
 
-[解析]:由式15.7可知
-$$
-C_2-\{\neg L\} = C - (C_1 - \{L\})
-$$
-由式15.6 移项即证得。
+### 15.2.5 式(15.11)的解释
 
-## 15.10
+该式是辨识(identification)操作的定义。辨识操作依据已知的逻辑文字,构造新的逻辑子句和文字的关系。在式(15.11)中,已知$p \leftarrow A \wedge B$和$p \leftarrow A \wedge q$,构造的新逻辑文字为$q \leftarrow B$。
 
-$$
-\frac{p \leftarrow A \wedge B  \quad q \leftarrow A}{p \leftarrow q \wedge B  \quad q \leftarrow A}
-$$
+### 15.2.6 式(15.12)的解释
 
-[解析]:吸收(absorption)操作的定义
+该式是内构(intra-construction)操作的定义。内构操作找到关于同一逻辑文字中的共同逻辑子句部分,并且提取其中不同的部分作为新的逻辑文字。在式(15.12)中,逻辑文字$p \leftarrow A \wedge B$和$p \leftarrow A \wedge C$的共同部分为$p \leftarrow A \wedge q$,其中新逻辑文字$q \leftarrow B \quad q \leftarrow C$。
 
-## 15.11
+### 15.2.7 式(15.13)的解释
 
-$$
-\frac{p \leftarrow A \wedge B \quad p \leftarrow A \wedge q}{q \leftarrow B \quad p \leftarrow A \wedge q}
-$$
+该式是互构(inter-construction)操作的定义。互构操作找到不同逻辑文字中的共同逻辑子句部分,并定义新的逻辑文字已描述这个共同的逻辑子句。在式(15.13)中,逻辑文字$p \leftarrow A \wedge B$
+
+$q \leftarrow A \wedge C$的共同逻辑子句$A$提取出来,并用逻辑文字定义为$r \leftarrow A$。逻辑文字$p$和$q$的定义也用$r$做相应的替换得到$p \leftarrow r \wedge B$与$q \leftarrow r \wedge C$。
 
-[解析]:辨识(identification)操作的定义。
+### 15.2.8 式(15.16)的推导
 
-## 15.12
-
-$$
-\frac{p \leftarrow A \wedge B\quad p \leftarrow A \wedge q }{q \leftarrow B\quad p \leftarrow A \wedge q \quad q \leftarrow C} 
-$$
-
-[解析]:内构(intra-construction)操作的定义。
-
-## 15.13
-
-$$
-\frac{p \leftarrow A \wedge B\quad q \leftarrow r \wedge C}{p \leftarrow r \wedge B\quad r \leftarrow A \quad q \leftarrow r \wedge C} 
-$$
-
-[解析]:互构(inter-construction)操作的定义。
-
-## 15.14
-
-$$
-C=\left(C_{1}-\left\{L_{1}\right\}\right) \theta \vee\left(C_{2}-\left\{L_{2}\right\}\right) \theta
-$$
-
-[解析]:由式15.7,分别对析合的两个子项进行归结即得证。
-
-## 15.16
-
-$$
-C_{2}=\left(C-\left(C_{1}-\left\{L_{1}\right\}\right) \theta_{1} \vee\left\{\neg L_{1} \theta_{1}\right\}\right)\theta_{2}^{-1}
-$$
-
-[推导]:$\theta_1$为作者笔误,由15.9
-$$
-\begin{aligned}
+$\theta_1$为作者笔误,由15.9 $$\begin{aligned}
 C_{2}&=\left(C-\left(C_{1}-\{L_1\}\right)\right) \vee\{L_2\}\\
-\end{aligned}
-$$
-因为 $L_2=(\neg L_1\theta_1)\theta_2^{-1}$,替换得证。
-
-
-
+\end{aligned}$$ 因为 $L_2=(\neg L_1\theta_1)\theta_2^{-1}$,替换得证。

+ 86 - 109
docs/chapter16/chapter16.md

@@ -1,121 +1,73 @@
-## 16.2
-$$
-Q_{n}(k)=\frac{1}{n}\left((n-1)\times Q_{n-1}(k)+v_{n}\right)
-$$
-
-[推导]:
-$$
-\begin{aligned}
-Q_{n}(k)&=\frac{1}{n}\sum_{i=1}^{n}v_{i}\\
-&=\frac{1}{n}\left(\sum_{i=1}^{n-1}v_{i}+v_{n}\right)\\
-&=\frac{1}{n}\left((n-1)\times Q_{n-1}(k)+v_{n}\right)\\
-&=Q_{n-1}(k)+\frac{1}{n}\left(v_n-Q_{n-1}(k)\right)
-\end{aligned}
-$$
+# 第16章 强化学习
 
-## 16.3
+强化学习作为机器学习的子领域,其本身拥有一套完整的理论体系,以及诸多经典和最新前沿算法,"西瓜书"该章内容仅可作为综述查阅,若想深究建议查阅其他相关书籍(例如《Easy
+RL:强化学习教程》[1])进行系统性学习。
 
-$$
-\begin{aligned}
-&Q_{n}(k)=\frac{1}{n}\left((n-1) \times Q_{n-1}(k)+v_{n}\right)\\
-&=Q_{n-1}(k)+\frac{1}{n}\left(v_{n}-Q_{n-1}(k)\right)
-\end{aligned}
-$$
+## 16.1 任务与奖赏
 
+本节理解强化学习的定义和相关术语的含义即可。
 
+## 16.2 K-摇臂赌博机
 
-[推导]:参见 16.2
+### 16.2.1 式(16.2)和式(16.3)的推导
 
-## 16.4
+$$\begin{aligned}
+Q_{n}(k)&=\frac{1}{n}\sum_{i=1}^{n}v_{i}\\
+&=\frac{1}{n}\left(\sum_{i=1}^{n-1}v_{i}+v_{n}\right)\\
+&=\frac{1}{n}\left((n-1)\times Q_{n-1}(k)+v_{n}\right)\\
+&=Q_{n-1}(k)+\frac{1}{n}\left(v_n-Q_{n-1}(k)\right)
+\end{aligned}$$
 
-$$
-P(k)=\frac{e^{\frac{Q(k)}{\tau }}}{\sum_{i=1}^{K}e^{\frac{Q(i)}{\tau}}}
-$$
+### 16.2.2 式(16.4)的解释
 
-[解析]:
-$$
-P(k)=\frac{e^{\frac{Q(k)}{\tau }}}{\sum_{i=1}^{K}e^{\frac{Q(i)}{\tau}}}\propto e^{\frac{Q(k)}{\tau }}\propto\frac{Q(k)}{\tau }\propto\frac{1}{\tau}
-$$
+$$P(k)=\frac{e^{\frac{Q(k)}{\tau }}}{\sum_{i=1}^{K}e^{\frac{Q(i)}{\tau}}}\propto e^{\frac{Q(k)}{\tau }}\propto\frac{Q(k)}{\tau }\propto\frac{1}{\tau}$$
 
-## 16.7
+如果$\tau$很大,所有动作几乎以等概率选择(探索);如果
+$\tau$很小,$Q$值大的动作更容易被选中(利用)。
 
-$$
-\begin{aligned}
-V_{T}^{\pi}(x)&=\mathbb{E}_{\pi}[\frac{1}{T}\sum_{t=1}^{T}r_{t}\mid x_{0}=x]\\
-&=\mathbb{E}_{\pi}[\frac{1}{T}r_{1}+\frac{T-1}{T}\frac{1}{T-1}\sum_{t=2}^{T}r_{t}\mid x_{0}=x]\\
-&=\sum_{a\in A}\pi(x,a)\sum_{x{}'\in X}P_{x\rightarrow x{}'}^{a}(\frac{1}{T}R_{x\rightarrow x{}'}^{a}+\frac{T-1}{T}\mathbb{E}_{\pi}[\frac{1}{T-1}\sum_{t=1}^{T-1}r_{t}\mid x_{0}=x{}'])\\
-&=\sum_{a\in A}\pi(x,a)\sum_{x{}'\in X}P_{x\rightarrow x{}'}^{a}(\frac{1}{T}R_{x\rightarrow x{}'}^{a}+\frac{T-1}{T}V_{T-1}^{\pi}(x{}')])
-\end{aligned}
-$$
+## 16.3 有模型学习
 
-[解析]:
+### 16.3.1 式(16.7)的解释
 
-因为
-$$
-\pi(x,a)=P(action=a|state=x)
-$$
+因为 $$\pi(x,a)=P(action=a|state=x)$$
 表示在状态$x$下选择动作$a$的概率,又因为动作事件之间两两互斥且和为动作空间,由全概率展开公式
-$$
-P(A)=\sum_{i=1}^{\infty}P(B_{i})P(A\mid B_{i})
-$$
-可得
-$$
-\begin{aligned}
+$$P(A)=\sum_{i=1}^{\infty}P(B_{i})P(A\mid B_{i})$$ 可得
+$$\begin{aligned}
 &\mathbb{E}_{\pi}[\frac{1}{T}r_{1}+\frac{T-1}{T}\frac{1}{T-1}\sum_{t=2}^{T}r_{t}\mid x_{0}=x]\\
 &=\sum_{a\in A}\pi(x,a)\sum_{x{}'\in X}P_{x\rightarrow x{}'}^{a}(\frac{1}{T}R_{x\rightarrow x{}'}^{a}+\frac{T-1}{T}\mathbb{E}_{\pi}[\frac{1}{T-1}\sum_{t=1}^{T-1}r_{t}\mid x_{0}=x{}'])
-\end{aligned}
-$$
-其中
-$$
-r_{1}=\pi(x,a)P_{x\rightarrow x{}'}^{a}R_{x\rightarrow x{}'}^{a}
-$$
+\end{aligned}$$ 其中
+$$r_{1}=\pi(x,a)P_{x\rightarrow x{}'}^{a}R_{x\rightarrow x{}'}^{a}$$
 最后一个等式用到了递归形式。
 
+Bellman
+等式定义了当前状态与未来状态之间的关系,表示当前状态的价值函数可以通过下个状态的价值函数来计算。
 
+### 16.3.2 式(16.8)的推导
 
-## 16.8
-
-$$
-V_{\gamma }^{\pi}(x)=\sum _{a\in A}\pi(x,a)\sum_{x{}'\in X}P_{x\rightarrow x{}'}^{a}(R_{x\rightarrow x{}'}^{a}+\gamma V_{\gamma }^{\pi}(x{}'))
-$$
-
-[推导]:
-$$
-\begin{aligned}
+$$\begin{aligned}
 V_{\gamma }^{\pi}(x)&=\mathbb{E}_{\pi}[\sum_{t=0}^{\infty }\gamma^{t}r_{t+1}\mid x_{0}=x]\\
 &=\mathbb{E}_{\pi}[r_{1}+\sum_{t=1}^{\infty}\gamma^{t}r_{t+1}\mid x_{0}=x]\\
 &=\mathbb{E}_{\pi}[r_{1}+\gamma\sum_{t=1}^{\infty}\gamma^{t-1}r_{t+1}\mid x_{0}=x]\\
 &=\sum _{a\in A}\pi(x,a)\sum_{x{}'\in X}P_{x\rightarrow x{}'}^{a}(R_{x\rightarrow x{}'}^{a}+\gamma \mathbb{E}_{\pi}[\sum_{t=0}^{\infty }\gamma^{t}r_{t+1}\mid x_{0}=x{}'])\\
 &=\sum _{a\in A}\pi(x,a)\sum_{x{}'\in X}P_{x\rightarrow x{}'}^{a}(R_{x\rightarrow x{}'}^{a}+\gamma V_{\gamma }^{\pi}(x{}'))
-\end{aligned}
-$$
+\end{aligned}$$
 
-## 16.10
+### 16.3.3 式(16.10)的推导
 
-$$
-\left\{\begin{array}{l}
-Q_{T}^{\pi}(x, a)=\sum_{x^{\prime} \in X} P_{x \rightarrow x^{\prime}}^{a}\left(\frac{1}{T} R_{x \rightarrow x^{\prime}}^{a}+\frac{T-1}{T} V_{T-1}^{\pi}\left(x^{\prime}\right)\right) \\
-Q_{\gamma}^{\pi}(x, a)=\sum_{x^{\prime} \in X} P_{x \rightarrow x^{\prime}}^{a}\left(R_{x \rightarrow x^{\prime}}^{a}+\gamma V_{\gamma}^{\pi}\left(x^{\prime}\right)\right)
-\end{array}\right.
-$$
+参见式(16.7)和式(16.8)的推导
 
-[推导]:参见 16.7, 16.8
+### 16.3.4 式(16.14)的解释
 
-## 16.14
+为了获得最优的状态值函数$V$,这里取了两层最优,分别是采用最优策略$\pi^{*}$和选取使得状态动作值函数$Q$最大的动作$\max_{a\in A}$。
 
-$$
-V^{*}(x)=\max _{a \in A} Q^{\pi^{*}}(x, a)
-$$
+### 16.3.5 式(16.15)的解释
 
-[解析]:为了获得最优的状态值函数$V$,这里取了两层最优,分别是采用最优策略$\pi^{*}$和选取使得状态动作值函数$Q$最大的状态$\max_{a\in A}$。
+最优 Bellman
+等式表明:最佳策略下的一个状态的价值必须等于在这个状态下采取最好动作得到的累积奖赏值的期望。
 
-## 16.16
-$$
-V^{\pi}(x)\leqslant V^{\pi{}'}(x)
-$$
-[推导]:
-$$
-\begin{aligned}
+### 16.3.6 式(16.16)的推导
+
+$$\begin{aligned}
 V^{\pi}(x) & \leqslant Q^{\pi}\left(x, \pi^{\prime}(x)\right) \\
 &=\sum_{x^{\prime} \in X} P_{x \rightarrow x^{\prime}}^{\pi^{\prime}(x)}\left(R_{x \rightarrow x^{\prime}}^{\pi^{\prime}(x)}+\gamma V^{\pi}\left(x^{\prime}\right)\right) \\
 & \leqslant \sum_{x^{\prime} \in X} P_{x \rightarrow x^{\prime}}^{\pi^{\prime}(x)}\left(R_{x \rightarrow x^{\prime}}^{\pi^{\prime}(x)}+\gamma Q^{\pi}\left(x^{\prime}, \pi^{\prime}\left(x^{\prime}\right)\right)\right) \\
@@ -127,35 +79,60 @@ V^{\pi}(x) & \leqslant Q^{\pi}\left(x, \pi^{\prime}(x)\right) \\
 &\leqslant \cdots \\
 &\leqslant \sum_{x^{\prime} \in X} P_{x \rightarrow x^{\prime}}^{\pi^{\prime}(x)}\left(R_{x \rightarrow x^{\prime}}^{\pi^{\prime}(x)}+\sum_{x'^{\prime} \in X} P_{x' \rightarrow x^{''}}^{\pi^{\prime}(x')}\left(\gamma R_{x' \rightarrow x^{\prime \prime}}^{\pi^{\prime}(x')}+\sum_{x'^{\prime} \in X} P_{x'' \rightarrow x^{'''}}^{\pi^{\prime}(x'')} \left(\gamma^2 R_{x'' \rightarrow x^{\prime \prime \prime}}^{\pi^{\prime}(x'')}+\cdots \right)\right)\right) \\
 &= V^{\pi'}(x) 
-\end{aligned}
-$$
-其中,使用了动作改变条件
-$$
-Q^{\pi}(x,\pi{}'(x))\geqslant V^{\pi}(x)
-$$
-以及状态-动作值函数
-$$
-Q^{\pi}(x{}',\pi{}'(x{}'))=\sum_{x{}'\in X}P_{x{}'\rightarrow x{}'}^{\pi{}'(x{}')}(R_{x{}'\rightarrow x{}'}^{\pi{}'(x{}')}+\gamma V^{\pi}(x{}'))
-$$
+\end{aligned}$$ 其中,使用了动作改变条件
+$$Q^{\pi}(x,\pi{}'(x))\geqslant V^{\pi}(x)$$ 以及状态-动作值函数
+$$Q^{\pi}(x{}',\pi{}'(x{}'))=\sum_{x{}'\in X}P_{x{}'\rightarrow x{}'}^{\pi{}'(x{}')}(R_{x{}'\rightarrow x{}'}^{\pi{}'(x{}')}+\gamma V^{\pi}(x{}'))$$
 于是,当前状态的最优值函数为
-$$
-V^{\ast}(x)=V^{\pi{}'}(x)\geqslant V^{\pi}(x)
-$$
+$$V^{\ast}(x)=V^{\pi{}'}(x)\geqslant V^{\pi}(x)$$
+
+## 16.4 免模型学习
+
+### 16.4.1 式(16.20)的解释
+
+如果 $\epsilon_k=\frac{1}{k}$,并且其值随 $k$ 增大而主角趋于零,则
+$\epsilon-$ 贪心是在无限的探索中的极限贪心(Greedy in the Limit with
+Infinite Exploration,简称GLIE)。
+
+### 16.4.2 式(16.23)的解释
 
-## 16.31
+$\frac{p(x)}{q(x)}$称为重要性权重(Importance
+Weight),其用于修正两个分布的差异。
 
-$$
-Q_{t+1}^{\pi}(x,a)=Q_{t}^{\pi}(x,a)+\alpha (R_{x\rightarrow x{}'}^{a}+\gamma Q_{t}^{\pi}(x{}',a{}')-Q_{t}^{\pi}(x,a))
-$$
+### 16.4.3 式(16.31)的推导
 
-[推导]:根据累计折扣奖励的定义(P373)可知:
+对比公式16.29
+$$Q_{t+1}^{\pi}(x,a)=Q_{t}^{\pi}(x,a)+\frac{1}{t+1}(r_{t+1}-Q_{t}^{\pi}(x,a))$$
+以及由 $$\frac{1}{t+1}=\alpha$$ 可知,若下式成立,则公式16.31成立
+$$r_{t+1}=R_{x\rightarrow x{}'}^{a}+\gamma Q_{t}^{\pi}(x{}',a{}')$$
+而$r_{t+1}$表示$t+1$步的奖赏,即状态$x$变化到$x'$的奖赏加上前面$t$步奖赏总和$Q_{t}^{\pi}(x{}',a{}')$的$\gamma$折扣,因此这个式子成立。
 
-$$Q_{t+1}^{\pi}(x, a)=\gamma Q_{t}^{\pi}(x', a')+R_{x\to x'}^{a}$$
+## 16.5 值函数近似
 
+### 16.5.1 式(16.33)的解释
 
-将上式进行类似于公式(16.29)的形式改写,可以得到:
+古代汉语中"平方"称为"二乘",此处的最小二乘误差也就是均方误差。
 
+### 16.5.2 式(16.34)的推导
 
-$$Q_{t+1}^{\pi}(x, a)= Q_{t}^{\pi}(x, a) + (R_{x\to x'}^{a} + \gamma Q_{t}^{\pi}(x', a') -  Q_{t}^{\pi}(x, a) )$$
+$$\begin{aligned}
+-\frac{\partial E_{\boldsymbol{\theta}}}{\partial \boldsymbol{\theta}} & = -\frac{\partial \mathbb{E}_{\boldsymbol{x} \sim \pi}\left[\left(V^\pi(\boldsymbol{x})-V_{\boldsymbol{\theta}}(\boldsymbol{x})\right)^2\right]}{\partial \boldsymbol{\theta}}\\
+\end{aligned}$$ 将
+$V^\pi(\boldsymbol{x})-V_{\boldsymbol{\theta}}(\boldsymbol{x})$
+看成一个整体,根据链式法则(chain rule)可知
+$$-\frac{\partial \mathbb{E}_{\boldsymbol{x} \sim \pi}\left[\left(V^\pi(\boldsymbol{x})-V_{\boldsymbol{\theta}}(\boldsymbol{x})\right)^2\right]}{\partial \boldsymbol{\theta}}=\mathbb{E}_{\boldsymbol{x} \sim \pi}\left[2\left(V^\pi(\boldsymbol{x})-V_{\boldsymbol{\theta}}(\boldsymbol{x})\right) \frac{\partial V_{\boldsymbol{\theta}}(\boldsymbol{x})}{\partial \boldsymbol{\theta}}\right]$$
+$V_{\boldsymbol{\theta}}(\boldsymbol{x})$
+是一个标量,$\boldsymbol{\theta}$
+是一个向量,$\frac{\partial V_{\boldsymbol{\theta}}(\boldsymbol{x})}{\partial \boldsymbol{\theta}}$
+属于矩阵微积分中的标量对向量求偏导,因此 $$\begin{aligned}
+\frac{\partial V_{\boldsymbol{\theta}}(\boldsymbol{x})}{\partial \boldsymbol{\theta}}&=
+\frac{\partial \boldsymbol{\theta}^\mathrm{T}{\boldsymbol{x}}}{\partial \boldsymbol{\theta}} \\
+& =\left[\frac{\partial \boldsymbol{\theta}^{\mathrm{T}} \boldsymbol{x}}{\partial \theta_1}, \frac{\partial \boldsymbol{\theta}^{\mathrm{T}} \boldsymbol{x}}{\partial \theta_2}, \cdots,\frac{\partial \boldsymbol{\theta}^{\mathrm{T}}\boldsymbol{x}}{\partial \theta_n}\right]^{\mathrm{T}} \\
+& =\left[x_1, x_2, \cdots,x_m\right]^{\mathrm{T}} \\
+& =\boldsymbol{x}
+\end{aligned}$$ 故 $$\begin{aligned}
+-\frac{\partial E_{\boldsymbol{\theta}}}{\partial \boldsymbol{\theta}} & =\mathbb{E}_{\boldsymbol{x} \sim \pi}\left[2\left(V^\pi(\boldsymbol{x})-V_{\boldsymbol{\theta}}(\boldsymbol{x})\right) \frac{\partial V_{\boldsymbol{\theta}}(\boldsymbol{x})}{\partial \boldsymbol{\theta}}\right] \\
+& =\mathbb{E}_{\boldsymbol{x} \sim \pi}\left[2\left(V^\pi(\boldsymbol{x})-V_{\boldsymbol{\theta}}(\boldsymbol{x})\right) \boldsymbol{x}\right]
+\end{aligned}$$
 
-括号中的部分即为累计折扣奖励下的需要学习的增量,然后乘以学习率$\alpha$,即可得到公式16.31.
+## 参考文献
+[1] 王琦,杨毅远,江季. Easy RL:强化学习教程. 人民邮电出版社, 2022.

+ 483 - 83
docs/chapter2/chapter2.md

@@ -1,123 +1,523 @@
-## 2.20
-$$\text{AUC}=\frac{1}{2}\sum_{i=1}^{m-1}(x_{i+1} - x_i)\cdot(y_i + y_{i+1})$$
-[解析]:在解释$\text{AUC}$公式之前,我们需要先弄清楚$\text{ROC}$曲线的具体绘制过程,下面我们就举个例子,按照西瓜书图2.4下方给出的绘制方法来讲解一下$\text{ROC}$曲线的具体绘制过程。假设我们已经训练得到一个学习器$f(s)$,现在用该学习器来对我们的8个测试样本(4个正例,4个反例,也即$m^+=m^-=4$)进行预测,假设预测结果为:
-$$(s_1,0.77,+),(s_2,0.62,-),(s_3,0.58,+),(s_4,0.47,+),(s_5,0.47,-),(s_6,0.33,-),(s_7,0.23,+),(s_8,0.15,-)$$
-其中,$+$和$-$分别表示为正例和为反例,里面的数字表示学习器$f(s)$预测该样本为正例的概率,例如对于反例$s_2$来说,当前学习器$f(s)$预测它是正例的概率为$0.62$。根据西瓜书上给出的绘制方法可知,首先需要对所有测试样本按照学习器给出的预测结果进行排序(上面给出的预测结果已经按照预测值从大到小排好),接着将分类阈值设为一个不可能取到的最大值,显然这时候所有样本预测为正例的概率都一定小于分类阈值,那么预测为正例的样本个数为0,相应的真正例率和假正例率也都为0,所以此时我们可以在坐标$(0,0)$处打一个点。接下来我们需要把分类阈值从大到小依次设为每个样本的预测值,也就是依次设为$0.77、0.62、0.58、0.47、0.33、0.23、0.15$,然后每次计算真正例率和假正例率,再在相应的坐标上打一个点,最后再将各个点用直线串连起来即可得到$\text{ROC}$曲线。需要注意的是,在统计预测结果时,预测值等于分类阈值的样本也算作预测为正例。例如,当分类阈值为$0.77$时,测试样本$s_1$被预测为正例,由于它的真实标记也是正例,所以此时$s_1$是一个真正例。为了便于绘图,我们将$x$轴(假正例率轴)的“步长”定为$\frac{1}{m^-}$,$y$轴(真正例率轴)的“步长”定为$\frac{1}{m^+}$,这样的话,根据真正例率和假正例率的定义可知,每次变动分类阈值时,若新增$i$个假正例,那么相应的$x$轴坐标也就增加$\frac{i}{m^-}$,同理,若新增$j$个真正例,那么相应的$y$轴坐标也就增加$\frac{j}{m^+}$。按照以上讲述的绘制流程,最终我们可以绘制出如下图所示的$\text{ROC}$曲线
-<center><img src="https://raw.githubusercontent.com/datawhalechina/pumpkin-book/master/docs/chapter2/resources/images/roc.png" width= "300"/></center>
-在这里我们为了能在解析公式(2.21)时复用此图所以没有写上具体地数值,转而用其数学符号代替。其中绿色线段表示在分类阈值变动的过程中只新增了真正例,红色线段表示只新增了假正例,蓝色线段表示既新增了真正例也新增了假正例。根据$\text{AUC}$值的定义可知,此时的$\text{AUC}$值其实就是所有红色线段和蓝色线段与$x$轴围成的面积之和。观察上图可知,红色线段与$x$轴围成的图形恒为矩形,蓝色线段与$x$轴围成的图形恒为梯形,但是由于梯形面积公式既能算梯形面积,也能算矩形面积,所以无论是红色线段还是蓝色线段,其与$x$轴围成的面积都能用梯形公式来计算,也即
-$$\frac{1}{2}\cdot(x_{i+1} - x_i)\cdot(y_i + y_{i+1})$$
-其中,$(x_{i+1} - x_i)$表示“高”,$y_i$表示“上底”,$y_{i+1}$表示“下底”。那么
-$$\sum_{i=1}^{m-1}\left[\frac{1}{2}\cdot(x_{i+1} - x_i)\cdot(y_i + y_{i+1})\right]$$
-表示的便是对所有红色线段和蓝色线段与$x$轴围成的面积进行求和,此即为$\text{AUC}$
-
-## 2.21
-$$\ell_{rank}=\frac{1}{m^+m^-}\sum_{\boldsymbol{x}^+ \in D^+}\sum_{\boldsymbol{x}^- \in D^-}\left(\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\frac{1}{2}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right)$$
-[解析]:按照我们上述对公式(2.20)的解析思路,$\ell_{rank}$可以看作是所有绿色线段和蓝色线段与$y$轴围成的面积之和,但是公式(2.21)很难一眼看出其面积的具体计算方式,因此我们需要将公式(2.21)进行恒等变形
+# 第2章 模型评估与选择
+
+如"西瓜书"前言所述,本章仍属于机器学习基础知识,如果说第1章介绍了什么是机器学习及机器学习的相关数学符号,那么本章则进一步介绍机器学习的相关概念。具体来说,介绍内容正如本章名称"模型评估与选择"所述,讲述的是如何评估模型的优劣和选择最适合自己业务场景的模型。
+
+由于"模型评估与选择"是在模型产出以后进行的下游工作,要想完全吸收本章内容需要读者对模型有一些基本的认知,因此零基础的读者直接看本章会很吃力,实属正常,在此建议零基础的读者可以简单泛读本章,仅看能看懂的部分即可,或者直接跳过本章从第3章开始看,直至看完第6章以后再回头来看本章便会轻松许多。
+
+## 2.1 经验误差与过拟合
+
+梳理本节的几个概念。
+
+**错误率**:$E=\frac{a}{m}$,其中$m$为样本个数,$a$为分类错误样本个数。
+
+**精度**:精度=1-错误率。
+
+**误差**:学习器的实际预测输出与样本的真实输出之间的差异。
+
+**经验误差**:学习器在训练集上的误差,又称为"训练误差"。
+
+**泛化误差**:学习器在新样本上的误差。
+
+经验误差和泛化误差用于分类问题的定义式可参见"西瓜书"第12章的式(12.1)和式(12.2),接下来辨析一下以上几个概念。
+
+错误率和精度很容易理解,而且很明显是针对分类问题的。误差的概念更适用于回归问题,但是,根据"西瓜书"第12章的式(12.1)和式(12.2)的定义可以看出,在分类问题中也会使用误差的概念,此时的"差异"指的是学习器的实际预测输出的类别与样本真实的类别是否一致,若一致则"差异"为0,若不一致则"差异"为1,训练误差是在训练集上差异的平均值,而泛化误差则是在新样本(训练集中未出现过的样本)上差异的平均值。
+
+**过拟合**是由于模型的学习能力相对于数据来说过于强大,反过来说,**欠拟合**是因为模型的学习能力相对于数据来说过于低下。暂且抛开"没有免费的午餐"定理不谈,例如对于"西瓜书"第1章图1.4中的训练样本(黑点)来说,用类似于抛物线的曲线A去拟合则较为合理,而比较崎岖的曲线B相对于训练样本来说学习能力过于强大,但若仅用一条直线去训练则相对于训练样本来说直线的学习能力过于低下。
+
+## 2.2 评估方法
+
+本节介绍了3种模型评估方法:留出法、交叉验证法、自助法。留出法由于操作简单,因此最常用;交叉验证法常用于对比同一算法的不同参数配置之间的效果,以及对比不同算法之间的效果;自助法常用于集成学习(详见"西瓜书"第8章的8.2节和8.3节)产生基分类器。留出法和自助法简单易懂,在此不再赘述,下面举例说明交叉验证法的常用方式。
+
+**对比同一算法的不同参数配置之间的效果**:假设现有数据集$D$,且有一个被评估认为适合用于数据集$D$的算法$\mathfrak{L}$,该算法有可配置的参数,假设备选的参数配置方案有两套:方案$a$,方案$b$。下面通过交叉验证法为算法$\mathfrak{L}$筛选出在数据集$D$上效果最好的参数配置方案。以3折交叉验证为例,首先按照"西瓜书"中所说的方法,通过分层采样将数据集$D$划分为3个大小相似的互斥子集:$D_{1},D_{2},D_{3}$,然后分别用其中1个子集作为测试集,其他子集作为训练集,这样就可获得3组训练集和测试集:
+
+训练集1:$D_{1}\cup D_{2}$,测试集1:$D_{3}$
+
+训练集2:$D_{1}\cup D_{3}$,测试集2:$D_{2}$
+
+训练集3:$D_{2}\cup D_{3}$,测试集3:$D_{1}$
+
+接下来用算法$\mathfrak{L}$搭配方案$a$在训练集1上进行训练,训练结束后将训练得到的模型在测试集1上进行测试,得到测试结果1,依此方法再分别通过训练集2和测试集2、训练集3和测试集3得到测试结果2和测试结果3,最后将3次测试结果求平均即可得到算法$\mathfrak{L}$搭配方案$a$在数据集$D$上的最终效果,记为$Score_{a}$。同理,按照以上方法也可得到算法$\mathfrak{L}$搭配方案$b$在数据集$D$上的最终效果$Score_{b}$,最后通过比较$Score_{a}$和$Score_{b}$之间的优劣来确定算法$\mathfrak{L}$在数据集$D$上效果最好的参数配置方案。
+
+**对比不同算法之间的效果**:同上述"对比同一算法的不同参数配置之间的效果"中所讲的方法一样,只需将其中的"算法$\mathfrak{L}$搭配方案$a$"和"算法$\mathfrak{L}$搭配方案$b$"分别换成需要对比的算法$\alpha$和算法$\beta$即可。
+
+从以上的举例可以看出,交叉验证法本质上是在进行多次留出法,且每次都换不同的子集做测试集,最终让所有样本均至少做1次测试样本。这样做的理由其实很简单,因为一般的留出法只会划分出1组训练集和测试集,仅依靠1组训练集和测试集去对比不同算法之间的效果显然不够置信,偶然性太强,因此要想基于固定的数据集产生多组不同的训练集和测试集,则只有进行多次划分,每次采用不同的子集作为测试集,也即为交叉验证法。
+
+### 2.2.1 算法参数(超参数)与模型参数
+
+算法参数是指算法本身的一些参数(也称超参数),例如$k$近邻的近邻个数$k$、支持向量机的参数$C$(详见"西瓜书"第6章式(6.29))。算法配置好相应参数后进行训练,训练结束会得到一个模型,例如支持向量机最终会得到$\boldsymbol{w}$和$b$的具体数值(此处不考虑核函数),这就是模型参数,模型配置好相应模型参数后即可对新样本做预测。
+
+### 2.2.2 验证集
+
+带有参数的算法一般需要从候选参数配置方案中选择相对于当前数据集的最优参数配置方案,例如支持向量机的参数$C$,一般采用的是前面讲到的交叉验证法,但是交叉验证法操作起来较为复杂,实际中更多采用的是:先用留出法将数据集划分出训练集和测试集,然后再对训练集采用留出法划分出训练集和新的测试集,称新的测试集为验证集,接着基于验证集的测试结果来调参选出最优参数配置方案,最后将验证集合并进训练集(训练集数据量够的话也可不合并),用选出的最优参数配置在合并后的训练集上重新训练,再用测试集来评估训练得到的模型的性能。
+
+## 2.3 性能度量
+
+本节性能度量指标较多,但是一般常用的只有错误率、精度、查准率、查全率、F1、ROC和AUC。
+
+### 2.3.1 式(2.2)到式(2.7)的解释
+
+这几个公式简单易懂,几乎不需要额外解释,但是需要补充说明的是式(2.2)、式(2.4)和式(2.5)假设了数据分布为均匀分布,即每个样本出现的概率相同,而式(2.3)、式(2.6)和式(2.7)则为更一般的表达式。此外,在无特别说明的情况下,2.3节所有公式中的"样例集$D$"均默认为非训练集(测试集、验证集或其他未用于训练的样例集)。
+
+### 2.3.2 式(2.8)和式(2.9)的解释
+
+查准率$P$:被学习器预测为**正例**的样例中有多大比例是**真正例**。
+
+查全率$R$:所有**正例**当中有多大比例被学习器预测为**正例**。
+
+### 2.3.3 图2.3的解释
+
+P-R曲线的画法与ROC曲线的画法类似,也是通过依次改变模型阈值,然后计算出查准率和查全率并画出相应坐标点,具体参见"式(2.20)的推导"部分的讲解。这里需要说明的是,"西瓜书"中的图2.3仅仅是示意图,除了图左侧提到的"现实任务中的P-R曲线常是非单调、不平滑的,在很多局部有上下波动"以外,通常不会取到$(1,0)$点。当取到$(1,0)$点时,就会将所有样本均判为正例,此时$FN=0$,根据式(2.9)可算得查全率为1,但是此时$TP+FP$为样本总数,根据式(2.8)可算得查准率此时为正例在全体样本中的占比,显然在现实任务中正例的占比通常不为0,因此P-R曲线在现实任务中通常不会取到$(1,0)$点。
+
+### 2.3.4 式(2.10)的推导
+
+将式(2.8)和式(2.9)代入式(2.10),得
+
+$$\begin{aligned}
+F1 &=\frac{2 \times P \times R}{P+R}=\frac{2 \times \frac{TP}{TP+FP} \times \frac{TP}{TP+FN}}{\frac{TP}{TP+FP}+\frac{TP}{TP+FN}} \\
+&=\frac{2 \times TP \times TP}{TP(TP+FN)+T P(TP+FP)} \\
+&=\frac{2 \times TP}{(TP+FN)+(TP+FP)}\\
+&=\frac{2 \times TP}{(TP+FN+FP+TN)+TP-TN}\\
+&=\frac{2 \times TP}{\text{样例总数}+TP-TN}\\
+\end{aligned}$$
+
+若现有数据集$D=\left\{\left(\boldsymbol{x}_{i}, y_{i}\right) \mid 1 \leqslant i \leqslant m\right\}$,其中标记$y_{i}\in\{0,1\}$(1表示正例,0表示反例),假设模型$f(\boldsymbol{x})$对$\boldsymbol{x}_{i}$的预测结果为$h_i\in\{0,1\}$,则模型$f(\boldsymbol{x})$在数据集$D$上的$F1$为
+
+$$F1=\frac{2 \sum_{i=1}^{m} y_{i} h_{i}}{\sum_{i=1}^{m} y_{i}+\sum_{i=1}^{m} h_{i}}$$
+
+不难看出上式的本质为
+
+$$F1=\frac{2 \times TP}{(TP+FN)+(TP+FP)}$$
+
+### 2.3.5 式(2.11)的解释
+
+"西瓜书"在式(2.11)左侧提到$F_{\beta}$本质是加权调和平均,且和常用的算数平均相比,其更重视较小值,在此举例说明。例如a同学有两门课的成绩分别为100分和60分,b同学相应的成绩为80分和80分,此时若计算a同学和b同学的算数平均分则均为80分,无法判断两位同学成绩的优劣,但是若计算加权调和平均,当$\beta=1$时,a同学的加权调和平均为$\frac{2\times 100 \times 60}{100+60}=75$,b同学的加权调和平均为$\frac{2\times 80 \times 80}{80+80}=80$,此时b同学的平均成绩更优,原因是a同学由于偏科导致其中一门成绩过低,而调和平均更重视较小值,所以a同学的偏科便被凸显出来。
+
+式(2.11)下方有提到"$\beta>1$时查全率有更大影响;$\beta<1$时查准率有更大影响",下面解释其原因。将式(2.11)恒等变形为如下形式
+
+$$F_{\beta}=\frac{1}{\frac{1}{1+\beta^{2}}\cdot\frac{1}{P}+\frac{\beta^{2}}{1+\beta^{2}}\cdot\frac{1}{R}}$$
+
+从上式可以看出,当$\beta>1$时$\frac{\beta^{2}}{1+\beta^{2}}>\frac{1}{1+\beta^{2}}$,所以$\frac{1}{R}$的权重比$\frac{1}{P}$的权重高,因此查全率$R$对$F_{\beta}$的影响更大,反之查准率$P$对$F_{\beta}$的影响更大。
+
+### 2.3.6 式(2.12)到式(2.17)的解释
+
+式(2.12)的$\text{macro-}P$和式(2.13)的$\text{macro-}R$是基于各个二分类问题的$P$和$R$计算而得的;式(2.15)的$\text{micro-}P$和式(2.16)的$\text{micro-}R$是基于各个二分类问题的$TP$、$FP$、$TN$、$FN$计算而得的;"宏"可以认为是只关注宏观而不看具体细节,而"微"可以认为是要从具体细节做起,因为相比于$P$和$R$指标来说,$TP$、$FP$、$TN$、$FN$更微观,毕竟$P$和$R$是基于$TP$、$FP$、$TN$、$FN$计算而得。
+
+从"宏"和"微"的计算方式可以看出,"宏"没有考虑每个类别下的的样本数量,所以平等看待每个类别,因此会受到高$P$和高$R$类别的影响,而"微"则考虑到了每个类别的样本数量,因为样本数量多的类相应的$TP$、$FP$、$TN$、$FN$也会占比更多,所以在各类别样本数量极度不平衡的情况下,数量较多的类别会主导最终结果。
+
+式(2.14)的$\text{macro-}F1$是将$\text{macro-}P$和$\text{macro-}R$代入式(2.10)所得;式(2.17)的$\text{micro-}F1$是将$\text{micro-}P$和$\text{micro-}R$代入式(2.10)所得。值得一提的是,以上只是$\text{macro-}F1$和$\text{micro-}F1$的常用计算方式之一,如若在查阅资料的过程中看到其他的计算方式也属正常。
+
+### 2.3.7 式(2.18)和式(2.19)的解释
+
+式(2.18)定义了真正例率TPR。先解释公式中出现的真正例和假反例,真正例即实际为正例预测结果也为正例,假反例即实际为正例但预测结果为反例,式(2.18)分子为真正例,分母为真正例和假反例之和(即实际的正例个数),因此式(2.18)的含义是所有**正例**当中有多大比例被预测为**正例**(即查全率Recall)。
+
+式(2.19)定义了假正例率FPR。先解释式子中出现的假正例和真反例,假正例即实际为反例但预测结果为正例,真反例即实际为反例预测结果也为反例,式(2.19)分子为假正例,分母为真反例和假正例之和(即实际的反例个数),因此式(2.19)的含义是所有**反例**当中有多大比例被预测为**正例**。
+
+除了真正例率TPR和假正例率FPR,还有真反例率TNR和假反例率FNR:
+
+$$\begin{aligned}
+    \mathrm{TNR}=\frac{TN}{FP+TN} \\
+    \mathrm{FNR}=\frac{FN}{TP+FN}
+\end{aligned}$$
+
+### 2.3.8 式(2.20)的推导
+
+在推导式(2.20)之前,需要先弄清楚$\text{ROC}$曲线的具体绘制过程。下面我们就举个例子,按照"西瓜书"图2.4下方给出的绘制方法来讲解一下$\text{ROC}$曲线的具体绘制过程。
+
+假设我们已经训练得到一个学习器$f(\boldsymbol{s})$,现在用该学习器来对8个测试样本(4个正例,4个反例,即$m^+=m^-=4$)进行预测,预测结果为 **(此处用$\boldsymbol{s}$表示样本,以和坐标$(x,y)$作出区分)**:
+
+$$\begin{aligned}
+&(\boldsymbol{s}_1,0.77,+),(\boldsymbol{s}_2,0.62,-),(\boldsymbol{s}_3,0.58,+),(\boldsymbol{s}_4,0.47,+),\\
+&(\boldsymbol{s}_5,0.47,-),(\boldsymbol{s}_6,0.33,-),(\boldsymbol{s}_7,0.23,+),(\boldsymbol{s}_8,0.15,-)
+\end{aligned}$$
+
+其中,$+$和$-$分别表示样本为正例和为反例,数字表示学习器$f$预测该样本为正例的概率,例如对于反例$\boldsymbol{s}_2$来说,当前学习器$f(\boldsymbol{s})$预测它是正例的概率为$0.62$。
+
+根据"西瓜书"上给出的绘制方法,首先需要对所有测试样本按照学习器给出的预测结果进行排序 **(上面给出的预测结果已经按照预测值从大到小排序)** ,接着将分类阈值设为一个不可能取到的超大值,例如设为1。显然,此时所有样本预测为正例的概率都一定小于分类阈值,那么预测为正例的样本个数为0,相应的真正例率和假正例率也都为0,所以我们可以在坐标$(0,0)$处标记一个点。接下来需要把分类阈值从大到小依次设为每个
+样本的预测值,也就是依次设为0.77, 0.62, 0.58, 0.47, 0.33,
+0.23,0.15,然后分别计算真正例率和假正例率,再在相应的坐标上标记点,最后再将各个点用直线连接,
+即可得到$\text{ROC}$曲线。需要注意的是,在统计预测结果时,预测值等于分类阈值的样本也被算作预测为正例。例如,当分类阈值为$0.77$时,测试样本
+$\boldsymbol{s}_{1}$被预测为正例,由于它的真实标记也是正例,所以此时$\boldsymbol{s}_{1}$是一个真正例。为了便于绘图,我们将$x$轴(假正例率轴)的"步长"定为$\frac{1}{m^-}$,$y$轴(真正例率轴)的"步长"定为$\frac{1}{m^+}$。根据真正例率和假正例率的定义可知,每次变动分类阈值时,若新增$i$个假正例,那么相应的$x$轴坐标也就增加$\frac{i}{m^-}$;若新增$j$个真正例,那么相应的$y$轴坐标也就增加$\frac{j}{m^+}$。按照以上讲述的绘制流程,最终我们可以绘制出如图2-1所示的$\text{ROC}$曲线。
+
+![图2-1 ROC曲线示意](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/06419b28-ca3b-4719-a6df-60f81dc9d44b-roc.svg)
+
+在这里,为了能在解释式(2.21)时复用此图,我们没有写上具体的数值,转而用其数学符号代替。其中绿色线段表示在分类阈值变动的过程中只新增了真正例,红色线段表示只新增了假正例,蓝色线段表示既新增了真正例也新增了假正例。根据$\text{AUC}$值的定义可知,此时的$\text{AUC}$值其实就是所有红色线段和蓝色线段与$x$轴围成的面积之和。观察图2-1可知,红色线段与$x$轴围成的图形恒为矩形,蓝色线段与$x$轴围成的图形恒为梯形。由于梯形面积式既能算梯形面积,也能算矩形面积,所以无论是红色线段还是蓝色线段,其与$x$轴围成的面积都能用梯形公式来计算:
+
+$$\frac{1}{2}\cdot(x_{i+1} - x_{i})\cdot(y_{i} + y_{i+1})$$
+
+其中,$(x_{i+1} - x_i)$为"高",$y_i$为"上底",$y_{i+1}$为"下底"。那么对所有红色线段和蓝色线段与$x$轴围成的面积进行求和,则有
+
+$$\sum_{i=1}^{m-1}\left[\frac{1}{2}\cdot(x_{i+1} - x_{i})\cdot(y_{i} + y_{i+1})\right]$$
+
+此即为$\text{AUC}$。
+
+通过以上$\text{ROC}$曲线的绘制流程可以看出,$\text{ROC}$曲线上每一个点都表示学习器$f(s)$在特定阈值下构成的一个二分类器,越好的二分类器其假正例率(反例被预测错误的概率,横轴)越小,真正例率(正例被预测正确的概率,纵轴)越大,所以这个点越靠左上角(即点$(0,1)$)越好。因此,越好的学习器,其$\text{ROC}$曲线上的点越靠左上角,相应的$\text{ROC}$曲线下的面积也越大,即AUC也越大。
+
+### 2.3.9 式(2.21)和式(2.22)的推导
+
+下面针对"西瓜书"上所说的"$\ell_{rank}$对应的是ROC曲线之上的面积"进行推导。按照我们上述对式(2.20)的推导思路,$\ell_{rank}$可以看作是所有绿色线段和蓝色线段与$y$轴围成的面积之和,但从式(2.21)中很难一眼看出其面积的具体计算方式,因此我们进行恒等变形如下:
+
 $$\begin{aligned}
 \ell_{rank}&=\frac{1}{m^+m^-}\sum_{\boldsymbol{x}^+ \in D^+}\sum_{\boldsymbol{x}^- \in D^-}\left(\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\frac{1}{2}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right) \\
 &=\frac{1}{m^+m^-}\sum_{\boldsymbol{x}^+ \in D^+}\left[\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\frac{1}{2}\cdot\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right] \\
 &=\sum_{\boldsymbol{x}^+ \in D^+}\left[\frac{1}{m^+}\cdot\frac{1}{m^-}\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\frac{1}{2}\cdot\frac{1}{m^+}\cdot\frac{1}{m^-}\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right] \\
 &=\sum_{\boldsymbol{x}^+ \in D^+}\frac{1}{2}\cdot\frac{1}{m^+}\cdot\left[\frac{2}{m^-}\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\frac{1}{m^-}\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right] \\
 \end{aligned}$$
-根据公式(2.20)中给出的$\text{ROC}$曲线图可知,在变动分类阈值的过程当中,如果有新增真正例,那么相应地就会增加一条绿色线段或蓝色线段,所以上式中的$\sum\limits_{\boldsymbol{x}^+ \in D^+}$可以看作是在遍历所有绿色和蓝色线段,那么相应地$\sum\limits_{\boldsymbol{x}^+ \in D^+}$后面的那一项便是在求绿色线段或者蓝色线段与$y$轴围成的面积,也即
+
+在变动分类阈值的过程当中,如果有新增真正例,那么图2-1就会相应地增加一条绿色线段或蓝色线段,所以上式中的$\sum_{\boldsymbol{x}^+ \in D^+}$可以看作是在累加所有绿色和蓝色线段,相应地,$\sum_{\boldsymbol{x}^+
+\in D^+}$后面的内容便是在求绿色线段或者蓝色线段与$y$轴围成的面积,即:
+
 $$\frac{1}{2}\cdot\frac{1}{m^+}\cdot\left[\frac{2}{m^-}\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\frac{1}{m^-}\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right]$$
-同公式(2.20)中的求解思路一样,不论是绿色线段还是蓝色线段,其与$y$轴围成的图形面积都可以用梯形公式来进行计算,所以上式表示的依旧是一个梯形的面积求解公式。其中$\frac{1}{m^+}$即为梯形的“高”,中括号中的那一项便是“上底+下底”,下面我们来分别推导一下“上底”(较短的那个底)和“下底”。由于在绘制$\text{ROC}$曲线的过程中,每新增一个假正例时$x$坐标也就新增一个单位,所以对于“上底”,也就是绿色或者蓝色线段的下端点到$y$轴的距离,它就等于$\frac{1}{m^-}$乘以预测值比$\boldsymbol{x^+}$大的假正例的个数,也即
+
+与式(2.20)中的推导思路相同,不论是绿色线段还是蓝色线段,其与$y$轴围成的图形面积都可以用梯形公式来进行计算,所以上式表示的依旧是一个梯形的面积公式。其中$\frac{1}{m^+}$即梯形的"高",中括号内便是"上底+下底",下面我们来分别推导一下"上底"(较短的底)
+和"下底"(较长的底)。
+
+由于在绘制$\text{ROC}$曲线的过程中,每新增一个假正例时$x$坐标也就新增一个步长,所以对于"上底",也就是绿色或者蓝色线段的下端点到$y$轴的距离,长度就等于$\frac{1}{m^-}$乘以预测值大于$f(\boldsymbol{x}^+)$的假正例的个数,即
+
 $$\frac{1}{m^-}\sum\limits_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)$$
-而对于“下底”,它就等于$\frac{1}{m^-}$乘以预测值大于等于$\boldsymbol{x^+}$的假正例的个数,也即
+
+而对于"下底",长度就等于$\frac{1}{m^-}$乘以预测值大于等于$f(\boldsymbol{x}^+)$的假正例的个数,即
+
 $$\frac{1}{m^-}\left(\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)+\sum_{\boldsymbol{x}^- \in D^-}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right)$$
 
-## 2.27
+到此,推导完毕。
+
+若不考虑$f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)$,从直观上理解$\ell_{rank}$,其表示的是:对于待测试的模型$f(\boldsymbol{x})$,从测试集中随机抽取一个正反例对儿$\{\boldsymbol{x}^{+},\boldsymbol{x}^{-}\}$,模型$f(\boldsymbol{x})$对正例的打分$f(\boldsymbol{x}^{+})$小于对反例的打分$f(\boldsymbol{x}^{-})$的概率,即"排序错误"的概率。推导思路如下:采用频率近似概率的思路,组合出测试集中的所有正反例对儿,假设组合出来的正反例对儿的个数为$m$,用模型$f(\boldsymbol{x})$对所有正反例对儿打分并统计"排序错误"的正反例对儿个数$n$,然后计算出$\frac{n}{m}$即为模型$f(\boldsymbol{x})$"排序错误"的正反例对儿的占比,其可近似看作为$f(\boldsymbol{x})$在测试集上"排序错误"的概率。具体推导过程如下:测试集中的所有正反例对儿的个数为
+
+$$m^+\times m^-$$ 
+
+"排序错误"的正反例对儿个数为
+
+$$\sum_{\boldsymbol{x}^+ \in D^+}\sum_{\boldsymbol{x}^- \in D^-}\left(\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)\right)$$
+
+因此,"排序错误"的概率为
+
+$$\frac{\sum_{\boldsymbol{x}^+ \in D^+}\sum_{\boldsymbol{x}^- \in D^-}\left(\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)\right)\right)}{m^+\times m^-}$$
+
+若再考虑$f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)$时算半个"排序错误",则上式可进一步扩展为
+
+$$\frac{\sum_{\boldsymbol{x}^+ \in D^+}\sum_{\boldsymbol{x}^- \in D^-}\left(\mathbb{I}\left(f(\boldsymbol{x}^+)<f(\boldsymbol{x}^-)+\frac{1}{2}\mathbb{I}\left(f(\boldsymbol{x}^+)=f(\boldsymbol{x}^-)\right)\right)\right)}{m^+\times m^-}$$
+
+此即为$\ell_{rank}$。
+
+如果说$\ell_{rank}$指的是从测试集中随机抽取正反例对儿,模型$f(\boldsymbol{x})$"排序错误"的概率,那么根据式(2.22)可知,AUC则指的是从测试集中随机抽取正反例对儿,模型$f(\boldsymbol{x})$"排序正确"的概率。显然,此概率越大越好。
+
+### 2.3.10 式(2.23)的解释
+
+本公式很容易理解,只是需要注意该公式上方交代了"若将表2.2中的第0类作为正类、第1类作为反类",若不注意此条件,按习惯(0为反类、1为正类)会产生误解。为避免产生误解,在接下来的解释中将$cost_{01}$记为$cost_{+-}$,$cost_{10}$记为$cost_{-+}$。本公式还可以作如下恒等变形
+
+$$\begin{aligned}
+E(f;D;cost) &=\frac{1}{m}\left(m^{+} \times \frac{1}{m^{+}} \sum_{\boldsymbol{x}_{i} \in D^{+}} \mathbb{I}\left(f\left(\boldsymbol{x}_{i} \neq y_{i}\right)\right) \times cost_{+-}+m^{-} \times \frac{1}{m^{-}} \sum_{\boldsymbol{x}_{i} \in D^{-}} \mathbb{I}\left(f\left(\boldsymbol{x}_{i} \neq y_{i}\right)\right) \times cost_{-+}\right) \\
+&=\frac{m^{+}}{m} \times \frac{1}{m^{+}} \sum_{\boldsymbol{x}_{i} \in D^{+}} \mathbb{I}\left(f\left(\boldsymbol{x}_{i} \neq y_{i}\right)\right) \times cost_{+-}+\frac{m^{-}}{m} \times \frac{1}{m^{-}} \sum_{\boldsymbol{x}_{i} \in D^{-}} \mathbb{I}\left(f\left(\boldsymbol{x}_{i} \neq y_{i}\right)\right) \times cost_{-+}
+\end{aligned}$$
+
+其中$m^{+}$和$m^{-}$分别表示正例集$D^{+}$和反例集$D^{-}$的样本个数。
+
+$\frac{1}{m^{+}} \sum_{\boldsymbol{x}_{i} \in D^{+}} \mathbb{I}\left(f\left(\boldsymbol{x}_{i} \neq y_{i}\right)\right)$表示正例集$D^{+}$中预测错误样本所占比例,即假反例率FNR。
+
+$\frac{1}{m^{-}} \sum_{\boldsymbol{x}_{i} \in D^{-}} \mathbb{I}\left(f\left(\boldsymbol{x}_{i} \neq y_{i}\right)\right)$表示反例集$D^{-}$中预测错误样本所占比例,即假正例率FPR。
+
+$\frac{m^{+}}{m}$表示样例集$D$中正例所占比例,或理解为随机从$D$中取一个样例取到正例的概率。
+
+$\frac{m^{-}}{m}$表示样例集$D$中反例所占比例,或理解为随机从$D$中取一个样例取到反例的概率。
+
+因此,若将样例为正例的概率$\frac{m^{+}}{m}$记为$p$,则样例为f反例的概率$\frac{m^{-}}{m}$为$1-p$,上式可进一步写为
+
+$$E(f;D;cost)=p \times \mathrm{FNR} \times cost_{+-}+(1-p) \times \mathrm{FPR} \times cost_{-+}$$
+
+此公式在接下来式(2.25)的解释中会用到。
+
+### 2.3.11 式(2.24)的解释
+
+当$cost_{+-}=cost_{-+}$时,本公式可化简为
+
+$$P(+)cost=\frac{p}{p+(1-p)}=p$$
+
+其中$p$是样例为正例的概率(一般用正例在样例集中所占的比例近似代替)。因此,当代价不敏感时(也即$cost_{+-}=cost_{-+}$),$P(+)cost$就是正例在样例集中的占比。那么,当代价敏感时(也即$cost_{+-}\neq cost_{-+}$),$P(+)cost$即为正例在样例集中的加权占比。具体来说,对于样例集
+
+$$D=\left\{\boldsymbol{x}_{1}^{+}, \boldsymbol{x}_{2}^{+}, \boldsymbol{x}_{3}^{-}, \boldsymbol{x}_{4}^{-}, \boldsymbol{x}_{5}^{-}, \boldsymbol{x}_{6}^{-}, \boldsymbol{x}_{7}^{-}, \boldsymbol{x}_{8}^{-}, \boldsymbol{x}_{9}^{-}, \boldsymbol{x}_{10}^{-}\right\}$$
+
+其中$\boldsymbol{x}^{+}$表示正例,$\boldsymbol{x}^{-}$表示反例。可以看出$p=0.2$,若想让正例得到更多重视,考虑代价敏感$cost_{+-}=4$和$cost_{-+}=1$,这实际等价于在以下样例集上进行代价不敏感的正例概率代价计算
+
+$$D^{\prime}=\left\{\boldsymbol{x}_{1}^{+}, \boldsymbol{x}_{1}^{+}, \boldsymbol{x}_{1}^{+}, \boldsymbol{x}_{1}^{+}, \boldsymbol{x}_{2}^{+}, \boldsymbol{x}_{2}^{+}, \boldsymbol{x}_{2}^{+}, \boldsymbol{x}_{2}^{+}, \boldsymbol{x}_{3}^{-}, \boldsymbol{x}_{4}^{-}, \boldsymbol{x}_{5}^{-}, \boldsymbol{x}_{6}^{-}, \boldsymbol{x}_{7}^{-}, \boldsymbol{x}_{8}^{-}, \boldsymbol{x}_{9}^{-}, \boldsymbol{x}_{10}^{-}\right\}$$
+
+即将每个正例样本复制4份,若有1个出错,则有4个一起出错,代价为4。此时可计算出
+
+$$\begin{aligned}
+P(+) cost &=\frac{p \times cost_{+-}}{p \times cost_{+-}+(1-p) \times cost_{-+}} \\
+&=\frac{0.2 \times 4}{0.2 \times 4+(1-0.2) \times 1}=0.5
+\end{aligned}$$
+
+也就是正例在等价的样例集$D^{\prime}$中的占比。所以,无论代价敏感还是不敏感,$P(+)cost$本质上表示的都是样例集中正例的占比。在实际应用过程中,如果由于某种原因无法将$cost_{+-}$和$cost_{-+}$设为不同取值,可以采用上述"复制样本"的方法间接实现将$cost_{+-}$和$cost_{-+}$设为不同取值。
+
+对于不同的$cost_{+-}$和$cost_{-+}$取值,若二者的比值保持相同,则$P(+)cost$不变。例如,对于上面的例子,若设$cost_{+-}=40$和$cost_{-+}=10$,所得$P(+)cost$仍为0.5。
+
+此外,根据此式还可以相应地推导出反例概率代价
+
+$$P(-) cost=1-P(+) cost=\frac{(1-p) \times cost_{-+}}{p \times cost_{+-}+(1-p) \times cost_{-+}}$$
+
+### 2.3.12 式(2.25)的解释
+
+对于包含$m$个样本的样例集$D$,可以算出学习器$f(\boldsymbol{x})$总的代价是
+
+$$\begin{aligned}
+cost_{se} &=m \times p \times \mathrm{FNR} \times cost_{+-}+m \times(1-p) \times \mathrm{FPR} \times cost_{-+} \\
+&+m \times p \times \mathrm{TPR} \times cost_{++}+m \times(1-p) \times \mathrm{TNR} \times cost_{--}
+\end{aligned}$$
+
+其中$p$是正例在样例集中所占的比例(或严格地称为样例为正例的概率),$cost_{se}$下标中的"se"表示sensitive,即代价敏感,根据前面讲述的FNR、FPR、TPR、TNR的定义可知:
+
+$m \times p \times \mathrm{FNR}$表示正例被预测为反例(正例预测错误)的样本个数;
+
+$m \times(1-p) \times \mathrm{FPR}$表示反例被预测为正例(反例预测错误)的样本个数;
+
+$m \times p \times \mathrm{TPR}$表示正例被预测为正例(正例预测正确)的样本个数;
+
+$m \times(1-p) \times \mathrm{TNR}$表示反例预测为反例(反例预测正确)的样本个数。
 
-$$\overline{\epsilon}=\max \epsilon\quad \text { s.t. } \sum_{i= \epsilon_{0} \times m+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \epsilon^{i}(1-\epsilon)^{m-i}<\alpha$$
+以上各种样本个数乘以相应的代价则得到总的代价$cost_{se}$。但是,按照此公式计算出的代价与样本个数$m$呈正比,显然不具有一般性,因此需要除以样本个数$m$,而且一般来说,预测出错才会产生代价,预测正确则没有代价,也即$cost_{++}=cost_{--}=0$,所以$cost_{se}$更为一般化的表达式为
+
+$$cost_{se} = p \times \mathrm{FNR} \times cost_{+-}+(1-p) \times \mathrm{FPR} \times cost_{-+}$$
+
+回顾式(2.23)的解释可知,此式即为式(2.23)的恒等变形,所以此式可以同式(2.23)一样理解为学习器$f(\boldsymbol{x})$在样例集$D$上的"代价敏感错误率"。显然,$cost_{se}$的取值范围并不在0到1之间,且$cost_{se}$在$\mathrm{FNR}=\mathrm{FPR}=1$时取到最大值,因为$\mathrm{FNR}=\mathrm{FPR}=1$时表示所有正例均被预测为反例,反例均被预测为正例,代价达到最大,即
+
+$$max(cost_{se})=p \times cost_{+-}+(1-p) \times cost_{-+}$$
+
+所以,如果要将$cost_{se}$的取值范围归一化到0到1之间,则只需将其除以其所能取到的最大值即可,也即
+
+$$\frac{cost_{se}}{max(cost_{se})}=\frac{p \times \mathrm{FNR} \times cost_{+-}+(1-p) \times \mathrm{FPR} \times cost_{-+}}{p \times cost_{+-}+(1-p) \times cost_{-+}}$$
+
+此即为式(2.25),也即为$cost_{norm}$,其中下标"norm"表示normalization。
+
+进一步地,根据式(2.24)中$P(+)cost$的定义可知,式(2.25)可以恒等变形为
+
+$$cost_{norm}=\mathrm{FNR} \times P(+)cost+\mathrm{FPR} \times(1-P(+)cost)$$
+
+对于二维直角坐标系中的两个点$(0,B)$和$(1,A)$以及实数$p\in[0,1]$,$(p,pA+(1-p)B)$一定是线段$A-B$上的点,且当$p$从0变到1时,点$(p,pA+(1-p)B)$的轨迹为从$(0,B)$到$(1,A)$,基于此,结合上述$cost_{norm}$的表达式可知:$(P(+)cost, cost_{norm})$即为线段$\mathrm{FPR}-\mathrm{FNR}$上的点,当$(P(+)cost$从0变到1时,$(P(+)cost, cost_{norm})$的轨迹为从$(0,\mathrm{FPR})$到$(1,\mathrm{FNR})$
+,也即图2.5中的各条线段。需要注意的是,以上只是从数学逻辑自洽的角度对图2.5中的各条线段进行解释,实际中各条线段并非按照上述方法绘制。理由如下:
+
+$P(+)cost$表示的是样例集中正例的占比,而在进行学习器的比较时,变动的只是训练学习器的算法或者算法的超参数,用来评估学习器性能的样例集是固定的(单一变量原则),所以$P(+)cost$是一个固定值,因此图2.5中的各条线段并不是通过变动$P(+)cost$然后计算$cost_{norm}$画出来的,而是按照"西瓜书"上式(2.25)下方所说对ROC曲线上每一点计算FPR和FNR,然后将点$(0,\mathrm{FPR})$和点$(1,\mathrm{FNR})$直接连成线段。
+
+虽然图2.5中的各条线段并不是通过变动横轴表示的$P(+)cost$来进行绘制,但是横轴仍然有其他用处,例如用来找使学习器的归一化代价$cost_{norm}$达到最小的阈值(暂且称其为最佳阈值)。具体地,首先计算当前样例集的$P(+)cost$值,然后根据计算出来的值在横轴上标记出具体的点,再基于该点作一条垂直于横轴的垂线,与该垂线最先相交(从下往上看)的线段所对应的阈值(因为每条线段都对应ROC曲线上的点,ROC曲线上的点又对应着具体的阈值)即为最佳阈值。原因是与该垂线最先相交的线段必然最靠下,因此其交点的纵坐标最小,而纵轴表示的便是归一化代价$cost_{norm}$,所以此时归一化代价$cost_{norm}$达到最小。特别地,当$P(+)cost=0$时,即样例集中没有正例,全是负例,因此最佳阈值应该是学习器不可能取到的最大值,且按照此阈值计算出来出来的$\mathrm{FPR}=0,\mathrm{FNR}=1,cost_{norm}=0$。那么按照上述作垂线的方法去图2.5中进行实验,也即在横轴0刻度处作垂线,显然与该垂线最先相交的线段是点$(0,0)$和点$(1,1)$连成的线段,交点为$(0,0)$,此时对应的也为$\mathrm{FPR}=0,\mathrm{FNR}=1,cost_{norm}=0$,且该条线段所对应的阈值也确实为"学习器不可能取到的最大值"(因为该线段对应的是ROC曲线中的起始点)。
+
+## 2.4 比较检验
+
+为什么要做比较检验?"西瓜书"在本节开篇的两段话已经交代原由。简单来说,从统计学的角度,取得的性能度量的值本质上仍是一个随机变量,因此并不能简单用比较大小来直接判定算法(或者模型)之间的优劣,而需要更置信的方法来进行判定。
+
+在此说明一下,如果不做算法理论研究,也不需要对算法(或模型)之间的优劣给出严谨的数学分析,本节可以暂时跳过。本节主要使用的数学知识是"统计假设检验",该知识点在各个高校的概率论与数理统计教材(例如参考文献[1])上均有讲解。此外,有关检验变量的公式,例如式(2.30)至式(2.36),并不需要清楚是怎么来的(这是统计学家要做的事情),只需要会用即可。
+
+### 2.4.1 式(2.26)的解释
+
+理解本公式时需要明确的是:$\epsilon$是未知的,是当前希望估算出来的,$\hat{\epsilon}$是已知的,是已经用$m$个测试样本对学习器进行测试得到的。因此,本公式也可理解为:当学习器的泛化错误率为$\epsilon$时,被测得测试错误率为$\hat{\epsilon}$的条件概率。所以本公式可以改写为
+
+$$P(\hat{\epsilon}|\epsilon)=\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right) \epsilon^{\hat{\epsilon} \times m}(1-\epsilon)^{m-\hat{\epsilon} \times m}$$
+
+其中
+
+$$\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right)=\frac{m !}{(\hat{\epsilon} \times m) !(m-\hat{\epsilon} \times m) !}$$
+
+为中学时学的组合数,即$C_{m}^{\hat{\epsilon} \times m}$。
+
+在已知$\hat{\varepsilon}$时,求使得条件概率$P(\hat{\epsilon}|\epsilon)$达到最大的$\epsilon$是概率论与数理统计中经典的极大似然估计问题。从极大似然估计的角度可知,由于$\hat{\epsilon},m$均为已知量,所以$P(\hat{\epsilon}|\epsilon)$可以看作为一个关于$\epsilon$的函数,称为似然函数,于是问题转化为求使得似然函数取到最大值的$\epsilon$,即
+
+$$\epsilon=\mathop{\arg\max}_{\epsilon}P(\hat{\epsilon}|\epsilon)$$
+
+首先对$\epsilon$求一阶导数
+
+$$\begin{aligned}
+\frac{\partial P(\hat{\epsilon} \mid \epsilon)}{\partial \epsilon} &=\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right) \frac{\partial \epsilon^{\hat{\epsilon} \times m}(1-\epsilon)^{m-\hat{\epsilon} \times m}}{\partial \epsilon} \\
+&=\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right)\left(\hat{\epsilon} \times m \times \epsilon^{\hat{\epsilon} \times m-1}(1-\epsilon)^{m-\hat{\epsilon} \times m}+\epsilon^{\hat{\epsilon} \times m} \times(m-\hat{\epsilon} \times m) \times(1-\epsilon)^{m-\hat{\epsilon} \times m-1} \times(-1)\right) \\
+&=\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right) \epsilon^{\hat{\epsilon} \times m-1}(1-\epsilon)^{m-\hat{\epsilon} \times m-1}(\hat{\epsilon} \times m \times(1-\epsilon)-\epsilon \times(m-\hat{\epsilon} \times m)) \\
+&=\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right) \epsilon^{\hat{\epsilon} \times m-1}(1-\epsilon)^{m-\hat{\epsilon} \times m-1}(\hat{\epsilon} \times m-\epsilon \times m)
+\end{aligned}$$
+
+分析上式可知,其中$\left(\begin{array}{c}
+m \\
+\hat{\epsilon} \times m
+\end{array}\right)$为常数,由于$\epsilon \in [0,1]$,所以$\epsilon^{\hat{\epsilon} \times m-1}(1-\epsilon)^{m-\hat{\epsilon} \times m-1}$恒大于0,$(\hat{\epsilon} \times m-\epsilon \times m)$在$0\leqslant\epsilon<\hat{\epsilon}$时大于0,在$\epsilon=\hat{\epsilon}$时等于0,在$\hat{\epsilon}\leqslant\epsilon<1$时小于0,因此$P(\hat{\epsilon} \mid \epsilon)$是关于$\epsilon$开口向下的凹函数(此处采用的是最优化中对凹凸函数的定义,"西瓜书"第3章3.2节左侧边注对凹凸函数的定义也是如此)。所以,当且仅当一阶导数$\frac{\partial P(\hat{\epsilon} \mid \epsilon)}{\partial \epsilon}=0$时$P(\hat{\epsilon} \mid \epsilon)$取到最大值,此时$\epsilon=\hat{\epsilon}$。
+
+### 2.4.2 式(2.27)的推导
+
+截至2021年5月,"西瓜书"第1版第36次印刷,式(2.27)应当勘误为
 
-[推导]:截至2018年12月,第一版第30次印刷,公式(2.27)应当勘误修正为
 $$\overline{\epsilon}=\min \epsilon\quad\text { s.t. } \sum_{i=\epsilon\times m+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \epsilon_0^{i}(1-\epsilon_0)^{m-i}<\alpha$$
-具体推导过程如下:由西瓜书中的上下文可知,对$\epsilon\leq\epsilon_0$进行假设检验,等价于附录①中所述的对$p\leq p_0$进行假设检验,所以在西瓜书中求解最大错误率$\overline{\epsilon}$等价于在附录①中求解事件最大发生频率$\frac{\overline{C}}{m}$。由附录①可知
+
+在推导此公式之前,先铺垫讲解一下"二项分布参数$p$的假设检验"[1]:
+
+设某事件发生的概率为$p$,$p$未知。做$m$次独立试验,每次观察该事件是否发生,以$X$记该事件发生的次数,则$X$服从二项分布$B(m,p)$,现根据$X$检验如下假设:
+
+$$\begin{aligned}
+H_0:p\leqslant p_0\\
+H_1:p > p_0
+\end{aligned}$$
+
+由二项分布本身的特性可知:$p$越小,$X$取到较小值的概率越大。因此,对于上述假设,一个直观上合理的检验为
+
+$$\varphi:\text{当}X>C\text{时拒绝}H_0,\text{否则就接受}H_0\text{。}$$
+
+其中,$C$表示事件最大发生次数。此检验对应的功效函数为
+
+$$\begin{aligned}
+\beta_{\varphi}(p)&=P(X>C)\\
+&=1-P(X\leqslant C) \\
+&=1-\sum_{i=0}^{C}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p^{i} (1-p)^{m-i} \\
+&=\sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p^{i} (1-p)^{m-i} \\
+\end{aligned}$$
+
+由于"$p$越小,$X$取到较小值的概率越大"可以等价表示为:$P(X\leqslant C)$是关于$p$的减函数,所以$\beta_{\varphi}(p)=P(X>C)=1-P(X\leqslant C)$是关于$p$的增函数,那么当$p\leqslant p_0$时,$\beta_{\varphi}(p_0)$即为$\beta_{\varphi}(p)$的上确界。 **(更为严格的数学证明参见参考文献[1]中第2章习题7)** 又根据参考文献[1]中5.1.3的定义1.2可知,在给定检验水平$\alpha$时,要想使得检验$\varphi$达到水平$\alpha$,则必须保证$\beta_{\varphi}(p)\leqslant\alpha$,因此可以通过如下方程解得使检验$\varphi$达到水平$\alpha$的整数$C$:
+
+$$\alpha =\sup \left\{\beta_{\varphi}(p)\right\}$$
+
+显然,当$p\leqslant p_0$时有
+
+$$\begin{aligned}
+\alpha &=\sup \left\{\beta_{\varphi}(p)\right\} \\
+&=\beta_{\varphi}(p_0) \\
+&=\sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i} (1-p_0)^{m-i}
+\end{aligned}$$
+
+对于此方程,通常不一定正好解得一个使得方程成立的整数$C$,较常见的情况是存在这样一个$\overline{C}$使得
+
+$$\begin{aligned}
+\sum_{i=\overline{C}+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i} (1-p_0)^{m-i}<\alpha \\
+\sum_{i=\overline{C}}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i} (1-p_0)^{m-i}>\alpha
+\end{aligned}$$
+
+此时,$C$只能取$\overline{C}$或者$\overline{C}+1$。若$C$取$\overline{C}$,
+则相当于升高了检验水平$\alpha$;若$C$取$\overline{C}+1$则相当于降低了检验水平$\alpha$。具体如何取舍需要结合实际情况,一般的做法是使$\alpha$尽可能小,因此倾向于令$C$取$\overline{C}+1$。
+
+下面考虑如何求解$\overline{C}$。易证$\beta_{\varphi}(p_0)$是关于$C$的减函数,再结合上述关于$\overline{C}$的两个不等式易推得
+
+$$\overline{C}=\min C\quad\text { s.t. } \sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i}(1-p_0)^{m-i}<\alpha$$
+
+由"西瓜书"中的上下文可知,对$\epsilon\leqslant\epsilon_0$进行假设检验,等价于"二项分布参数$p$的假设检验"中所述的对$p\leqslant p_0$进行假设检验,所以在"西瓜书"中求解最大错误率$\overline{\epsilon}$等价于在"二项分布参数$p$的假设检验"中求解事件最大发生频率$\frac{\overline{C}}{m}$。由上述"二项分布参数$p$的假设检验"中的推导可知
+
 $$\overline{C}=\min C\quad\text { s.t. } \sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i}(1-p_0)^{m-i}<\alpha$$
+
 所以
+
 $$\frac{\overline{C}}{m}=\min \frac{C}{m}\quad\text { s.t. } \sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i}(1-p_0)^{m-i}<\alpha$$
+
 将上式中的$\frac{\overline{C}}{m},\frac{C}{m},p_0$等价替换为$\overline{\epsilon},\epsilon,\epsilon_0$可得
+
 $$\overline{\epsilon}=\min \epsilon\quad\text { s.t. } \sum_{i=\epsilon\times m+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) \epsilon_0^{i}(1-\epsilon_0)^{m-i}<\alpha$$
 
-## 2.41
+## 2.5 偏差与方差
+
+### 2.5.1 式(2.37)到式(2.42)的推导
+
+首先,梳理一下"西瓜书"中的符号,书中称$\boldsymbol{x}$为测试样本,但是书中又提到"令$y_{D}$为$\boldsymbol{x}$在数据集中的标记",那么$\boldsymbol{x}$究竟是测试集中的样本还是训练集中的样本呢?这里暂且理解为$\boldsymbol{x}$为从训练集中抽取出来用于测试的样本。此外,"西瓜书"中左侧边注中提到"有可能出现噪声使得$y_{D}\neq y$",其中所说的"噪声"通常是指人工标注数据时带来的误差,例如标注"身高"时,由于测量工具的精度等问题,测出来的数值必然与真实的"身高"之间存在一定误差,此即为"噪声"。
+
+为了进一步解释式(2.37)、(2.38)和(2.39),在这里设有$n$个训练集$D_{1},...,D_{n}$,这$n$个训练集都是以独立同分布的方式从样本空间中采样而得,并且恰好都包含测试样本$\boldsymbol{x}$,该样本在这$n$个训练集的标记分别为$y_{D_{1}},...,y_{D_{n}}$。书中已明确,此处以回归任务为例,也即$y_{D},y,f(\boldsymbol{x} ; D)$均为实值。
+
+式(2.37)可理解为:
+
+$$\bar{f}(\boldsymbol{x})=\mathbb{E}_{D}[f(\boldsymbol{x} ; D)]=\frac{1}{n}\left(f\left(\boldsymbol{x} ; D_{1}\right)+\ldots+f\left(\boldsymbol{x} ; D_{n}\right)\right)$$
+
+式(2.38)可理解为: 
+
+$$\begin{aligned}
+\operatorname{var}(\boldsymbol{x}) &=\mathbb{E}_{D}\left[(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x}))^{2}\right] \\
+&=\frac{1}{n}\left(\left(f\left(\boldsymbol{x} ; D_{1}\right)-\bar{f}(\boldsymbol{x})\right)^{2}+\ldots+\left(f\left(\boldsymbol{x} ; D_{n}\right)-\bar{f}(\boldsymbol{x})\right)^{2}\right)
+\end{aligned}$$
+
+式(2.39)可理解为:
+
+$$\varepsilon^{2}=\mathbb{E}_{D}\left[\left(y_{D}-y\right)^{2}\right]=\frac{1}{n}\left(\left(y_{D_{1}}-y\right)^{2}+\ldots+\left(y_{D_{n}}-y\right)^{2}\right)$$
+
+最后,推导一下式(2.41)和式(2.42),由于推导完式(2.41)自然就会得到式(2.42),因此下面仅推导式(2.41)即可。
 
 $$\begin{aligned} 
-E(f ; D)=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-y_{D}\right)^{2}\right] \\
-=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})+\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] \\
-=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] \\ &+\mathbb{E}_{D}\left[+2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right] \\
-=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] \\
-=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y+y-y_{D}\right)^{2}\right] \\
-=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)^{2}\right]+\mathbb{E}_{D}\left[\left(y-y_{D}\right)^{2}\right]\\ &+2 \mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)\left(y-y_{D}\right)\right]\\
-=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\left(\bar{f}(\boldsymbol{x})-y\right)^{2}+\mathbb{E}_{D}\left[\left(y_{D}-y\right)^{2}\right] \end{aligned}$$
-
-[解析]:
-- 第1-2步:减一个$\bar{f}(\boldsymbol{x})$再加一个$\bar{f}(\boldsymbol{x})$,属于简单的恒等变形;
-- 第2-3步:首先将中括号里面的式子展开
+E(f ; D)=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-y_{D}\right)^{2}\right] &\textcircled{1}\\
+=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})+\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] &\textcircled{2}\\
+=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right]+ \\ &\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right] &\textcircled{3}\\
+=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] &\textcircled{4}\\
+=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y+y-y_{D}\right)^{2}\right] &\textcircled{5}\\
+=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)^{2}\right]+\mathbb{E}_{D}\left[\left(y-y_{D}\right)^{2}\right]+ \\ &2 \mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)\left(y-y_{D}\right)\right]&\textcircled{6}\\
+=& \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\left(\bar{f}(\boldsymbol{x})-y\right)^{2}+\mathbb{E}_{D}\left[\left(y_{D}-y\right)^{2}\right] &\textcircled{7}
+\end{aligned}$$
+
+上式即为式(2.41),下面给出每一步的推导过程:
+
+$\textcircled{1}\to\textcircled{2}$:减一个$\bar{f}(\boldsymbol{x})$再加一个$\bar{f}(\boldsymbol{x})$,属于简单的恒等变形。
+
+$\textcircled{2}\to\textcircled{3}$:首先将中括号内的式子展开,有
+
 $$\mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}+\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}+2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right]$$
-然后根据期望的运算性质:$\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]$可将上式化为
-$$ \mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] +\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right]$$
-- 第3-4步:再次利用期望的运算性质将第3步得到的式子的最后一项展开
+
+然后根据期望的运算性质$\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]$可将上式化为
+
+$$\mathbb{E}_{D}\left[\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)^{2}\right]+\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y_{D}\right)^{2}\right] +\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right]$$
+
+$\textcircled{3}\to\textcircled{4}$:再次利用期望的运算性质将$\textcircled{3}$的最后一项展开,有
+
 $$\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right] = \mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot\bar{f}(\boldsymbol{x})\right] - \mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot y_{D}\right]$$
-	- 首先计算展开后得到的第一项
+
+首先计算展开后得到的第1项,有
+
 $$\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot\bar{f}(\boldsymbol{x})\right] = \mathbb{E}_{D}\left[2f(\boldsymbol{x} ; D)\cdot\bar{f}(\boldsymbol{x})-2\bar{f}(\boldsymbol{x})\cdot\bar{f}(\boldsymbol{x})\right]$$
+
 由于$\bar{f}(\boldsymbol{x})$是常量,所以由期望的运算性质:$\mathbb{E}[AX+B]=A\mathbb{E}[X]+B$(其中$A,B$均为常量)可得
+
 $$\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot\bar{f}(\boldsymbol{x})\right] = 2\bar{f}(\boldsymbol{x})\cdot\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\right]-2\bar{f}(\boldsymbol{x})\cdot\bar{f}(\boldsymbol{x})$$
-由公式(2.37)可知:$\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\right]=\bar{f}(\boldsymbol{x})$,所以
+
+由式(2.37)可知$\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\right]=\bar{f}(\boldsymbol{x})$,所以
+
 $$\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot\bar{f}(\boldsymbol{x})\right] = 2\bar{f}(\boldsymbol{x})\cdot\bar{f}(\boldsymbol{x})-2\bar{f}(\boldsymbol{x})\cdot\bar{f}(\boldsymbol{x})=0$$
-	- 接着计算展开后得到的第二项
-$$\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot y_{D}\right]=2\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\cdot y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]$$
-由于噪声和$f$无关,所以$f(\boldsymbol{x} ; D)$和$y_D$是两个相互独立的随机变量,所以根据期望的运算性质:$\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]$(其中$X$和$Y$为相互独立的随机变量)可得
+接着计算展开后得到的第2项
+
+$$
+\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot y_{D}\right]=2\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\cdot y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]
+$$
+
+由于噪声和$f$无关,所以$f(\boldsymbol{x} ; D)$和$y_D$是两个相互独立的随机变量。根据期望的运算性质$\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]$(其中$X$和$Y$为相互独立的随机变量)可得
+
 $$\begin{aligned} 
-\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot y_{D}\right]&=2\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\cdot y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right] \\
-&=2\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\right]\cdot \mathbb{E}_{D}\left[y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right] \\
-&=2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right] \\
+\mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot y_{D}\right]&=2\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\cdot y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]\\
+&=2\mathbb{E}_{D}\left[f(\boldsymbol{x} ; D)\right]\cdot \mathbb{E}_{D}\left[y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]\\
+&=2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]-2\bar{f}(\boldsymbol{x})\cdot \mathbb{E}_{D}\left[y_{D}\right]\\
 &= 0
 \end{aligned}$$
+
 所以
+
 $$\begin{aligned} \mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\left(\bar{f}(\boldsymbol{x})-y_{D}\right)\right] &= \mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot\bar{f}(\boldsymbol{x})\right] - \mathbb{E}_{D}\left[2\left(f(\boldsymbol{x} ; D)-\bar{f}(\boldsymbol{x})\right)\cdot y_{D}\right] \\
 &= 0+0 \\
 &=0
 \end{aligned}$$
-- 第4-5步:同第1-2步一样,减一个$y$再加一个$y$,属于简单的恒等变形;
-- 第5-6步:同第2-3步一样,将最后一项利用期望的运算性质进行展开;
-- 第6-7步:因为$\bar{f}(\boldsymbol{x})$和$y$均为常量,所以根据期望的运算性质可知,第6步中的第2项可化为
+
+$\textcircled{4}\to\textcircled{5}$:同$\textcircled{1}\to\textcircled{2}$一样,减一个$y$再加一个$y$,属于简单的恒等变形。
+
+$\textcircled{5}\to\textcircled{6}$:同$\textcircled{2}\to\textcircled{3}$一样,将最后一项利用期望的运算性质进行展开。
+
+$\textcircled{6}\to\textcircled{7}$:因为$\bar{f}(\boldsymbol{x})$和$y$均为常量,根据期望的运算性质,$\textcircled{6}$中的第2项可化为
+
 $$\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)^{2}\right]=\left(\bar{f}(\boldsymbol{x})-y\right)^{2}$$
-同理,第6步中的最后一项可化为
+
+同理,$\textcircled{6}$中的最后一项可化为
+
 $$2\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)\left(y-y_{D}\right)\right]=2\left(\bar{f}(\boldsymbol{x})-y\right)\mathbb{E}_{D}\left[\left(y-y_{D}\right)\right]$$
-由于此时假设噪声的期望为零,也即$\mathbb{E}_{D}\left[\left(y-y_{D}\right)\right]=0$,所以
-$$2\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)\left(y-y_{D}\right)\right]=2\left(\bar{f}(\boldsymbol{x})-y\right)\cdot 0=0$$
 
-## 附录
-### ①二项分布参数$p$的检验<sup>[1]</sup>
-设某事件发生的概率为$p$,$p$未知,作$m$次独立试验,每次观察该事件是否发生,以$X$记该事件发生的次数,则$X$服从二项分布$B(m,p)$,现根据$X$检验如下假设:
-$$\begin{aligned}
-H_0:p\leq p_0\\
-H_1:p > p_0
-\end{aligned}$$
-由二项分布本身的特性可知:$p$越小,$X$取到较小值的概率越大。因此,对于上述假设,一个直观上合理的检验为
-$$\varphi:\text{当}X\leq C\text{时接受}H_0,\text{否则就拒绝}H_0$$
-其中,$C\in N$表示事件最大发生次数。此检验对应的功效函数为
-$$\begin{aligned}
-\beta_{\varphi}(p)&=P(X>C)\\
-&=1-P(X\leq C) \\
-&=1-\sum_{i=0}^{C}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p^{i} (1-p)^{m-i} \\
-&=\sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p^{i} (1-p)^{m-i} \\
-\end{aligned}$$
-由于“$p$越小,$X$取到较小值的概率越大”可以等价表示为:$P(X\leq C)$是关于$p$的减函数(更为严格的数学证明参见参考文献[1]中第二章习题7),所以$\beta_{\varphi}(p)=P(X>C)=1-P(X\leq C)$是关于$p$的增函数,那么当$p\leq p_0$时,$\beta_{\varphi}(p_0)$即为$\beta_{\varphi}(p)$的上确界。又因为,根据参考文献[1]中5.1.3的定义1.2可知,检验水平$\alpha$默认取最小可能的水平,所以在给定检验水平$\alpha$时,可以通过如下方程解得满足检验水平$\alpha$的整数$C$:
-$$\alpha =\sup \left\{\beta_{\varphi}(p)\right\}$$
-显然,当$p\leq p_0$时:
-$$\begin{aligned}
-\alpha &=\sup \left\{\beta_{\varphi}(p)\right\} \\
-&=\beta_{\varphi}(p_0) \\
-&=\sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i} (1-p_0)^{m-i}
-\end{aligned}$$
-对于此方程,通常不一定正好解得一个整数$C$使得方程成立,较常见的情况是存在这样一个$\overline{C}$使得
-$$\begin{aligned}
-\sum_{i=\overline{C}+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i} (1-p_0)^{m-i}<\alpha \\
-\sum_{i=\overline{C}}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i} (1-p_0)^{m-i}>\alpha
-\end{aligned}$$
-此时,$C$只能取$\overline{C}$或者$\overline{C}+1$,若$C$取$\overline{C}$,则相当于升高了检验水平$\alpha$,若$C$取$\overline{C}+1$则相当于降低了检验水平$\alpha$,具体如何取舍需要结合实际情况,但是通常为了减小犯第一类错误的概率,会倾向于令$C$取$\overline{C}+1$。下面考虑如何求解$\overline{C}$:易证$\beta_{\varphi}(p_0)$是关于$C$的减函数,所以再结合上述关于$\overline{C}$的两个不等式易推得
-$$\overline{C}=\min C\quad\text { s.t. } \sum_{i=C+1}^{m}\left(\begin{array}{c}{m} \\ {i}\end{array}\right) p_0^{i}(1-p_0)^{m-i}<\alpha$$
+由于此时假定噪声的期望为0,即$\mathbb{E}_{D}\left[\left(y-y_{D}\right)\right]=0$,所以
+
+$$2\mathbb{E}_{D}\left[\left(\bar{f}(\boldsymbol{x})-y\right)\left(y-y_{D}\right)\right]=2\left(\bar{f}(\boldsymbol{x})-y\right)\cdot 0=0$$
 
 ## 参考文献
-[1]陈希孺编著.概率论与数理统计[M].中国科学技术大学出版社,2009.
+[1] 陈希孺. 概率论与数理统计. 中国科学技术大学出版社, 2009.

+ 767 - 185
docs/chapter3/chapter3.md

@@ -1,242 +1,824 @@
-## 3.5
-$$\cfrac{\partial E_{(w, b)}}{\partial w}=2\left(w \sum_{i=1}^{m} x_{i}^{2}-\sum_{i=1}^{m}\left(y_{i}-b\right) x_{i}\right)$$
-[推导]:已知$E_{(w, b)}=\sum\limits_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}$,所以
-$$\begin{aligned}
-\cfrac{\partial E_{(w, b)}}{\partial w}&=\cfrac{\partial}{\partial w} \left[\sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
-&= \sum_{i=1}^{m}\cfrac{\partial}{\partial w} \left[\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
+# 第3章 线性模型
+
+作为"西瓜书"介绍机器学习模型的开篇,线性模型也是机器学习中最为基础的模型,很多复杂模型均可认为由线性模型衍生而得,无论是曾经红极一时的支持向量机还是如今万众瞩目的神经网络,其中都有线性模型的影子。
+
+本章的线性回归和对数几率回归分别是回归和分类任务上常用的算法,因此属于重点内容,线性判别分析不常用,但是其核心思路和后续第10章将会讲到的经典降维算法主成分分析相同,因此也属于重点内容,且两者结合在一起看理解会更深刻。
+
+## 3.1 基本形式
+
+第1章的1.2基本术语中讲述样本的定义时,我们说明了"西瓜书"和本书中向量的写法,当向量中的元素用分号";"分隔时表示此向量为列向量,用逗号","分隔时表示为行向量。因此,式(3.2)中$\boldsymbol{w}=(w_{1};w_{2};...;w_{d})$和$\boldsymbol{x}=(x_{1};x_{2};...;x_{d})$均为$d$行1列的列向量。
+
+## 3.2 线性回归
+
+### 3.2.1 属性数值化
+
+为了能进行数学运算,样本中的非数值类属性都需要进行数值化。对于存在"序"关系的属性,可通过连续化将其转化为带有相对大小关系的连续值;对于不存在"序"关系的属性,可根据属性取值将其拆解为多个属性,例如"西瓜书"中所说的"瓜类"属性,可将其拆解为"是否是西瓜"、"是否是南瓜"、"是否是黄瓜"3个属性,其中每个属性的取值为1或0,1表示"是",0表示"否"。具体地,假如现有3个瓜类样本:$\boldsymbol{x}_1=(\text{甜度}=\text{高};\text{瓜类}=\text{西瓜}),\boldsymbol{x}_2=(\text{甜度}=\text{中};\text{瓜类}=\text{南瓜}),\boldsymbol{x}_3=(\text{甜度}=\text{低};\text{瓜类}=\text{黄瓜})$,其中"甜度"属性存在序关系,因此可将"高"、"中"、"低"转化为$\{1.0,0.5,0.0\}$,"瓜类"属性不存在序关系,则按照上述方法进行拆解,3个瓜类样本数值化后的结果为:$\boldsymbol{x}_1=(1.0;1;0;0),\boldsymbol{x}_1=(0.5;0;1;0),\boldsymbol{x}_1=(0.0;0;0;1)$。
+
+以上针对样本属性所进行的处理工作便是第1章1.2基本术语中提到的"特征工程"范畴,完成属性数值化以后通常还会进行缺失值处理、规范化、降维等一系列处理工作。由于特征工程属于算法实践过程中需要掌握的内容,待学完机器学习算法以后,再进一步学习特征工程相关知识即可,在此先不展开。
+
+### 3.2.2 式(3.4)的解释
+
+下面仅针对式(3.4)中的数学符号进行解释。首先解释一下符号"$\arg \min$",其中"arg"是"argument"(参数)的前三个字母,"min"
+是"minimum"(最小值)的前三个字母,该符号表示求使目标函数达到最小值的参数取值。例如式(3.4)表示求出使目标函数$\sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}$达到最小值的参数取值$(w^{*},b^{*})$,注意目标函数是以$(w,b)$为自变量的函数,$(x_{i},y_{i})$均是已知常量,即训练集中的样本数据。
+
+类似的符号还有"$\min$",例如将式(3.4)改为
+
+$$
+\underset{(w,b)}{\min}\sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}
+$$
+
+则表示求目标函数的最小值。对比知道,"$\min$"和"$\arg \min$"的区别在于,前者输出目标函数的最小值,而后者输出使得目标函数达到最小值时的参数取值。
+
+若进一步修改式(3.4)为
+
+$$
+\begin{aligned}
+\underset{(w,b)}{\min} & \sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2} \\ 
+\text{s.t.} & w > 0, \\
+& b < 0.
+\end{aligned}
+$$
+
+则表示在$w>0,b<0$范围内寻找目标函数的最小值,"$\text{s.t.}$"是"subject
+to"的简写,意思是"受约束于",即为约束条件。
+
+以上介绍的符号都是应用数学领域的一个分支------"最优化"中的内容,若想进一步了解可找一本最优化的教材(例如参考文献[1])进行系统性地学习。
+
+### 3.2.3 式(3.5)的推导
+
+"西瓜书"在式(3.5)左侧给出的凸函数的定义是最优化中的定义,与高等数学中的定义不同,本书也默认采用此种定义。由于一元线性回归可以看作是多元线性回归中元的个数为1时的情形,所以此处暂不给出$E_{(w, b)}$是关于$w$和$b$的凸函数的证明,在推导式(3.11)时一并给出,下面开始推导式(3.5)。
+
+已知$E_{(w, b)}=\sum\limits_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}$,所以
+
+$$
+\begin{aligned}
+\frac{\partial E_{(w, b)}}{\partial w}&=\frac{\partial}{\partial w} \left[\sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
+&= \sum_{i=1}^{m}\frac{\partial}{\partial w} \left[\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
 &= \sum_{i=1}^{m}\left[2\cdot\left(y_{i}-w x_{i}-b\right)\cdot (-x_i)\right] \\
 &= \sum_{i=1}^{m}\left[2\cdot\left(w x_{i}^2-y_i x_i +bx_i\right)\right] \\
 &= 2\cdot\left(w\sum_{i=1}^{m} x_{i}^2-\sum_{i=1}^{m}y_i x_i +b\sum_{i=1}^{m}x_i\right) \\
 &=2\left(w \sum_{i=1}^{m} x_{i}^{2}-\sum_{i=1}^{m}\left(y_{i}-b\right) x_{i}\right)
-\end{aligned}$$
-
-## 3.6
-$$\cfrac{\partial E_{(w, b)}}{\partial b}=2\left(m b-\sum_{i=1}^{m}\left(y_{i}-w x_{i}\right)\right)$$
-[推导]:已知$E_{(w, b)}=\sum\limits_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}$,所以
-$$\begin{aligned}
-\cfrac{\partial E_{(w, b)}}{\partial b}&=\cfrac{\partial}{\partial b} \left[\sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
-&=\sum_{i=1}^{m}\cfrac{\partial}{\partial b} \left[\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
+\end{aligned}
+$$
+
+
+### 3.2.4 式(3.6)的推导
+
+已知$E_{(w, b)}=\sum\limits_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}$,所以
+
+$$
+\begin{aligned}
+\frac{\partial E_{(w, b)}}{\partial b}&=\frac{\partial}{\partial b} \left[\sum_{i=1}^{m}\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
+&=\sum_{i=1}^{m}\frac{\partial}{\partial b} \left[\left(y_{i}-w x_{i}-b\right)^{2}\right] \\
 &=\sum_{i=1}^{m}\left[2\cdot\left(y_{i}-w x_{i}-b\right)\cdot (-1)\right] \\
 &=\sum_{i=1}^{m}\left[2\cdot\left(b-y_{i}+w x_{i}\right)\right] \\
 &=2\cdot\left[\sum_{i=1}^{m}b-\sum_{i=1}^{m}y_{i}+\sum_{i=1}^{m}w x_{i}\right] \\
 &=2\left(m b-\sum_{i=1}^{m}\left(y_{i}-w x_{i}\right)\right)
-\end{aligned}$$
-
-## 3.7
-$$ w=\cfrac{\sum_{i=1}^{m}y_i(x_i-\bar{x})}{\sum_{i=1}^{m}x_i^2-\cfrac{1}{m}(\sum_{i=1}^{m}x_i)^2} $$
-[推导]:令公式(3.5)等于0
-$$ 0 = w\sum_{i=1}^{m}x_i^2-\sum_{i=1}^{m}(y_i-b)x_i $$
-$$ w\sum_{i=1}^{m}x_i^2 = \sum_{i=1}^{m}y_ix_i-\sum_{i=1}^{m}bx_i $$
-由于令公式(3.6)等于0可得$b=\cfrac{1}{m}\sum_{i=1}^{m}(y_i-wx_i)$,又因为$\cfrac{1}{m}\sum_{i=1}^{m}y_i=\bar{y}$,$\cfrac{1}{m}\sum_{i=1}^{m}x_i=\bar{x}$,则$b=\bar{y}-w\bar{x}$,代入上式可得
-$$\begin{aligned}	 
+\end{aligned}
+$$
+
+
+### 3.2.5 式(3.7)的推导
+
+推导之前先重点说明一下"闭式解"或称为"解析解"。闭式解是指可以通过具体的表达式解出待解参数,例如可根据式(3.7)直接解得$w$。机器学习算法很少有闭式解,线性回归是一个特例,接下来推导式(3.7)。
+
+令式(3.5)等于0
+
+$$
+0 = w\sum_{i=1}^{m}x_i^2-\sum_{i=1}^{m}(y_i-b)x_i
+$$
+
+
+$$
+w\sum_{i=1}^{m}x_i^2 = \sum_{i=1}^{m}y_ix_i-\sum_{i=1}^{m}bx_i
+$$
+
+由于令式(3.6)等于0可得$b=\frac{1}{m}\sum_{i=1}^{m}(y_i-wx_i)$,又因为$\frac{1}{m}\sum_{i=1}^{m}y_i=\bar{y}$,$\frac{1}{m}\sum_{i=1}^{m}x_i=\bar{x}$,则$b=\bar{y}-w\bar{x}$,代入上式可得
+
+$$
+\begin{aligned}    
 w\sum_{i=1}^{m}x_i^2 & = \sum_{i=1}^{m}y_ix_i-\sum_{i=1}^{m}(\bar{y}-w\bar{x})x_i \\
 w\sum_{i=1}^{m}x_i^2 & = \sum_{i=1}^{m}y_ix_i-\bar{y}\sum_{i=1}^{m}x_i+w\bar{x}\sum_{i=1}^{m}x_i \\
 w(\sum_{i=1}^{m}x_i^2-\bar{x}\sum_{i=1}^{m}x_i) & = \sum_{i=1}^{m}y_ix_i-\bar{y}\sum_{i=1}^{m}x_i \\
-w & = \cfrac{\sum_{i=1}^{m}y_ix_i-\bar{y}\sum_{i=1}^{m}x_i}{\sum_{i=1}^{m}x_i^2-\bar{x}\sum_{i=1}^{m}x_i}
-\end{aligned}$$
-由于$\bar{y}\sum_{i=1}^{m}x_i=\cfrac{1}{m}\sum_{i=1}^{m}y_i\sum_{i=1}^{m}x_i=\bar{x}\sum_{i=1}^{m}y_i$,$\bar{x}\sum_{i=1}^{m}x_i=\cfrac{1}{m}\sum_{i=1}^{m}x_i\sum_{i=1}^{m}x_i=\cfrac{1}{m}(\sum_{i=1}^{m}x_i)^2$,代入上式即可得公式(3.7)
-$$ w=\cfrac{\sum_{i=1}^{m}y_i(x_i-\bar{x})}{\sum_{i=1}^{m}x_i^2-\cfrac{1}{m}(\sum_{i=1}^{m}x_i)^2} $$
-如果要想用Python来实现上式的话,上式中的求和运算只能用循环来实现,但是如果我们能将上式给向量化,也就是转换成矩阵(向量)运算的话,那么我们就可以利用诸如NumPy这种专门加速矩阵运算的类库来进行编写。下面我们就尝试将上式进行向量化,将$ \cfrac{1}{m}(\sum_{i=1}^{m}x_i)^2=\bar{x}\sum_{i=1}^{m}x_i $代入分母可得
-$$\begin{aligned}	  
-w & = \cfrac{\sum_{i=1}^{m}y_i(x_i-\bar{x})}{\sum_{i=1}^{m}x_i^2-\bar{x}\sum_{i=1}^{m}x_i} \\
-& = \cfrac{\sum_{i=1}^{m}(y_ix_i-y_i\bar{x})}{\sum_{i=1}^{m}(x_i^2-x_i\bar{x})}
-\end{aligned}$$
-又因为$ \bar{y}\sum_{i=1}^{m}x_i=\bar{x}\sum_{i=1}^{m}y_i=\sum_{i=1}^{m}\bar{y}x_i=\sum_{i=1}^{m}\bar{x}y_i=m\bar{x}\bar{y}=\sum_{i=1}^{m}\bar{x}\bar{y} $,$\sum_{i=1}^{m}x_i\bar{x}=\bar{x}\sum_{i=1}^{m}x_i=\bar{x}\cdot m \cdot\frac{1}{m}\cdot\sum_{i=1}^{m}x_i=m\bar{x}^2=\sum_{i=1}^{m}\bar{x}^2$,则上式可化为
-$$\begin{aligned}
-w & = \cfrac{\sum_{i=1}^{m}(y_ix_i-y_i\bar{x}-x_i\bar{y}+\bar{x}\bar{y})}{\sum_{i=1}^{m}(x_i^2-x_i\bar{x}-x_i\bar{x}+\bar{x}^2)} \\
-& = \cfrac{\sum_{i=1}^{m}(x_i-\bar{x})(y_i-\bar{y})}{\sum_{i=1}^{m}(x_i-\bar{x})^2} 
-\end{aligned}$$
-若令$\boldsymbol{x}=(x_1,x_2,...,x_m)^T$,$\boldsymbol{x}_{d}=(x_1-\bar{x},x_2-\bar{x},...,x_m-\bar{x})^T$为去均值后的$\boldsymbol{x}$,$\boldsymbol{y}=(y_1,y_2,...,y_m)^T$,$\boldsymbol{y}_{d}=(y_1-\bar{y},y_2-\bar{y},...,y_m-\bar{y})^T$为去均值后的$\boldsymbol{y}$,其中$\boldsymbol{x}$、$\boldsymbol{x}_{d}$、$\boldsymbol{y}$、$\boldsymbol{y}_{d}$均为m行1列的列向量,代入上式可得
-$$w=\cfrac{\boldsymbol{x}_{d}^T\boldsymbol{y}_{d}}{\boldsymbol{x}_d^T\boldsymbol{x}_{d}}$$
-
-## 3.9
-$$\hat{\boldsymbol{w}}^{*}=\underset{\hat{\boldsymbol{w}}}{\arg \min }(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})$$
-[推导]:公式(3.4)是最小二乘法运用在一元线性回归上的情形,那么对于多元线性回归来说,我们可以类似得到
-$$\begin{aligned}
-	\left(\boldsymbol{w}^{*}, b^{*}\right)&=\underset{(\boldsymbol{w}, b)}{\arg \min } \sum_{i=1}^{m}\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}\right)^{2} \\
-	&=\underset{(\boldsymbol{w}, b)}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)\right)^{2}\\
-	&=\underset{(\boldsymbol{w}, b)}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-\left(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}_{i}+b\right)\right)^{2}
-\end{aligned}$$
+w & = \frac{\sum_{i=1}^{m}y_ix_i-\bar{y}\sum_{i=1}^{m}x_i}{\sum_{i=1}^{m}x_i^2-\bar{x}\sum_{i=1}^{m}x_i}
+\end{aligned}
+$$
+
+将$\bar{y}\sum_{i=1}^{m}x_i=\frac{1}{m}\sum_{i=1}^{m}y_i\sum_{i=1}^{m}x_i=\bar{x}\sum_{i=1}^{m}y_i$和$\bar{x}\sum_{i=1}^{m}x_i=\frac{1}{m}\sum_{i=1}^{m}x_i\sum_{i=1}^{m}x_i=\frac{1}{m}(\sum_{i=1}^{m}x_i)^2$代入上式,即可得式(3.7):
+
+$$
+w=\frac{\sum_{i=1}^{m}y_i(x_i-\bar{x})}{\sum_{i=1}^{m}x_i^2-\frac{1}{m}(\sum_{i=1}^{m}x_i)^2}
+$$
+
+如果要想用Python来实现上式的话,上式中的求和运算只能用循环来实现。但是如果能将上式向量化,也就是转换成矩阵(即向量)运算的话,我们就可以利用诸如NumPy这种专门加速矩阵运算的类库来进行编写。下面我们就尝试将上式进行向量化。
+
+将$\frac{1}{m}(\sum_{i=1}^{m}x_i)^2=\bar{x}\sum_{i=1}^{m}x_i$代入分母可得
+
+$$
+\begin{aligned}     
+w & = \frac{\sum_{i=1}^{m}y_i(x_i-\bar{x})}{\sum_{i=1}^{m}x_i^2-\bar{x}\sum_{i=1}^{m}x_i} \\
+& = \frac{\sum_{i=1}^{m}(y_ix_i-y_i\bar{x})}{\sum_{i=1}^{m}(x_i^2-x_i\bar{x})}
+\end{aligned}
+$$
+
+又因为$\bar{y}\sum_{i=1}^{m}x_i=\bar{x}\sum_{i=1}^{m}y_i=\sum_{i=1}^{m}\bar{y}x_i=\sum_{i=1}^{m}\bar{x}y_i=m\bar{x}\bar{y}=\sum_{i=1}^{m}\bar{x}\bar{y}$且$\sum_{i=1}^{m}x_i\bar{x}=\bar{x}\sum_{i=1}^{m}x_i=\bar{x}\cdot m \cdot\frac{1}{m}\cdot\sum_{i=1}^{m}x_i=m\bar{x}^2=\sum_{i=1}^{m}\bar{x}^2$,则有
+
+$$
+\begin{aligned}
+w & = \frac{\sum_{i=1}^{m}(y_ix_i-y_i\bar{x}-x_i\bar{y}+\bar{x}\bar{y})}{\sum_{i=1}^{m}(x_i^2-x_i\bar{x}-x_i\bar{x}+\bar{x}^2)} \\
+& = \frac{\sum_{i=1}^{m}(x_i-\bar{x})(y_i-\bar{y})}{\sum_{i=1}^{m}(x_i-\bar{x})^2} 
+\end{aligned}
+$$
+
+若令$\boldsymbol{x}=(x_1;x_2;...;x_m)$,$\boldsymbol{x}_{d}=(x_1-\bar{x};x_2-\bar{x};...;x_m-\bar{x})$为去均值后的$\boldsymbol{x}$;$\boldsymbol{y}=(y_1;y_2;...;y_m)$,$\boldsymbol{y}_{d}=(y_1-\bar{y};y_2-\bar{y};...;y_m-\bar{y})$为去均值后的$\boldsymbol{y}$, **($\boldsymbol{x}$、$\boldsymbol{x}_{d}$、$\boldsymbol{y}$、$\boldsymbol{y}_{d}$均为m行1列的列向量)** 代入上式可得
+
+$$
+w=\frac{\boldsymbol{x}_{d}^\mathrm{T}\boldsymbol{y}_{d}}{\boldsymbol{x}_d^\mathrm{T}\boldsymbol{x}_{d}}
+$$
+
+
+### 3.2.6 式(3.9)的推导
+
+式(3.4)是最小二乘法运用在一元线性回归上的情形,那么对于多元线性回归来说,我们可以类似得到
+
+$$
+\begin{aligned}
+    \left(\boldsymbol{w}^{*}, b^{*}\right)&=\underset{(\boldsymbol{w}, b)}{\arg \min } \sum_{i=1}^{m}\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}\right)^{2} \\
+    &=\underset{(\boldsymbol{w}, b)}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)\right)^{2}\\
+    &=\underset{(\boldsymbol{w}, b)}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-\left(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}_{i}+b\right)\right)^{2}
+\end{aligned}
+$$
+
 为便于讨论,我们令$\hat{\boldsymbol{w}}=(\boldsymbol{w};b)=(w_1;...;w_d;b)\in\mathbb{R}^{(d+1)\times 1},\hat{\boldsymbol{x}}_i=(x_{i1};...;x_{id};1)\in\mathbb{R}^{(d+1)\times 1}$,那么上式可以简化为
-$$\begin{aligned}
-	\hat{\boldsymbol{w}}^{*}&=\underset{\hat{\boldsymbol{w}}}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-\hat{\boldsymbol{w}}^\mathrm{T}\hat{\boldsymbol{x}}_{i}\right)^{2} \\
-	&=\underset{\hat{\boldsymbol{w}}}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-\hat{\boldsymbol{x}}_{i}^\mathrm{T}\hat{\boldsymbol{w}}\right)^{2} \\
-\end{aligned}$$
+
+$$
+\begin{aligned}
+    \hat{\boldsymbol{w}}^{*}&=\underset{\hat{\boldsymbol{w}}}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-\hat{\boldsymbol{w}}^\mathrm{T}\hat{\boldsymbol{x}}_{i}\right)^{2} \\
+    &=\underset{\hat{\boldsymbol{w}}}{\arg \min } \sum_{i=1}^{m}\left(y_{i}-\hat{\boldsymbol{x}}_{i}^\mathrm{T}\hat{\boldsymbol{w}}\right)^{2} \\
+\end{aligned}
+$$
+
 根据向量内积的定义可知,上式可以写成如下向量内积的形式
-$$\begin{aligned}
-	\hat{\boldsymbol{w}}^{*}&=\underset{\hat{\boldsymbol{w}}}{\arg \min } \begin{bmatrix}
-	y_{1}-\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} & \cdots & y_{m}-\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}} \\
-	\end{bmatrix}
-	\begin{bmatrix}
-	y_{1}-\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} \\
-	\vdots \\
-	y_{m}-\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}}
-	\end{bmatrix} \\
-\end{aligned}$$
-其中
+
+$$
+\begin{aligned}
+    \hat{\boldsymbol{w}}^{*}&=\underset{\hat{\boldsymbol{w}}}{\arg \min } \begin{bmatrix}
+    y_{1}-\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} & \cdots & y_{m}-\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}} \\
+    \end{bmatrix}
+    \begin{bmatrix}
+    y_{1}-\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} \\
+    \vdots \\
+    y_{m}-\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}}
+    \end{bmatrix} \\
+\end{aligned}
+$$
+
+其中 
+
 $$
 \begin{aligned}
 \begin{bmatrix}
-	y_{1}-\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} \\
-	\vdots \\
-	y_{m}-\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}}
+    y_{1}-\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} \\
+    \vdots \\
+    y_{m}-\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}}
 \end{bmatrix}&=\begin{bmatrix}
-	y_{1} \\
-	\vdots \\
-	y_{m}
+    y_{1} \\
+    \vdots \\
+    y_{m}
 \end{bmatrix}-\begin{bmatrix}
-	\hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} \\
-	\vdots \\
-	\hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}}
+    \hat{\boldsymbol{x}}_{1}^\mathrm{T}\hat{\boldsymbol{w}} \\
+    \vdots \\
+    \hat{\boldsymbol{x}}_{m}^\mathrm{T}\hat{\boldsymbol{w}}
 \end{bmatrix}\\
 &=\boldsymbol{y}-\begin{bmatrix}
-	\hat{\boldsymbol{x}}_{1}^\mathrm{T} \\
-	\vdots \\
-	\hat{\boldsymbol{x}}_{m}^\mathrm{T}
+    \hat{\boldsymbol{x}}_{1}^\mathrm{T} \\
+    \vdots \\
+    \hat{\boldsymbol{x}}_{m}^\mathrm{T}
 \end{bmatrix}\cdot\hat{\boldsymbol{w}}\\
 &=\boldsymbol{y}-\mathbf{X}\hat{\boldsymbol{w}}
 \end{aligned}
 $$
+
 所以
-$$\hat{\boldsymbol{w}}^{*}=\underset{\hat{\boldsymbol{w}}}{\arg \min }(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})$$
 
-## 3.10
-$$\cfrac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}=2\mathbf{X}^{\mathrm{T}}(\mathbf{X}\hat{\boldsymbol w}-\boldsymbol{y})$$
-[推导]:将$E_{\hat{\boldsymbol w}}=(\boldsymbol{y}-\mathbf{X}\hat{\boldsymbol w})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X}\hat{\boldsymbol w})$展开可得
-$$E_{\hat{\boldsymbol w}}= \boldsymbol{y}^{\mathrm{T}}\boldsymbol{y}-\boldsymbol{y}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}-\hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\boldsymbol{y}+\hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}$$
+$$
+\hat{\boldsymbol{w}}^{*}=\underset{\hat{\boldsymbol{w}}}{\arg \min }(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})
+$$
+
+
+### 3.2.7 式(3.10)的推导
+
+将$E_{\hat{\boldsymbol w}}=(\boldsymbol{y}-\mathbf{X}\hat{\boldsymbol w})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X}\hat{\boldsymbol w})$展开可得
+
+$$
+E_{\hat{\boldsymbol w}}= \boldsymbol{y}^{\mathrm{T}}\boldsymbol{y}-\boldsymbol{y}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}-\hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\boldsymbol{y}+\hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}
+$$
+
 对$\hat{\boldsymbol w}$求导可得
-$$\cfrac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}= \cfrac{\partial \boldsymbol{y}^{\mathrm{T}}\boldsymbol{y}}{\partial \hat{\boldsymbol w}}-\cfrac{\partial \boldsymbol{y}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}}{\partial \hat{\boldsymbol w}}-\cfrac{\partial \hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\boldsymbol{y}}{\partial \hat{\boldsymbol w}}+\cfrac{\partial \hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}}{\partial \hat{\boldsymbol w}}$$
-由矩阵微分公式$\cfrac{\partial\boldsymbol{a}^{\mathrm{T}}\boldsymbol{x}}{\partial\boldsymbol{x}}=\cfrac{\partial\boldsymbol{x}^{\mathrm{T}}\boldsymbol{a}}{\partial\boldsymbol{x}}=\boldsymbol{a},\cfrac{\partial\boldsymbol{x}^{\mathrm{T}}\mathbf{A}\boldsymbol{x}}{\partial\boldsymbol{x}}=(\mathbf{A}+\mathbf{A}^{\mathrm{T}})\boldsymbol{x}$可得
-$$\cfrac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}= 0-\mathbf{X}^{\mathrm{T}}\boldsymbol{y}-\mathbf{X}^{\mathrm{T}}\boldsymbol{y}+(\mathbf{X}^{\mathrm{T}}\mathbf{X}+\mathbf{X}^{\mathrm{T}}\mathbf{X})\hat{\boldsymbol w}$$
-$$\cfrac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}=2\mathbf{X}^{\mathrm{T}}(\mathbf{X}\hat{\boldsymbol w}-\boldsymbol{y})$$
-
-## 3.27
-$$ \ell(\boldsymbol{\beta})=\sum_{i=1}^{m}(-y_i\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i+\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})) $$
-[推导]:将公式(3.26)代入公式(3.25)可得
-$$ \ell(\boldsymbol{\beta})=\sum_{i=1}^{m}\ln\left(y_ip_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})+(1-y_i)p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right) $$
-其中$ p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})=\cfrac{e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}},p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})=\cfrac{1}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}} $,代入上式可得
-$$\begin{aligned} 
-\ell(\boldsymbol{\beta})&=\sum_{i=1}^{m}\ln\left(\cfrac{y_ie^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}+1-y_i}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}\right) \\
+
+$$
+\frac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}= \frac{\partial \boldsymbol{y}^{\mathrm{T}}\boldsymbol{y}}{\partial \hat{\boldsymbol w}}-\frac{\partial \boldsymbol{y}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}}{\partial \hat{\boldsymbol w}}-\frac{\partial \hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\boldsymbol{y}}{\partial \hat{\boldsymbol w}}+\frac{\partial \hat{\boldsymbol w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\mathbf{X}\hat{\boldsymbol w}}{\partial \hat{\boldsymbol w}}
+$$
+
+由矩阵微分公式$\frac{\partial\boldsymbol{a}^{\mathrm{T}}\boldsymbol{x}}{\partial\boldsymbol{x}}=\frac{\partial\boldsymbol{x}^{\mathrm{T}}\boldsymbol{a}}{\partial\boldsymbol{x}}=\boldsymbol{a},\frac{\partial\boldsymbol{x}^{\mathrm{T}}\mathbf{A}\boldsymbol{x}}{\partial\boldsymbol{x}}=(\mathbf{A}+\mathbf{A}^{\mathrm{T}})\boldsymbol{x}$ **(更多矩阵微分公式可查阅[2],矩阵微分原理可查阅[3])** 可得
+
+$$
+\begin{aligned}
+\frac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}} &= 0-\mathbf{X}^{\mathrm{T}}\boldsymbol{y}-\mathbf{X}^{\mathrm{T}}\boldsymbol{y}+(\mathbf{X}^{\mathrm{T}}\mathbf{X}+\mathbf{X}^{\mathrm{T}}\mathbf{X})\hat{\boldsymbol w} \\
+&=2\mathbf{X}^{\mathrm{T}}(\mathbf{X}\hat{\boldsymbol w}-\boldsymbol{y})
+\end{aligned}
+$$
+
+
+### 3.2.8 式(3.11)的推导
+
+首先铺垫讲解接下来以及后续内容将会用到的多元函数相关基础知识[1]。
+
+**$n$元实值函数**:含$n$个自变量,值域为实数域$\mathbb{R}$的函数称为$n$元实值函数,记为$f(\boldsymbol{x})$,其中$\boldsymbol{x}=(x_{1};x_{2};...;x_{n})$为$n$维向量。"西瓜书"和本书中的多元函数未加特殊说明均为实值函数。
+
+**凸集**:设集合$D\subset\mathbb{R}^n$为$n$维欧式空间中的子集,如果对$D$中任意的$n$维向量$\boldsymbol{x}\in D$和$\boldsymbol{y}\in D$与任意的$\alpha\in[0,1]$,有
+
+$$
+\alpha\boldsymbol{x}+(1-\alpha)\boldsymbol{y}\in D
+$$
+
+则称集合$D$是凸集。凸集的几何意义是:若两个点属于此集合,则这两点连线上的任意一点均属于此集合。常见的凸集有空集$\varnothing$,整个$n$维欧式空间$\mathbb{R}^n$。
+
+**凸函数**:设$D\subset\mathbb{R}^n$是非空凸集,$f$是定义在$D$上的函数,如果对任意的$\boldsymbol{x}^1,\boldsymbol{x}^2\in D,\alpha\in(0,1)$,均有
+
+$$
+f\left(\alpha\boldsymbol{x}^1+(1-\alpha)\boldsymbol{x}^2\right)\leqslant \alpha f(\boldsymbol{x}^1)+(1-\alpha)f(\boldsymbol{x}^2)
+$$
+
+则称$f$为$D$上的凸函数。若其中的$\leqslant$改为$<$也恒成立,则称$f$为$D$上的严格凸函数。
+
+**梯度**:若$n$元函数$f(\boldsymbol{x})$对$\boldsymbol{x}=(x_{1};x_{2};...;x_{n})$中各分量$x_{i}$的偏导数$\frac{\partial f(\boldsymbol{x})}{\partial x_{i}}(i=1,2,...,n)$都存在,则称函数$f(\boldsymbol{x})$在$\boldsymbol{x}$处一阶可导,并称以下列向量
+
+$$
+\nabla f(\boldsymbol{x})=\frac{\partial f(\boldsymbol{x})}{\partial \boldsymbol{x}}=\left[ \begin{array}{c}{\frac{\partial f(\boldsymbol{x})}{\partial x_{1}}} \\ {\frac{\partial f(\boldsymbol{x})}{\partial x_{2}}} \\ {\vdots} \\ {\frac{\partial f(\boldsymbol{x})}{\partial x_{n}}}\end{array}\right]
+$$
+
+为函数$f(\boldsymbol{x})$在$\boldsymbol{x}$处的一阶导数或梯度,易证梯度指向的方向是函数值增大速度最快的方向。$\nabla f(\boldsymbol{x})$也可写成行向量形式
+
+$$
+\nabla f(\boldsymbol{x})=\frac{\partial f(\boldsymbol{x})}{\partial \boldsymbol{x}^\mathrm{T}}=\left[{\frac{\partial f(\boldsymbol{x})}{\partial x_{1}}}, {\frac{\partial f(\boldsymbol{x})}{\partial x_{2}}},{\cdots},{\frac{\partial f(\boldsymbol{x})}{\partial x_{n}}}\right]
+$$
+
+我们称列向量形式为"分母布局",行向量形式为"分子布局",由于在最优化中习惯采用分母布局,因此"西瓜书"以及本书中也采用分母布局。为了便于区分当前采用何种布局,通常在采用分母布局时偏导符号$\partial$后接的是$\boldsymbol{x}$,采用分子布局时后接的是$\boldsymbol{x}^\mathrm{T}$。
+
+**Hessian矩阵**:若$n$元函数$f(\boldsymbol{x})$对$\boldsymbol{x}=(x_{1};x_{2};...;x_{n})$中各分量$x_{i}$的二阶偏导数$\frac{\partial^{2} f(\boldsymbol{x})}{\partial x_{i} \partial x_{j}}(i=1,2,...,n;j=1,2,...,n)$都存在,则称函数$f(\boldsymbol{x})$在$\boldsymbol{x}$处二阶阶可导,并称以下矩阵
+
+$$
+\nabla^2f(\boldsymbol x)=\frac{\partial^{2}f(\boldsymbol{x})}{\partial\boldsymbol{x}\partial\boldsymbol{x}^\mathrm{T}}=\left[ \begin{array}{cccc}{\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{1}^{2}}} & {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{1} \partial x_{2}}} & {\cdots} & {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{1} \partial x_{n}}} \\ {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{2} \partial x_{1}}} & {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{2}^{2}}} & {\cdots} & {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{2} \partial x_{n}}} \\ {\vdots} & {\vdots} & {\ddots} & {\vdots} \\ {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{n} \partial x_{1}}} & {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{n} \partial x_{2}}} & {\cdots} & {\frac{\partial^{2} f(\boldsymbol x)}{\partial x_{n}^{2}}}\end{array}\right]
+$$
+
+为函数$f(\boldsymbol{x})$在$\boldsymbol{x}$处的二阶导数或Hessian矩阵。若其中的二阶偏导数均连续,则
+
+$$
+\frac{\partial^{2} f(\boldsymbol{x})}{\partial x_{i} \partial x_{j}}=\frac{\partial^{2} f(\boldsymbol{x})}{\partial x_{j} \partial x_{i}}
+$$
+
+此时Hessian矩阵为对称矩阵。
+
+**定理3.1**:设$D\subset\mathbb{R}^n$是非空开凸集,$f(\boldsymbol{x})$是定义在$D$上的实值函数,且$f(\boldsymbol{x})$在$D$上二阶连续可微,如果$f(\boldsymbol{x})$的Hessian矩阵$\nabla^2f(\boldsymbol x)$在$D$上是半正定的,则$f(\boldsymbol{x})$是$D$上的凸函数;如果$\nabla^2f(\boldsymbol x)$在$D$上是正定的,则$f(\boldsymbol{x})$是$D$上的严格凸函数。
+
+**定理3.2**:若$f(\boldsymbol{x})$是凸函数,且$f(\boldsymbol{x})$一阶连续可微,则$\boldsymbol{x}^*$是全局解的充分必要条件是其梯度等于零向量,即$\nabla f(\boldsymbol x^*)=\boldsymbol{0}$。
+
+式(3.11)的推导思路如下:首先根据定理3.1推导出$E_{\hat{\boldsymbol{w}}}$是$\hat{\boldsymbol{w}}$的凸函数,接着根据定理3.2推导出式(3.11)。下面按照此思路进行推导。
+
+由于式(3.10)已推导出$E_{\hat{\boldsymbol{w}}}$关于$\hat{\boldsymbol{w}}$的一阶导数,接着基于此进一步推导出二阶导数,即Hessian矩阵。推导过程如下:
+
+$$
+\begin{aligned}
+\nabla^2E_{\hat{\boldsymbol{w}}} &= \frac{\partial}{\partial \hat{\boldsymbol w}^\mathrm{T}}\left(\frac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}\right)\\
+&=\frac{\partial}{\partial \hat{\boldsymbol w}^\mathrm{T}}\left[2\mathbf{X}^\mathrm{T}(\mathbf{X}\hat{\boldsymbol{w}}-\boldsymbol{y})\right]\\
+&=\frac{\partial}{\partial \hat{\boldsymbol{w}}^\mathrm{T}}\left( 2\mathbf{X}^\mathrm{T}\mathbf{X}\hat{\boldsymbol{w}}-2\mathbf{X}^\mathrm{T}\boldsymbol{y}\right)
+\end{aligned}
+$$
+
+由矩阵微分公式$\frac{\partial \mathbf{A}\boldsymbol{x}}{\boldsymbol{x}^\mathrm{T}}=\mathbf{A}$可得
+
+$$
+\nabla^2E_{\hat{\boldsymbol{w}}}=2\mathbf{X}^\mathrm{T}\mathbf{X}
+$$
+
+
+如"西瓜书"中式(3.11)上方的一段话所说,假定$\mathbf{X}^\mathrm{T}\mathbf{X}$为正定矩阵,根据定理3.1可知此时$E_{\hat{\boldsymbol{w}}}$是$\hat{\boldsymbol{w}}$的严格凸函数,接着根据定理3.2可知只需令$E_{\hat{\boldsymbol{w}}}$关于$\hat{\boldsymbol{w}}$的一阶导数等于零向量,即令式(3.10)等于零向量即可求得全局最优解$\hat{\boldsymbol{w}}^{*}$,具体求解过程如下:
+
+$$
+\frac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}=2\mathbf{X}^\mathrm{T}(\mathbf{X}\hat{\boldsymbol{w}}-\boldsymbol{y})=\boldsymbol{0}
+$$
+
+
+$$
+2\mathbf{X}^\mathrm{T}\mathbf{X}\hat{\boldsymbol{w}}-2\mathbf{X}^\mathrm{T}\boldsymbol{y}=\boldsymbol{0}
+$$
+
+
+$$
+2\mathbf{X}^\mathrm{T}\mathbf{X}\hat{\boldsymbol{w}}=2\mathbf{X}^\mathrm{T}\boldsymbol{y}
+$$
+
+
+$$
+\hat{\boldsymbol{w}}=(\mathbf{X}^\mathrm{T}\mathbf{X})^{-1}\mathbf{X}^\mathrm{T}\boldsymbol{y}
+$$
+
+令其为$\hat{\boldsymbol{w}}^{*}$即为式(3.11)。
+
+由于$\mathbf{X}$是由样本构成的矩阵,而样本是千变万化的,因此无法保证$\mathbf{X}^\mathrm{T}\mathbf{X}$一定是正定矩阵,极易出现非正定的情形。当$\mathbf{X}^\mathrm{T}\mathbf{X}$非正定矩阵时,除了"西瓜书"中所说的引入正则化外,也可用$\mathbf{X}^\mathrm{T}\mathbf{X}$的伪逆矩阵代入式(3.11)求解出$\hat{\boldsymbol{w}}^{*}$,只是此时并不保证求解得到的$\hat{\boldsymbol{w}}^{*}$一定是全局最优解。除此之外,也可用下一节将会讲到的"梯度下降法"求解,同样也不保证求得全局最优解。
+
+## 3.3 对数几率回归
+
+对数几率回归的一般使用流程如下:首先在训练集上学得模型
+
+$$
+y=\frac{1}{1+e^{-\left(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}+b\right)}}
+$$
+
+然后对于新的测试样本$\boldsymbol{x}_{i}$,将其代入模型得到预测结果$y_{i}$,接着自行设定阈值$\theta$,通常设为$\theta=0.5$,如果$y_{i}\geqslant\theta$则判$\boldsymbol{x}_{i}$为正例,反之判为反例。
+
+### 3.3.1 式(3.27)的推导
+
+将式(3.26)代入式(3.25)可得
+
+$$
+\ell(\boldsymbol{\beta})=\sum_{i=1}^{m}\ln\left(y_ip_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})+(1-y_i)p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)
+$$
+
+其中$p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})=\frac{e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}},p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})=\frac{1}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}$,代入上式可得
+
+$$
+\begin{aligned} 
+\ell(\boldsymbol{\beta})&=\sum_{i=1}^{m}\ln\left(\frac{y_ie^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}+1-y_i}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}\right) \\
 &=\sum_{i=1}^{m}\left(\ln(y_ie^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}+1-y_i)-\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})\right) 
-\end{aligned}$$
-由于$ y_i $=0或1,则
-$$ \ell(\boldsymbol{\beta}) =
+\end{aligned}
+$$
+
+由于$y_i$=0或1,则 
+
+$$
+\ell(\boldsymbol{\beta}) =
 \begin{cases} 
 \sum_{i=1}^{m}(-\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})),  & y_i=0 \\
 \sum_{i=1}^{m}(\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i-\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})), & y_i=1
-\end{cases} $$
+\end{cases}
+$$
+
 两式综合可得
-$$ \ell(\boldsymbol{\beta})=\sum_{i=1}^{m}\left(y_i\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i-\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})\right) $$
-由于此式仍为极大似然估计的似然函数,所以最大化似然函数等价于最小化似然函数的相反数,也即在似然函数前添加负号即可得公式(3.27)。值得一提的是,若将公式(3.26)这个似然项改写为$p(y_i|\boldsymbol x_i;\boldsymbol w,b)=[p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})]^{y_i}[p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})]^{1-y_i}$,再将其代入公式(3.25)可得
-$$\begin{aligned}
+
+$$
+\ell(\boldsymbol{\beta})=\sum_{i=1}^{m}\left(y_i\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i-\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})\right)
+$$
+
+由于此式仍为极大似然估计的似然函数,所以最大化似然函数等价于最小化似然函数的相反数,即在似然函数前添加负号即可得式(3.27)。值得一提的是,若将式(3.26)改写为$p(y_i|\boldsymbol x_i;\boldsymbol w,b)=[p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})]^{y_i}[p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})]^{1-y_i}$,再代入式(3.25)可得
+
+$$
+\begin{aligned}
  \ell(\boldsymbol{\beta})&=\sum_{i=1}^{m}\ln\left([p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})]^{y_i}[p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})]^{1-y_i}\right) \\
 &=\sum_{i=1}^{m}\left[y_i\ln\left(p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)+(1-y_i)\ln\left(p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)\right] \\
 &=\sum_{i=1}^{m} \left \{ y_i\left[\ln\left(p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)-\ln\left(p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)\right]+\ln\left(p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)\right\} \\
-&=\sum_{i=1}^{m}\left[y_i\ln\left(\cfrac{p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})}{p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})}\right)+\ln\left(p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)\right] \\
-&=\sum_{i=1}^{m}\left[y_i\ln\left(e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}\right)+\ln\left(\cfrac{1}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}\right)\right] \\
+&=\sum_{i=1}^{m}\left[y_i\ln\left(\frac{p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})}{p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})}\right)+\ln\left(p_0(\hat{\boldsymbol x}_i;\boldsymbol{\beta})\right)\right] \\
+&=\sum_{i=1}^{m}\left[y_i\ln\left(e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}\right)+\ln\left(\frac{1}{1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i}}\right)\right] \\
 &=\sum_{i=1}^{m}\left(y_i\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i-\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})\right) 
-\end{aligned}$$
-显然,此种方式更易推导出公式(3.27)
-
-## 3.30
-$$\frac{\partial \ell(\boldsymbol{\beta})}{\partial \boldsymbol{\beta}}=-\sum_{i=1}^{m}\hat{\boldsymbol x}_i(y_i-p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta}))$$
-[解析]:此式可以进行向量化,令$p_1(\hat{\boldsymbol x}_i;\boldsymbol{\beta})=\hat{y}_i$,代入上式得
-$$\begin{aligned}
-\frac{\partial \ell(\boldsymbol{\beta})}{\partial \boldsymbol{\beta}} &= -\sum_{i=1}^{m}\hat{\boldsymbol x}_i(y_i-\hat{y}_i) \\
-& =\sum_{i=1}^{m}\hat{\boldsymbol x}_i(\hat{y}_i-y_i) \\
-& ={\mathbf{X}^{\mathrm{T}}}(\hat{\boldsymbol y}-\boldsymbol{y}) \\
-& ={\mathbf{X}^{\mathrm{T}}}(p_1(\mathbf{X};\boldsymbol{\beta})-\boldsymbol{y}) \\
-\end{aligned}$$
-
-## 3.32
-$$J=\cfrac{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w}$$
-[推导]:
-$$\begin{aligned}
-	J &= \cfrac{\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
-	&= \cfrac{\|(\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1})^{\mathrm{T}}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
-	&= \cfrac{\|(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
-	&= \cfrac{\left[(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\right]^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
-	&= \cfrac{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w}
-\end{aligned}$$
-
-## 3.37
-$$\mathbf{S}_b\boldsymbol w=\lambda\mathbf{S}_w\boldsymbol w$$
-[推导]:由公式(3.36)可得拉格朗日函数为
-$$L(\boldsymbol w,\lambda)=-\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w+\lambda(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1)$$
-对$\boldsymbol w$求偏导可得
-$$\begin{aligned}
-\cfrac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} &= -\cfrac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w)}{\partial \boldsymbol w}+\lambda \cfrac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1)}{\partial \boldsymbol w} \\
+\end{aligned}
+$$
+
+显然,此种方式更易推导出式(3.27)。
+
+"西瓜书"在式(3.27)下方有提到式(3.27)是关于$\boldsymbol{\beta}$的凸函数,其证明过程如下:由于若干半正定矩阵的加和仍为半正定矩阵,则根据定理3.1可知,若干凸函数的加和仍为凸函数。因此,只需证明式(3.27)求和符号后的式子$-y_i\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i+\ln(1+e^{\boldsymbol{\beta}^{\mathrm{T}}\hat{\boldsymbol x}_i})$(记为$f(\boldsymbol{\beta})$)为凸函数即可。根据式(3.31)可知,$f(\boldsymbol{\beta})$的二阶导数,即Hessian矩阵为
+
+$$
+\hat{\boldsymbol{x}}_{i} \hat{\boldsymbol{x}}_{i}^\mathrm{T} p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\left(1-p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\right)
+$$
+
+对于任意非零向量$\boldsymbol{y}\in\mathbb{R}^{d+1}$,恒有
+
+$$
+\boldsymbol{y}^\mathrm{T}\cdot\hat{\boldsymbol{x}}_{i} \hat{\boldsymbol{x}}_{i}^\mathrm{T} p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\left(1-p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\right)\cdot\boldsymbol{y}
+$$
+
+
+$$
+\boldsymbol{y}^\mathrm{T}\hat{\boldsymbol{x}}_{i} \hat{\boldsymbol{x}}_{i}^\mathrm{T}\boldsymbol{y} p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\left(1-p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\right)
+$$
+
+
+$$
+\left(\boldsymbol{y}^\mathrm{T}\hat{\boldsymbol{x}}_{i}\right)^2 p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\left(1-p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\right)
+$$
+
+由于$p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)>0$,因此上式恒大于等于0,根据半正定矩阵的定义可知此时$f(\boldsymbol{\beta})$的Hessian矩阵为半正定矩阵,所以$f(\boldsymbol{\beta})$是关于$\boldsymbol{\beta}$的凸函数。
+
+### 3.3.2 梯度下降法
+
+不同于式(3.7)可求得闭式解,式(3.27)中的$\boldsymbol{\beta}$没有闭式解,因此需要借助其他工具进行求解。求解使得式(3.27)取到最小值的$\boldsymbol{\beta}$属于最优化中的"无约束优化问题",在无约束优化问题中最常用的求解算法有"梯度下降法"和"牛顿法"[1],下面分别展开讲解。
+
+梯度下降法是一种迭代求解算法,其基本思路如下:先在定义域中随机选取一个点$\boldsymbol{x}^{0}$,将其代入函数$f(\boldsymbol{x})$并判断此时$f(\boldsymbol{x}^{0})$是否是最小值,如果不是的话,则找下一个点$\boldsymbol{x}^{1}$,且保证$f(\boldsymbol{x}^{1})<f(\boldsymbol{x}^{0})$,然后接着判断$f(\boldsymbol{x}^{1})$是否是最小值,如果不是的话则重复上述步骤继续迭代寻找$\boldsymbol{x}^{2}$、$\boldsymbol{x}^{3}$、\...\...直到找到使得$f(\boldsymbol{x})$取到最小值的$\boldsymbol{x}^{*}$。
+
+显然,此算法要想行得通就必须解决在找到第$t$个点$\boldsymbol{x}^{t}$时,能进一步找到第$t+1$个点$\boldsymbol{x}^{t+1}$,且保证$f(\boldsymbol{x}^{t+1})<f(\boldsymbol{x}^{t})$。梯度下降法利用"梯度指向的方向是函数值增大速度最快的方向"这一特性,每次迭代时朝着梯度的反方向进行,进而实现函数值越迭代越小,下面给出完整的数学推导过程。
+
+根据泰勒公式可知,当函数$f(\boldsymbol{x})$在$\boldsymbol{x}^{t}$处一阶可导时,在其邻域内进行一阶泰勒展开恒有
+
+$$
+f(\boldsymbol{x})=f\left(\boldsymbol{x}^{t}\right)+\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)+o\left(\left\|\boldsymbol{x}-\boldsymbol{x}^{t}\right\|\right)
+$$
+
+其中$\nabla f\left(\boldsymbol{x}^{t}\right)$是函数$f(\boldsymbol{x})$在点$\boldsymbol{x}^{t}$处的梯度,$\left\|\boldsymbol{x}-\boldsymbol{x}^{t}\right\|$是指向量$\boldsymbol{x}-\boldsymbol{x}^{t}$的模。若令$\boldsymbol{x}-\boldsymbol{x}^{t}=a\boldsymbol{d}^{t}$,其中$a>0$,$\boldsymbol{d}^{t}$是模长为1的单位向量,则上式可改写为
+
+$$
+f(\boldsymbol{x}^{t}+a\boldsymbol{d}^{t})=f\left(\boldsymbol{x}^{t}\right)+a\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\boldsymbol{d}^{t}+o\left(\left\|\boldsymbol{d}^{t}\right\|\right)
+$$
+
+
+$$
+f(\boldsymbol{x}^{t}+a\boldsymbol{d}^{t})-f\left(\boldsymbol{x}^{t}\right)=a\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\boldsymbol{d}^{t}+o\left(\left\|\boldsymbol{d}^{t}\right\|\right)
+$$
+
+观察上式可知,如果能保证$a\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\boldsymbol{d}^{t}<0$,则一定能保证$f(\boldsymbol{x}^{t}+a\boldsymbol{d}^{t})<f\left(\boldsymbol{x}^{t}\right)$,此时再令$\boldsymbol{x}^{t+1}=\boldsymbol{x}^{t}+a\boldsymbol{d}^{t}$,即可推得我们想要的$f(\boldsymbol{x}^{t+1})<f(\boldsymbol{x}^{t})$。所以,此时问题转化为了求解能使得$a\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\boldsymbol{d}^{t}<0$的$\boldsymbol{d}^t$,且$a\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\boldsymbol{d}^{t}$比0越小,相应地$f(\boldsymbol{x}^{t+1})$也会比$f(\boldsymbol{x}^{t})$越小,也更接近最小值。
+
+根据向量的内积公式可知
+
+$$
+a\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\boldsymbol{d}^{t}=a\times\|\nabla f\left(\boldsymbol{x}^{t}\right)\|\times\|\boldsymbol{d}^{t}\|\times\cos\theta^{t}
+$$
+
+其中$\theta^{t}$是向量$\nabla f\left(\boldsymbol{x}^{t}\right)$与向量$\boldsymbol{d}^{t}$之间的夹角。观察上式易知,此时$\|\nabla f\left(\boldsymbol{x}^{t}\right)\|$是固定常量,$\|\boldsymbol{d}^{t}\|=1$,所以当$a$也固定时,取$\theta^{t}=\pi$,即向量$\boldsymbol{d}^t$与向量$\nabla f\left(\boldsymbol{x}^{t}\right)$的方向刚好相反时,上式取到最小值。通常为了精简计算步骤,可直接令$\boldsymbol{d}^t=-\nabla f\left(\boldsymbol{x}^{t}\right)$,因此便得到了第$t+1$个点$\boldsymbol{x}^{t+1}$的迭代公式
+
+$$
+\boldsymbol{x}^{t+1}=\boldsymbol{x}^{t}-a\nabla f\left(\boldsymbol{x}^{t}\right)
+$$
+
+其中$a$也称为"步长"或"学习率",是需要自行设定的参数,且每次迭代时可取不同值。
+
+除了需要解决如何找到$\boldsymbol{x}^{t+1}$以外,梯度下降法通常还需要解决如何判断当前点是否使得函数取到了最小值,否则的话迭代过程便可能会无休止进行。常用的做法是预先设定一个极小的阈值$\epsilon$,当某次迭代造成的函数值波动已经小于$\epsilon$时,即$|f(\boldsymbol{x}^{t+1})-f(\boldsymbol{x}^{t})|<\epsilon$,我们便近似地认为此时$f(\boldsymbol{x}^{t+1})$取到了最小值。
+
+### 3.3.3  牛顿法
+
+同梯度下降法,牛顿法也是一种迭代求解算法,其基本思路和梯度下降法一致,只是在选取第$t+1$个点$\boldsymbol{x}^{t+1}$时所采用的策略有所不同,即迭代公式不同。梯度下降法每次选取$\boldsymbol{x}^{t+1}$时,只要求通过泰勒公式在$\boldsymbol{x}^{t}$的邻域内找到一个函数值比其更小的点即可,而牛顿法则期望在此基础之上,$\boldsymbol{x}^{t+1}$还必须是$\boldsymbol{x}^{t}$的邻域内的极小值点。
+
+类似一元函数取到极值点的必要条件是一阶导数等于0,多元函数取到极值点的必要条件是其梯度等于零向量$\boldsymbol{0}$,为了能求解出$\boldsymbol{x}^{t}$的邻域内梯度等于$\boldsymbol{0}$的点,需要进行二阶泰勒展开,其展开式如下
+
+$$
+f(\boldsymbol{x}) = f\left(\boldsymbol{x}^{t}\right)+\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)+\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)^{\mathrm{T}} \nabla^{2} f\left(\boldsymbol{x}^{t}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)+o\left(\left\|\boldsymbol{x}-\boldsymbol{x}^{t}\right\|\right)
+$$
+
+为了后续计算方便,我们取其近似形式
+
+$$
+f(\boldsymbol{x}) \approx f\left(\boldsymbol{x}^{t}\right)+\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)+\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)^{\mathrm{T}} \nabla^{2} f\left(\boldsymbol{x}^{t}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)
+$$
+
+首先对上式求导 
+
+$$
+\begin{aligned}
+\frac{\partial f(\boldsymbol{x})}{\partial \boldsymbol{x}}&=\frac{\partial f\left(\boldsymbol{x}^{t}\right)}{\partial \boldsymbol{x}}+\frac{\partial\nabla f\left(\boldsymbol{x}^{t}\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)}{\partial \boldsymbol{x}}+\frac{1}{2}\frac{\partial\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)^{\mathrm{T}} \nabla^{2} f\left(\boldsymbol{x}^{t}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)}{\partial \boldsymbol{x}} \\
+&=0+\nabla f\left(\boldsymbol{x}^{t}\right)+\frac{1}{2}\left(\nabla^{2} f\left(\boldsymbol{x}^{t}\right)+\nabla^{2} f\left(\boldsymbol{x}^{t}\right)^\mathrm{T}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)
+\end{aligned}
+$$
+
+假设函数$f(\boldsymbol{x})$在$\boldsymbol{x}^{t}$处二阶可导,且偏导数连续,则$\nabla^{2} f\left(\boldsymbol{x}^{t}\right)$是对称矩阵,上式可写为
+
+$$
+\begin{aligned}
+\frac{\partial f(\boldsymbol{x})}{\partial \boldsymbol{x}}&=0+\nabla f\left(\boldsymbol{x}^{t}\right)+\frac{1}{2}\times2\times\nabla^{2} f\left(\boldsymbol{x}^{t}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)\\
+&=\nabla f\left(\boldsymbol{x}^{t}\right)+\nabla^{2} f\left(\boldsymbol{x}^{t}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)
+\end{aligned}
+$$
+
+令上式等于$\boldsymbol{0}$
+
+$$
+\nabla f\left(\boldsymbol{x}^{t}\right)+\nabla^{2} f\left(\boldsymbol{x}^{t}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{t}\right)=\boldsymbol{0}
+$$
+
+当$\nabla^{2} f\left(\boldsymbol{x}^{t}\right)$是可逆矩阵时,解得
+
+$$
+\boldsymbol{x}=\boldsymbol{x}^{t}-\left[\nabla^{2} f\left(\boldsymbol{x}^{t}\right)\right]^{-1}\nabla f\left(\boldsymbol{x}^{t}\right)
+$$
+
+令上式为$\boldsymbol{x}^{t+1}$即可得到牛顿法的迭代公式
+
+$$
+\boldsymbol{x}^{t+1}=\boldsymbol{x}^{t}-\left[\nabla^{2} f\left(\boldsymbol{x}^{t}\right)\right]^{-1}\nabla f\left(\boldsymbol{x}^{t}\right)
+$$
+
+通过上述推导可知,牛顿法每次迭代时需要求解Hessian矩阵的逆矩阵,该步骤计算量通常较大,因此有人基于牛顿法,将其中求Hessian矩阵的逆矩阵改为求计算量更低的近似逆矩阵,我们称此类算法为"拟牛顿法"。
+
+牛顿法虽然期望在每次迭代时能取到极小值点,但是通过上述推导可知,迭代公式是根据极值点的必要条件推导而得,因此并不保证一定是极小值点。
+
+无论是梯度下降法还是牛顿法,根据其终止迭代的条件可知,其都是近似求解算法,即使$f(\boldsymbol{x})$是凸函数,也并不一定保证最终求得的是全局最优解,仅能保证其接近全局最优解。不过在解决实际问题时,并不一定苛求解得全局最优解,在能接近全局最优甚至局部最优时通常也能很好地解决问题。
+
+### 3.3.4  式(3.29)的解释
+
+根据上述牛顿法的迭代公式可知,此式为式(3.27)应用牛顿法时的迭代公式。
+
+### 3.3.5 式(3.30)的推导
+
+
+$$
+\begin{aligned}
+\frac{\partial \ell(\boldsymbol{\beta})}{\partial \boldsymbol{\beta}} &=\frac{\partial \sum_{i=1}^{m}\left(-y_{i} \boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}+\ln \left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)\right)}{\partial \boldsymbol{\beta}} \\
+&=\sum_{i=1}^{m}\left(\frac{\partial\left(-y_{i} \boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}\right)}{\partial \boldsymbol{\beta}}+\frac{\partial \ln \left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)}{\partial \boldsymbol{\beta}}\right) \\
+&=\sum_{i=1}^{m}\left(-y_{i} \hat{\boldsymbol{x}}_{i}+\frac{1}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}} \cdot \hat{\boldsymbol{x}}_{i} e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right) \\
+&=-\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i}\left(y_{i}-\frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}\right) \\
+&=-\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i}\left(y_{i}-p_{1}\left(\hat{\boldsymbol{x}}_{i} ; \boldsymbol{\beta}\right)\right)
+\end{aligned}
+$$
+
+此式也可以进行向量化,令$p_1(\hat{\boldsymbol{x}}_i;\boldsymbol{\beta})=\hat{y}_i$,代入上式得
+
+$$
+\begin{aligned}
+\frac{\partial \ell(\boldsymbol{\beta})}{\partial \boldsymbol{\beta}} &= -\sum_{i=1}^{m}\hat{\boldsymbol{x}}_i(y_i-\hat{y}_i) \\
+& =\sum_{i=1}^{m}\hat{\boldsymbol{x}}_i(\hat{y}_i-y_i) \\
+& ={\mathbf{X}^{\mathrm{T}}}(\hat{\boldsymbol{y}}-\boldsymbol{y}) \\
+\end{aligned}
+$$
+
+其中$\hat{\boldsymbol{y}}=(\hat{y}_{1};\hat{y}_{2};...;\hat{y}_{m}),\boldsymbol{y}=(y_{1};y_{2};...;y_{m})$。
+
+### 3.3.6 式(3.31)的推导
+
+继续对上述式(3.30)中倒数第二个等号的结果求导
+
+$$
+\begin{aligned}
+\frac{\partial^{2} \ell(\boldsymbol{\beta})}{\partial \boldsymbol{\beta} \partial \boldsymbol{\beta}^\mathrm{T}} &=-\frac{\partial \sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i}\left(y_{i}-\frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)}{\partial \boldsymbol{\beta}^\mathrm{T}} \\
+&=-\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i} \frac{\partial\left(y_{i}-\frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}\right)}{\partial \boldsymbol{\beta}^\mathrm{T}} \\
+&=-\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i}\left(\frac{\partial y_{i}}{\partial \boldsymbol{\beta}^\mathrm{T}}-\frac{\partial\left(\frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}\right)}{\partial \boldsymbol{\beta}^\mathrm{T}}\right) \\
+&=\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i}\cdot\frac{\partial\left(\frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}\right)}{\partial \boldsymbol{\beta}^\mathrm{T}} \\
+\end{aligned}
+$$
+
+根据矩阵微分公式$\frac{\partial\boldsymbol{a}^{\mathrm{T}}\boldsymbol{x}}{\partial\boldsymbol{x}^\mathrm{T}}=\frac{\partial\boldsymbol{x}^{\mathrm{T}}\boldsymbol{a}}{\partial\boldsymbol{x}^\mathrm{T}}=\boldsymbol{a}^\mathrm{T}$,其中
+
+$$
+\begin{aligned}
+\frac{\partial\left(\frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}\right)}{\partial \boldsymbol{\beta}^\mathrm{T}} &=\frac{\frac{\partial e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{\partial \boldsymbol{\beta}^\mathrm{T}} \cdot\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)-e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}} \cdot \frac{\partial\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)}{\partial \boldsymbol{\beta}^\mathrm{T}}}{\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)^{2}} \\
+&=\frac{\hat{\boldsymbol{x}}_{i}^\mathrm{T} e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}} \cdot\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)-e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}} \cdot \hat{\boldsymbol{x}}_{i}^\mathrm{T} e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)^{2}} \\
+&=\hat{\boldsymbol{x}}_{i}^\mathrm{T} e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\cdot\frac{\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)-e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)^{2}} \\
+&=\hat{\boldsymbol{x}}_{i}^\mathrm{T} e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\cdot\frac{1}{\left(1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}\right)^{2}} \\
+&=\hat{\boldsymbol{x}}_{i}^\mathrm{T} \cdot \frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}} \cdot \frac{1}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}
+\end{aligned}
+$$
+
+所以 
+
+$$
+\begin{aligned}
+\frac{\partial^{2} \ell(\boldsymbol{\beta})}{\partial \boldsymbol{\beta} \partial \boldsymbol{\beta}^\mathrm{T}} &=\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i}\cdot\hat{\boldsymbol{x}}_{i}^\mathrm{T} \cdot \frac{e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}} \cdot \frac{1}{1+e^{\boldsymbol{\beta}^\mathrm{T} \hat{\boldsymbol{x}}_{i}}} \\
+&=\sum_{i=1}^{m} \hat{\boldsymbol{x}}_{i} \hat{\boldsymbol{x}}_{i}^\mathrm{T} p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\left(1-p_{1}\left(\hat{\boldsymbol{x}}_{i};\boldsymbol{\beta}\right)\right)
+\end{aligned}
+$$
+
+
+## 3.4 线性判别分析
+
+线性判别分析的一般使用流程如下:首先在训练集上学得模型
+
+$$
+y=\boldsymbol{w}^\mathrm{T}\boldsymbol{x}
+$$
+
+由向量内积的几何意义可知,$y$可以看作是$\boldsymbol{x}$在$\boldsymbol{w}$上的投影,因此在训练集上学得的模型能够保证训练集中的同类样本在$\boldsymbol{w}$上的投影$y$很相近,而异类样本在$\boldsymbol{w}$上的投影$y$很疏远。然后对于新的测试样本$\boldsymbol{x}_{i}$,将其代入模型得到它在$\boldsymbol{w}$上的投影$y_{i}$,然后判别这个投影$y_{i}$与哪一类投影更近,则将其判为该类。
+
+最后,线性判别分析也是一种降维方法,但不同于第10章介绍的无监督降维方法,线性判别分析是一种监督降维方法,即降维过程中需要用到样本类别标记信息。
+
+### 3.4.1 式(3.32)的推导
+
+式(3.32)中$\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2$右下角的"2"表示求"2范数",向量的2范数即为模,右上角的"2"表示求平方数,基于此,下面推导式(3.32)。
+
+$$
+\begin{aligned}
+    J &= \frac{\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
+    &= \frac{\|(\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1})^{\mathrm{T}}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
+    &= \frac{\|(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
+    &= \frac{\left[(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\right]^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\
+    &= \frac{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w}
+\end{aligned}
+$$
+
+
+### 3.4.2 式(3.37)到式(3.39)的推导
+
+由式(3.36),可定义拉格朗日函数为
+
+$$
+L(\boldsymbol w,\lambda)=-\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w+\lambda(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1)
+$$
+
+对$\boldsymbol w$求偏导可得 
+
+$$
+\begin{aligned}
+\frac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} &= -\frac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w)}{\partial \boldsymbol w}+\lambda \frac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1)}{\partial \boldsymbol w} \\
 &= -(\mathbf{S}_b+\mathbf{S}_b^{\mathrm{T}})\boldsymbol w+\lambda(\mathbf{S}_w+\mathbf{S}_w^{\mathrm{T}})\boldsymbol w
-\end{aligned}$$
+\end{aligned}
+$$
+
 由于$\mathbf{S}_b=\mathbf{S}_b^{\mathrm{T}},\mathbf{S}_w=\mathbf{S}_w^{\mathrm{T}}$,所以
-$$\cfrac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} = -2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w$$
+
+$$
+\frac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} = -2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w
+$$
+
 令上式等于0即可得
-$$-2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w=0$$
-$$\mathbf{S}_b\boldsymbol w=\lambda\mathbf{S}_w\boldsymbol w$$
-$$(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\lambda\mathbf{S}_w\boldsymbol w$$
-若令$(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\gamma$,则
-$$\gamma(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})=\lambda\mathbf{S}_w\boldsymbol w$$
-$$\boldsymbol{w}=\frac{\gamma}{\lambda}\mathbf{S}_{w}^{-1}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})$$
-由于最终要求解的$\boldsymbol{w}$不关心其大小,只关心其方向,所以其大小可以任意取值。由于$\boldsymbol{\mu}_{0}$和$\boldsymbol{\mu}_{1}$的大小是固定的,所以$\gamma$这个标量的大小只受$\boldsymbol{w}$的大小影响,因此可以调整$\boldsymbol{w}$的大小使得$\gamma=\lambda$,西瓜书中所说的“不妨令$\mathbf{S}_b\boldsymbol w=\lambda(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})$”也等价于令$\gamma=\lambda$,因此,此时$\frac{\gamma}{\lambda}=1$,求解出的$\boldsymbol{w}$即为公式(3.39)
-
-## 3.38
-$$\mathbf{S}_b\boldsymbol{w}=\lambda(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})$$
-[推导]:参见公式(3.37)
-
-## 3.39
-$$\boldsymbol{w}=\mathbf{S}_{w}^{-1}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})$$
-[推导]:参见公式(3.37)
-
-## 3.43
-$$\begin{aligned}
-\mathbf{S}_b &= \mathbf{S}_t - \mathbf{S}_w \\
-&= \sum_{i=1}^N m_i(\boldsymbol\mu_i-\boldsymbol\mu)(\boldsymbol\mu_i-\boldsymbol\mu)^{\mathrm{T}}
-\end{aligned}$$
-[推导]:由公式(3.40)、公式(3.41)、公式(3.42)可得:
-$$\begin{aligned}
+
+$$
+-2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w=0
+$$
+
+
+$$
+\mathbf{S}_b\boldsymbol w=\lambda\mathbf{S}_w\boldsymbol w
+$$
+
+
+$$
+(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\lambda\mathbf{S}_w\boldsymbol w
+$$
+
+若令$(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\gamma$,则有
+
+$$
+\gamma(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})=\lambda\mathbf{S}_w\boldsymbol w
+$$
+
+
+$$
+\boldsymbol{w}=\frac{\gamma}{\lambda}\mathbf{S}_{w}^{-1}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})
+$$
+
+由于最终要求解的$\boldsymbol{w}$不关心其大小,只关心其方向,所以其大小可以任意取值。又因为$\boldsymbol{\mu}_{0}$和$\boldsymbol{\mu}_{1}$的大小是固定的,所以$\gamma$的大小只受$\boldsymbol{w}$的大小影响,因此可以通过调整$\boldsymbol{w}$的大小使得$\gamma=\lambda$,西瓜书中所说的"不妨令$\mathbf{S}_b\boldsymbol w=\lambda(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})$"也可等价理解为令$\gamma=\lambda$,因此,此时$\frac{\gamma}{\lambda}=1$,求解出的$\boldsymbol{w}$即为式(3.39)。
+
+### 3.4.3 式(3.43)的推导
+
+由式(3.40)、式(3.41)、式(3.42)可得 
+
+$$
+\begin{aligned}
 \mathbf{S}_b &= \mathbf{S}_t - \mathbf{S}_w \\
 &= \sum_{i=1}^m(\boldsymbol x_i-\boldsymbol\mu)(\boldsymbol x_i-\boldsymbol\mu)^{\mathrm{T}}-\sum_{i=1}^N\sum_{\boldsymbol x\in X_i}(\boldsymbol x-\boldsymbol\mu_i)(\boldsymbol x-\boldsymbol\mu_i)^{\mathrm{T}} \\
 &= \sum_{i=1}^N\left(\sum_{\boldsymbol x\in X_i}\left((\boldsymbol x-\boldsymbol\mu)(\boldsymbol x-\boldsymbol\mu)^{\mathrm{T}}-(\boldsymbol x-\boldsymbol\mu_i)(\boldsymbol x-\boldsymbol\mu_i)^{\mathrm{T}}\right)\right) \\
 &= \sum_{i=1}^N\left(\sum_{\boldsymbol x\in X_i}\left((\boldsymbol x-\boldsymbol\mu)(\boldsymbol x^{\mathrm{T}}-\boldsymbol\mu^{\mathrm{T}})-(\boldsymbol x-\boldsymbol\mu_i)(\boldsymbol x^{\mathrm{T}}-\boldsymbol\mu_i^{\mathrm{T}})\right)\right) \\
-&= \sum_{i=1}^N\left(\sum_{\boldsymbol x\in X_i}\left(\boldsymbol x\boldsymbol x^{\mathrm{T}} - \boldsymbol x\boldsymbol\mu^{\mathrm{T}}-\boldsymbol\mu\boldsymbol x^{\mathrm{T}}+\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}-\boldsymbol x\boldsymbol x^{\mathrm{T}}+\boldsymbol x\boldsymbol\mu_i^{\mathrm{T}}+\boldsymbol\mu_i\boldsymbol x^{\mathrm{T}}-\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right)\right) \\
-&= \sum_{i=1}^N\left(\sum_{\boldsymbol x\in X_i}\left(- \boldsymbol x\boldsymbol\mu^{\mathrm{T}}-\boldsymbol\mu\boldsymbol x^{\mathrm{T}}+\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}+\boldsymbol x\boldsymbol\mu_i^{\mathrm{T}}+\boldsymbol\mu_i\boldsymbol x^{\mathrm{T}}-\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right)\right) \\
+&= \sum_{i=1}^N\left(\sum_{\boldsymbol x\in X_i}\left(\boldsymbol x\boldsymbol x^{\mathrm{T}} - \boldsymbol x\boldsymbol\mu^{\mathrm{T}}-\boldsymbol\mu\boldsymbol x^{\mathrm{T}}+\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}-\boldsymbol x\boldsymbol x^{\mathrm{T}}+\boldsymbol x\boldsymbol\mu_i^{\mathrm{T}}+\boldsymbol\mu_i\boldsymbol x^{\mathrm{T}}-\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right)\right)\\
+&=\sum_{i=1}^N\left(\sum_{\boldsymbol x\in X_i}\left(- \boldsymbol x\boldsymbol\mu^{\mathrm{T}}-\boldsymbol\mu\boldsymbol x^{\mathrm{T}}+\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}+\boldsymbol x\boldsymbol\mu_i^{\mathrm{T}}+\boldsymbol\mu_i\boldsymbol x^{\mathrm{T}}-\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right)\right) \\
 &= \sum_{i=1}^N\left(-\sum_{\boldsymbol x\in X_i}\boldsymbol x\boldsymbol\mu^{\mathrm{T}}-\sum_{\boldsymbol x\in X_i}\boldsymbol\mu\boldsymbol x^{\mathrm{T}}+\sum_{\boldsymbol x\in X_i}\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}+\sum_{\boldsymbol x\in X_i}\boldsymbol x\boldsymbol\mu_i^{\mathrm{T}}+\sum_{\boldsymbol x\in X_i}\boldsymbol\mu_i\boldsymbol x^{\mathrm{T}}-\sum_{\boldsymbol x\in X_i}\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right) \\
 &= \sum_{i=1}^N\left(-m_i\boldsymbol\mu_i\boldsymbol\mu^{\mathrm{T}}-m_i\boldsymbol\mu\boldsymbol\mu_i^{\mathrm{T}}+m_i\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}+m_i\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}+m_i\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}-m_i\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right) \\
 &= \sum_{i=1}^N\left(-m_i\boldsymbol\mu_i\boldsymbol\mu^{\mathrm{T}}-m_i\boldsymbol\mu\boldsymbol\mu_i^{\mathrm{T}}+m_i\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}+m_i\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right) \\
 &= \sum_{i=1}^Nm_i\left(-\boldsymbol\mu_i\boldsymbol\mu^{\mathrm{T}}-\boldsymbol\mu\boldsymbol\mu_i^{\mathrm{T}}+\boldsymbol\mu\boldsymbol\mu^{\mathrm{T}}+\boldsymbol\mu_i\boldsymbol\mu_i^{\mathrm{T}}\right) \\
 &= \sum_{i=1}^N m_i(\boldsymbol\mu_i-\boldsymbol\mu)(\boldsymbol\mu_i-\boldsymbol\mu)^{\mathrm{T}}
-\end{aligned}$$
+\end{aligned}
+$$
+
+
+### 3.4.4 式(3.44)的推导
+
+此式是式(3.35)的推广形式,证明如下。
 
-## 3.44
-$$\max\limits_{\mathbf{W}}\cfrac{
-\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})}{\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})}$$
-[解析]:此式是公式(3.35)的推广形式,证明如下:
 设$\mathbf{W}=(\boldsymbol w_1,\boldsymbol w_2,...,\boldsymbol w_i,...,\boldsymbol w_{N-1})\in\mathbb{R}^{d\times(N-1)}$,其中$\boldsymbol w_i\in\mathbb{R}^{d\times 1}$为$d$行1列的列向量,则
-$$\left\{
+
+$$
+\left\{
 \begin{aligned}
 \operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})&=\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_b \boldsymbol w_i \\
 \operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})&=\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_w \boldsymbol w_i
 \end{aligned}
-\right.$$
-所以公式(3.44)可变形为
-$$\max\limits_{\mathbf{W}}\cfrac{
-\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_b \boldsymbol w_i}{\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_w \boldsymbol w_i}$$
-对比公式(3.35)易知上式即公式(3.35)的推广形式
-
-## 3.45
-$$\mathbf{S}_b\mathbf{W}=\lambda\mathbf{S}_w\mathbf{W}$$
-[推导]:同公式(3.35)一样,我们在此处也固定公式(3.44)的分母为1,那么公式(3.44)此时等价于如下优化问题
-$$\begin{array}{cl}\underset{\boldsymbol{w}}{\min} & -\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W}) \\ 
-\text { s.t. } & \operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})=1\end{array}$$
-根据拉格朗日乘子法可知,上述优化问题的拉格朗日函数为
-$$L(\mathbf{W},\lambda)=-\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})+\lambda(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})-1)$$
-根据矩阵微分公式$\cfrac{\partial}{\partial \mathbf{X}} \text { tr }(\mathbf{X}^{\mathrm{T}}  \mathbf{B} \mathbf{X})=(\mathbf{B}+\mathbf{B}^{\mathrm{T}})\mathbf{X}$对上式关于$\mathbf{W}$求偏导可得
-$$\begin{aligned}
-\cfrac{\partial L(\mathbf{W},\lambda)}{\partial \mathbf{W}} &= -\cfrac{\partial\left(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})\right)}{\partial \mathbf{W}}+\lambda \cfrac{\partial\left(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})-1\right)}{\partial \mathbf{W}} \\
+\right.
+$$
+
+所以式(3.44)可变形为 
+
+$$
+\max\limits_{\mathbf{W}}\frac{
+\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_b \boldsymbol w_i}{\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_w \boldsymbol w_i}
+$$
+
+对比式(3.35)易知,上式即式(3.35)的推广形式。
+
+除了式(3.35)以外,还有一种常见的优化目标形式如下
+
+$$
+\max\limits_{\mathbf{W}}\frac{
+\prod_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_b \boldsymbol w_i}{\prod_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_w \boldsymbol w_i}=\max\limits_{\mathbf{W}}\prod_{i=1}^{N-1}\frac{\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_b \boldsymbol w_i}{\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_w \boldsymbol w_i}
+$$
+
+
+无论是采用何种优化目标形式,其优化目标只要满足"同类样例的投影点尽可能接近,异类样例的投影点尽可能远离"即可。
+
+### 3.4.5 式(3.45)的推导
+
+同式(3.35),此处也固定式(3.44)的分母为1,那么式(3.44)此时等价于如下优化问题
+
+$$
+\begin{array}{cl}\underset{\mathbf{w}}{\min} & -\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W}) \\ 
+\text { s.t. } & \operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})=1\end{array}
+$$
+
+根据拉格朗日乘子法,可定义上述优化问题的拉格朗日函数
+
+$$
+L(\mathbf{W},\lambda)=-\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})+\lambda(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})-1)
+$$
+
+根据矩阵微分公式$\frac{\partial}{\partial \mathbf{X}} \text { tr }(\mathbf{X}^{\mathrm{T}}  \mathbf{B} \mathbf{X})=(\mathbf{B}+\mathbf{B}^{\mathrm{T}})\mathbf{X}$对上式关于$\mathbf{W}$求偏导可得
+
+$$
+\begin{aligned}
+\frac{\partial L(\mathbf{W},\lambda)}{\partial \mathbf{W}} &= -\frac{\partial\left(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})\right)}{\partial \mathbf{W}}+\lambda \frac{\partial\left(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})-1\right)}{\partial \mathbf{W}} \\
 &= -(\mathbf{S}_b+\mathbf{S}_b^{\mathrm{T}})\mathbf{W}+\lambda(\mathbf{S}_w+\mathbf{S}_w^{\mathrm{T}})\mathbf{W}
-\end{aligned}$$
+\end{aligned}
+$$
+
 由于$\mathbf{S}_b=\mathbf{S}_b^{\mathrm{T}},\mathbf{S}_w=\mathbf{S}_w^{\mathrm{T}}$,所以
-$$\cfrac{\partial L(\mathbf{W},\lambda)}{\partial \mathbf{W}} = -2\mathbf{S}_b\mathbf{W}+2\lambda\mathbf{S}_w\mathbf{W}$$
+
+$$
+\frac{\partial L(\mathbf{W},\lambda)}{\partial \mathbf{W}} = -2\mathbf{S}_b\mathbf{W}+2\lambda\mathbf{S}_w\mathbf{W}
+$$
+
 令上式等于$\mathbf{0}$即可得
-$$-2\mathbf{S}_b\mathbf{W}+2\lambda\mathbf{S}_w\mathbf{W}=\mathbf{0}$$
-$$\mathbf{S}_b\mathbf{W}=\lambda\mathbf{S}_w\mathbf{W}$$
+
+$$
+-2\mathbf{S}_b\mathbf{W}+2\lambda\mathbf{S}_w\mathbf{W}=\mathbf{0}
+$$
+
+
+$$
+\mathbf{S}_b\mathbf{W}=\lambda\mathbf{S}_w\mathbf{W}
+$$
+
+此即为式(3.45),但是此式在解释为何要取$N-1$个最大广义特征值所对应的特征向量来构成$\mathbf{W}$时不够直观。因此,我们换一种更为直观的方式求解式(3.44),只需换一种方式构造拉格朗日函数即可。
+
+重新定义上述优化问题的拉格朗日函数
+
+$$
+L(\mathbf{W},\boldsymbol{\Lambda})=-\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})+\operatorname{tr}\left(\boldsymbol{\Lambda}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W}-\mathbf{I})\right)
+$$
+
+其中,$\mathbf{I} \in \mathbb{R}^{(N-1) \times (N-1)}$为单位矩阵,$\boldsymbol{\Lambda}=\operatorname{diag}(\lambda_1,\lambda_2,...,\lambda_{N-1})\in \mathbb{R}^{(N-1) \times (N-1)}$是由$N-1$个拉格朗日乘子构成的对角矩阵。根据矩阵微分公式$\frac{\partial}{\partial \mathbf{X}} \operatorname{tr}(\mathbf{X}^{\mathrm{T}}\mathbf{A}\mathbf{X})=(\mathbf{A}+\mathbf{A}^{\mathrm{T}})\mathbf{X},\frac{\partial}{\partial \mathbf{X}} \operatorname{tr}(\mathbf{X}\mathbf{A}\mathbf{X}^\mathrm{T}\mathbf{B})=\frac{\partial}{\partial \mathbf{X}} \operatorname{tr}(\mathbf{A}\mathbf{X}^\mathrm{T}\mathbf{B}\mathbf{X})=\mathbf{B}^\mathrm{T}\mathbf{X}\mathbf{A}^\mathrm{T}+\mathbf{B}\mathbf{X}\mathbf{A}$,对上式关于$\mathbf{W}$求偏导可得
+
+$$
+\begin{aligned}
+\frac{\partial L(\mathbf{W},\boldsymbol{\Lambda})}{\partial \mathbf{W}} &= -\frac{\partial\left(\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_b \mathbf{W})\right)}{\partial \mathbf{W}}+\frac{\partial\left(\operatorname{tr}\left(\boldsymbol{\Lambda}\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W}-\boldsymbol{\Lambda}\mathbf{I}\right)\right)}{\partial \mathbf{W}} \\
+&= -(\mathbf{S}_b+\mathbf{S}_b^{\mathrm{T}})\mathbf{W}+(\mathbf{S}_{w}^\mathrm{T}\mathbf{W}\boldsymbol{\Lambda}^\mathrm{T}+\mathbf{S}_w\mathbf{W}\boldsymbol{\Lambda})
+\end{aligned}
+$$
+
+由于$\mathbf{S}_b=\mathbf{S}_b^{\mathrm{T}},\mathbf{S}_w=\mathbf{S}_w^{\mathrm{T}},\boldsymbol{\Lambda}^\mathrm{T}=\boldsymbol{\Lambda}$,所以
+
+$$
+\frac{\partial L(\mathbf{W},\boldsymbol{\Lambda})}{\partial \mathbf{W}} = -2\mathbf{S}_b\mathbf{W}+2\mathbf{S}_w\mathbf{W}\boldsymbol{\Lambda}
+$$
+
+令上式等于$\mathbf{0}$即可得
+
+$$
+-2\mathbf{S}_b\mathbf{W}+2\mathbf{S}_w\mathbf{W}\boldsymbol{\Lambda}=\mathbf{0}
+$$
+
+
+$$
+\mathbf{S}_b\mathbf{W}=\mathbf{S}_w\mathbf{W}\boldsymbol{\Lambda}
+$$
+
+将$\mathbf{W}$和$\boldsymbol{\Lambda}$展开可得
+
+$$
+\mathbf{S}_b\boldsymbol{w}_i=\lambda_{i}\mathbf{S}_w\boldsymbol{w}_i, \quad i=1,2,...,N-1
+$$
+
+此时便得到了$N-1$个广义特征值问题。进一步地,将其代入优化问题的目标函数可得
+
+$$
+\begin{aligned}
+\underset{\mathbf{W}}{\min}-\operatorname{ tr }(\mathbf W^{\mathrm{T}} \mathbf{S}_{b} \mathbf W)&=\max\limits_{\mathbf W}\operatorname{ tr }(\mathbf W^{\mathrm{T}} \mathbf{S}_{b} \mathbf W) \\
+&=\max\limits_{\mathbf W}\sum_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_{b} \boldsymbol w_i \\
+&=\max\limits_{\mathbf W}\sum_{i=1}^{N-1}\lambda_{i}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_{w} \boldsymbol w_i
+\end{aligned}
+$$
+
+由于存在约束$\operatorname{tr}(\mathbf{W}^{\mathrm{T}}\mathbf{S}_w \mathbf{W})=\sum\limits_{i=1}^{N-1}\boldsymbol w_i^{\mathrm{T}}\mathbf{S}_{w} \boldsymbol w_i=1$,所以欲使上式取到最大值,只需取$N-1$个最大的$\lambda_{i}$即可。根据$\mathbf{S}_b\boldsymbol{w}_i=\lambda_{i}\mathbf{S}_w\boldsymbol{w}_i$可知,$\lambda_{i}$对应的便是广义特征值,$\boldsymbol{w}_i$是$\lambda_{i}$所对应的特征向量。**(广义特征值的定义和常用求解方法可查阅[3])**
+
+对于$N$分类问题,一定要求出$N-1$个$\boldsymbol{w}_{i}$吗?其实不然。之所以将$\mathbf{W}$定义为$d\times (N-1)$维的矩阵是因为当$d>(N-1)$时,实对称矩阵$\mathbf{S}_w^{-1}\mathbf{S}_b$的秩至多为$N-1$,所以理论上至多能解出$N-1$个非零特征值$\lambda_{i}$及其对应的特征向量$\boldsymbol{w}_i$。但是$\mathbf{S}_w^{-1}\mathbf{S}_b$的秩是受当前训练集中的数据分布所影响的,因此并不一定为$N-1$。此外,当数据分布本身就足够理想时,即使能求解出多个$\boldsymbol{w}_i$,但是实际可能只需要求解出1个$\boldsymbol{w}_i$便可将同类样本聚集,异类样本完全分离。
+
+当$d>(N-1)$时,实对称矩阵$\mathbf{S}_w^{-1}\mathbf{S}_b$的秩至多为$N-1$的证明过程如下:由于$\boldsymbol{\mu}=\frac{1}{N}\sum\limits_{i=1}^{N}m_i\boldsymbol{\mu}_i$,所以$\boldsymbol{\mu}_1-\boldsymbol{\mu}$一定可以由$\boldsymbol{\mu}$和$\boldsymbol{\mu}_2,...,\boldsymbol{\mu}_N$线性表示,因此矩阵$\mathbf{S}_b$中至多有$\boldsymbol{\mu}_2-\boldsymbol{\mu},...,\boldsymbol{\mu}_N-\boldsymbol{\mu}$共$N-1$个线性无关的向量,由于此时$d> (N-1)$,所以$\mathbf{S}_b$的秩$r(\mathbf{S}_b)$至多为$N-1$。同时假设矩阵$\mathbf{S}_w$满秩,即$r(\mathbf{S}_w)=r(\mathbf{S}_w^{-1})=d$,则根据矩阵秩的性质$r(\mathbf{A}\mathbf{B})\leqslant\min\{r(\mathbf{A}),r(\mathbf{B})\}$可知,$\mathbf{S}_w^{-1}\mathbf{S}_b$的秩也至多为$N-1$。
+
+## 3.5 多分类学习
+
+### 3.5.1 图3.5的解释
+
+图3.5中所说的"海明距离"是指两个码对应位置不相同的个数,"欧式距离"则是指两个向量之间的欧氏距离,例如图3.5(a)中第1行的编码可以视作为向量$(-1, +1, -1, +1, +1)$,测试示例的编码则为$(-1, -1, +1, -1, +1)$,其中第2个、第3个、第4个元素不相同,所以它们的海明距离为3,欧氏距离为$\sqrt{(-1-(-1))^2+(1-(-1))^2+(-1-1)^2+(1-(-1))^2+(1-1)^2}=\sqrt{0+4+4+4+0}=2\sqrt{3}$。需要注意的是,在计算海明距离时,与"停用类"不同算作0.5,例如图3.5(b)中第2行的海明距离计算公式为$0.5+0.5+0.5+0.5=2$。
+
+## 3.6 类别不平衡问题
+
+对于类别不平衡问题,"西瓜书"2.3.1节中的"精度"通常无法满足该特殊任务的需求,例如"西瓜书"在本节第一段的举例:有998个反例和2个正例,若机器学习算法返回一个永远将新样本预测为反例的学习器则能达到99.8%的精度,显然虚高,因此在类别不平衡时常采用2.3节中的查准率、查全率和F1来度量学习器的性能。
+
+## 参考文献
+[1] 王燕军. 最优化基础理论与方法. 复旦大学出版社, 2011.
+
+[2] Wikipedia contributors. Matrix calculus, 2022.
+
+[3] 张贤达. 矩阵分析与应用. 第 2 版. 清华大学出版社, 2013.

+ 457 - 121
docs/chapter4/chapter4.md

@@ -1,130 +1,466 @@
-## 4.1
-$$\operatorname{Ent}(D)=-\sum_{k=1}^{|\mathcal{Y}|}p_k\log_{2}{p_k}$$
-[解析]:证明$0\leq\operatorname{Ent}(D)\leq\log_{2}|\mathcal{Y}|$:
+# 第4章 决策树
+
+本章的决策树算法背后没有复杂的数学推导,其更符合人类日常思维方式,理解起来也更为直观,其引入的数学工具也仅是为了让该算法在计算上可行,同时"西瓜书"在本章列举了大量例子,因此本章的算法会更为通俗易懂。
+
+## 4.1 基本流程
+
+作为本章的开篇,首先要明白决策树在做什么。正如"西瓜书"中图4.1所示的决策过程,决策树就是不断根据某属性进行划分的过程(每次决策时都是在上次决策结果的基础之上进行),即"if......elif......else......"的决策过程,最终得出一套有效的判断逻辑,便是学到的模型。但是,划分到什么时候就停止划分呢?这就是图4.2中的3个"**return**"代表的递归返回,下面解释图4.2中的3个递归返回。
+
+首先,应该明白决策树的基本思想是根据某种原则(即图4.2第8行)每次选择一个属性作为划分依据,然后按属性的取值将数据集中的样本进行划分,例如将所有触感为"硬滑"的西瓜的分到一起,将所有触感为"软粘"的西瓜分到一起,划分完得到若干子集,接着再对各个子集按照以上流程重新选择某个属性继续递归划分,然而在划分的过程中通常会遇到以下几种特殊情况。
+
+(1)若递归划分过程中某个子集中已经只含有某一类的样本(例如只含好瓜),那么此时划分的目的已经达到了,无需再进行递归划分,此即为递归返回的情形(1),最极端的情况就是初始数据集中的样本全是某一类的样本,那么此时决策树算法到此终止,建议尝试其他算法;
+
+(2)递归划分时每次选择一个属性作为划分依据,并且该属性通常不能重复使用(仅针对离散属性),原因是划分后产生的各个子集在该属性上的取值相同。例如本次根据触感对西瓜样本进行划分,那么后面对划分出的子集(及子集的子集......)再次进行递归划分时不能再使用"触感",图4.2第14行的$A \backslash\{a_*\}$表示的便是从候选属性集合$A$中将当前正在使用的属性$a_*$排除。由于样本的属性个数是有限的,因此划分次数通常不超过属性个数。若所有属性均已被用作过划分依据,即$A=\varnothing$,此时子集中仍含有不同类样本(例如仍然同时含有好瓜和坏瓜),但是因已无属性可用作划分依据,此时只能少数服从多数,以此子集中样本数最多的类为标记。由于无法继续划分的直接原因是各个子集中的样本在各个属性上的取值都相同,所以即使$A\neq\varnothing$,但是当子集中的样本在属性集合$A$上取值都相同时,等价视为$A=\varnothing$,此即为递归返回的情形(2);
+
+(3)根据某个属性进行划分时,若该属性多个属性值中的某个属性值不包含任何样本(例如未收集到),例如对当前子集以"纹理"属性来划分,"纹理"共有3种取值:清晰、稍糊、模糊,但发现当前子集中并无样本"纹理"属性取值为模糊,此时对于取值为清晰的子集和取值为稍糊的子集继续递归,而对于取值为模糊的分支,因为无样本落入,将其标记为叶结点,其类别标记为训练集$D$中样本最多的类,即把全体样本的分布作为当前结点的先验分布。其实就是一种盲猜,既然是盲猜,那么合理的做法就是根据已有数据用频率近似概率的思想假设出现频率最高的便是概率最大的。注意,此分支必须保留,因为测试时,可能会有样本落入该分支。此即为递归返回的情形(3)。
+
+## 4.2 划分选择
+
+本节介绍的三种划分选择方法,即信息增益、增益率、基尼指数分别对应著名的ID3、C4.5和CART三种决策树算法。
+
+### 4.2.1 式(4.1)的解释
+
+该式为信息论中的信息熵定义式,以下先证明$0\leqslant\operatorname{Ent}(D)\leqslant\log_{2}|\mathcal{Y}|$,然后解释其最大值和最小值所表示的含义。
+
 已知集合$D$的信息熵的定义为
-$$\operatorname{Ent}(D)=-\sum_{k=1}^{|\mathcal{Y}|} p_{k} \log _{2} p_{k}$$
-其中,$|\mathcal{Y}|$表示样本类别总数,$p_k$表示第$k$类样本所占的比例,且$0 \leq p_k \leq 1,\sum_{k=1}^{n}p_k=1$。若令$|\mathcal{Y}|=n,p_k=x_k$,那么信息熵$\operatorname{Ent}(D)$就可以看作一个$n$元实值函数,也即
-$$\operatorname{Ent}(D)=f(x_1,...,x_n)=-\sum_{k=1}^{n} x_{k} \log _{2} x_{k} $$
-其中,$0 \leq x_k \leq 1,\sum_{k=1}^{n}x_k=1$,下面考虑求该多元函数的最值。首先我们先来求最大值,如果不考虑约束$0 \leq x_k \leq 1$,仅考虑$\sum_{k=1}^{n}x_k=1$的话,对$f(x_1,...,x_n)$求最大值等价于如下最小化问题
-$$\begin{array}{ll}{
-\operatorname{min}} & {\sum\limits_{k=1}^{n} x_{k} \log _{2} x_{k} } \\ 
-{\text { s.t. }} & {\sum\limits_{k=1}^{n}x_k=1} 
-\end{array}$$
-显然,在$0 \leq x_k \leq 1$时,此问题为凸优化问题,而对于凸优化问题来说,能令其拉格朗日函数的一阶偏导数等于0的点即为最优解。根据拉格朗日乘子法可知,该优化问题的拉格朗日函数为
-$$L(x_1,...,x_n,\lambda)=\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda(\sum_{k=1}^{n}x_k-1)$$
-其中,$\lambda$为拉格朗日乘子。对$L(x_1,...,x_n,\lambda)$分别关于$x_1,...,x_n,\lambda$求一阶偏导数,并令偏导数等于0可得
-$$\begin{aligned}
-\cfrac{\partial L(x_1,...,x_n,\lambda)}{\partial x_1}&=\cfrac{\partial }{\partial x_1}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda(\sum_{k=1}^{n}x_k-1)\right]=0\\
-&=\log _{2} x_{1}+x_1\cdot \cfrac{1}{x_1\ln2}+\lambda=0 \\
-&=\log _{2} x_{1}+\cfrac{1}{\ln2}+\lambda=0 \\
-&\Rightarrow \lambda=-\log _{2} x_{1}-\cfrac{1}{\ln2}\\
-\cfrac{\partial L(x_1,...,x_n,\lambda)}{\partial x_2}&=\cfrac{\partial }{\partial x_2}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda(\sum_{k=1}^{n}x_k-1)\right]=0\\
-&\Rightarrow \lambda=-\log _{2} x_{2}-\cfrac{1}{\ln2}\\
-\vdots\\
-\cfrac{\partial L(x_1,...,x_n,\lambda)}{\partial x_n}&=\cfrac{\partial }{\partial x_n}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda(\sum_{k=1}^{n}x_k-1)\right]=0\\
-&\Rightarrow \lambda=-\log _{2} x_{n}-\cfrac{1}{\ln2}\\
-\cfrac{\partial L(x_1,...,x_n,\lambda)}{\partial \lambda}&=\cfrac{\partial }{\partial \lambda}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda(\sum_{k=1}^{n}x_k-1)\right]=0\\
+
+$$
+\operatorname{Ent}(D)=-\sum_{k=1}^{|\mathcal{Y}|} p_{k} \log_{2} p_{k}
+$$
+
+
+其中,$|\mathcal{Y}|$表示样本类别总数,$p_k$表示第$k$类样本所占的比例,有$0\leqslant p_k \leqslant 1,\sum_{k=1}^{n}p_k=1$。若令$|\mathcal{Y}|=n,p_k=x_k$,那么信息熵$\operatorname{Ent}(D)$就可以看作一个$n$元实值函数,即
+
+$$
+\operatorname{Ent}(D)=f(x_1,\cdots,x_n)=-\sum_{k=1}^{n} x_{k} \log_{2} x_{k}
+$$
+
+
+其中$0 \leqslant x_k \leqslant 1,\sum_{k=1}^{n}x_k=1$。
+
+下面考虑求该多元函数的最值. 首先我们先来求最大值,如果不考虑约束$0
+\leqslant x_k \leqslant
+1$而仅考虑$\sum_{k=1}^{n}x_k=1$,则对$f(x_1,\cdots,x_n)$求最大值等价于如下最小化问题:
+
+$$
+\begin{array}{ll}{
+\operatorname{min}} & {\sum\limits_{k=1}^{n} x_{k} \log_{2} x_{k} }\\
+{\text { {\rm s.t.} }} & {\sum\limits_{k=1}^{n}x_k=1}
+\end{array}
+$$
+
+
+显然,在$0 \leqslant x_k \leqslant 1$时,此问题为凸优化问题。对于凸优化问题来说,使其拉格朗日函数的一阶偏导数等于0的点即最优解。根据拉格朗日乘子法可知,该优化问题的拉格朗日函数为
+
+$$
+L(x_1,\cdots,x_n,\lambda)=\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+
+\lambda\left(\sum_{k=1}^{n}x_k-1\right)
+$$
+
+
+其中,$\lambda$为拉格朗日乘子。对$L(x_1,\cdots,x_n,\lambda)$分别关于$x_1,\cdots,x_n,\lambda$求一阶偏导数,并令偏导数等于0可得
+
+$$
+\begin{aligned}
+\dfrac{\partial L(x_1,\cdots,x_n,\lambda)}{\partial
+x_1}&=\dfrac{\partial }{\partial x_1} \left[\sum_{k=1}^{n} x_{k}
+\log _{2} x_{k}+\lambda
+\left(\sum_{k=1}^{n}x_k-1\right)\right]=0\\
+&=\log _{2} x_{1}+x_1\cdot \dfrac{1}{x_1\ln2}+\lambda=0 \\
+&=\log _{2} x_{1}+\dfrac{1}{\ln2}+\lambda=0 \\
+&\Rightarrow \lambda=-\log _{2} x_{1}-\dfrac{1}{\ln2}\\
+\end{aligned}
+$$
+
+ 
+$$
+\begin{aligned}
+\dfrac{\partial L(x_1,\cdots,x_n,\lambda)}{\partial x_2}&=\dfrac{\partial }{\partial x_2}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda\left(\sum_{k=1}^{n}x_k-1\right)\right]=0\\
+&\Rightarrow \lambda=-\log _{2} x_{2}-\dfrac{1}{\ln2}\\
+\cdots\\
+\dfrac{\partial L(x_1,\cdots,x_n,\lambda)}{\partial x_n}&=\dfrac{\partial }{\partial x_n}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda\left(\sum_{k=1}^{n}x_k-1\right)\right]=0\\
+&\Rightarrow \lambda=-\log _{2} x_{n}-\dfrac{1}{\ln2};\\
+\dfrac{\partial L(x_1,\cdots,x_n,\lambda)}{\partial \lambda}&=\dfrac{\partial }{\partial \lambda}\left[\sum_{k=1}^{n} x_{k} \log _{2} x_{k}+\lambda\left(\sum_{k=1}^{n}x_k-1\right)\right]=0\\
 &\Rightarrow \sum_{k=1}^{n}x_k=1\\
-\end{aligned}$$
-整理一下可得
-$$\left\{ \begin{array}{lr}
-\lambda=-\log _{2} x_{1}-\cfrac{1}{\ln2}=-\log _{2} x_{2}-\cfrac{1}{\ln2}=...=-\log _{2} x_{n}-\cfrac{1}{\ln2} \\
+\end{aligned}
+$$
+
+整理一下可得 
+
+$$
+\left\{ \begin{array}{lr}
+\lambda=-\log _{2} x_{1}-\frac{1}{\ln2}=-\log _{2} x_{2}-\frac{1}{\ln2}=\cdots=-\log _{2} x_{n}-\frac{1}{\ln2} \\
 \sum\limits_{k=1}^{n}x_k=1
-\end{array}\right.$$
+\end{array}\right.
+$$
+
 由以上两个方程可以解得
-$$x_1=x_2=...=x_n=\cfrac{1}{n}$$
-又因为$x_k$还需满足约束$0 \leq x_k \leq 1$,显然$0 \leq\cfrac{1}{n}\leq 1$,所以$x_1=x_2=...=x_n=\cfrac{1}{n}$是满足所有约束的最优解,也即为当前最小化问题的最小值点,同时也是$f(x_1,...,x_n)$的最大值点。将$x_1=x_2=...=x_n=\cfrac{1}{n}$代入$f(x_1,...,x_n)$中可得
-$$f(\cfrac{1}{n},...,\cfrac{1}{n})=-\sum_{k=1}^{n} \cfrac{1}{n} \log _{2} \cfrac{1}{n}=-n\cdot\cfrac{1}{n} \log _{2} \cfrac{1}{n}=\log _{2} n$$
-所以$f(x_1,...,x_n)$在满足约束$0 \leq x_k \leq 1,\sum_{k=1}^{n}x_k=1$时的最大值为$\log _{2} n$。求完最大值后下面我们再来求最小值,如果不考虑约束$\sum_{k=1}^{n}x_k=1$,仅考虑$0 \leq x_k \leq 1$的话,$f(x_1,...,x_n)$可以看做是$n$个互不相关的一元函数的加和,也即
-$$f(x_1,...,x_n)=\sum_{k=1}^{n} g(x_k) $$
-其中,$g(x_k)=-x_{k} \log _{2} x_{k},0 \leq x_k \leq 1$。那么当$g(x_1),g(x_2),...,g(x_n)$分别取到其最小值时,$f(x_1,...,x_n)$也就取到了最小值。所以接下来考虑分别求$g(x_1),g(x_2),...,g(x_n)$各自的最小值,由于$g(x_1),g(x_2),...,g(x_n)$的定义域和函数表达式均相同,所以只需求出$g(x_1)$的最小值也就求出了$g(x_2),...,g(x_n)$的最小值。下面考虑求$g(x_1)$的最小值,首先对$g(x_1)$关于$x_1$求一阶和二阶导数
-$$g^{\prime}(x_1)=\cfrac{d(-x_{1} \log _{2} x_{1})}{d x_1}=-\log _{2} x_{1}-x_1\cdot \cfrac{1}{x_1\ln2}=-\log _{2} x_{1}-\cfrac{1}{\ln2}$$
-$$g^{\prime\prime}(x_1)=\cfrac{d\left(g^{\prime}(x_1)\right)}{d x_1}=\cfrac{d\left(-\log _{2} x_{1}-\cfrac{1}{\ln2}\right)}{d x_1}=-\cfrac{1}{x_{1}\ln2}$$
-显然,当$0 \leq x_k \leq 1$时$g^{\prime\prime}(x_1)=-\cfrac{1}{x_{1}\ln2}$恒小于0,所以$g(x_1)$是一个在其定义域范围内开口向下的凹函数,那么其最小值必然在边界取,于是分别取$x_1=0$和$x_1=1$,代入$g(x_1)$可得
-$$g(0)=-0\log _{2} 0=0$$
-$$g(1)=-1\log _{2} 1=0$$
-所以,$g(x_1)$的最小值为0,同理可得$g(x_2),...,g(x_n)$的最小值也为0,那么$f(x_1,...,x_n)$的最小值此时也为0。但是,此时是不考虑约束$\sum_{k=1}^{n}x_k=1$,仅考虑$0 \leq x_k \leq 1$时取到的最小值,若考虑约束$\sum_{k=1}^{n}x_k=1$的话,那么$f(x_1,...,x_n)$的最小值一定大于等于0。如果令某个$x_k=1$,那么根据约束$\sum_{k=1}^{n}x_k=1$可知$x_1=x_2=...=x_{k-1}=x_{k+1}=...=x_n=0$,将其代入$f(x_1,...,x_n)$可得
-$$f(0,0,...,0,1,0,...,0)=-0 \log _{2}0-0 \log _{2}0...-0 \log _{2}0-1 \log _{2}1-0 \log _{2}0...-0 \log _{2}0=0 $$
-所以$x_k=1,x_1=x_2=...=x_{k-1}=x_{k+1}=...=x_n=0$一定是$f(x_1,...,x_n)$在满足约束$\sum_{k=1}^{n}x_k=1$和$0 \leq x_k \leq 1$的条件下的最小值点,其最小值为0。<br>
-综上可知,当$f(x_1,...,x_n)$取到最大值时:$x_1=x_2=...=x_n=\cfrac{1}{n}$,此时样本集合纯度最低;当$f(x_1,...,x_n)$取到最小值时:$x_k=1,x_1=x_2=...=x_{k-1}=x_{k+1}=...=x_n=0$,此时样本集合纯度最高。
-## 4.2
-$$\operatorname{Gain}(D,a) = \operatorname{Ent}(D) - \sum_{v=1}^{V}\frac{|D^v|}{|D|}\operatorname{Ent}({D^v})$$
-[解析]:这个是信息增益的定义公式,在信息论中信息增益也称为互信息(参见附录①),其表示已知一个随机变量的信息后使得另一个随机变量的不确定性减少的程度。所以在这里,这个公式可以理解为在属性$a$的取值已知后,样本类别这个随机变量的不确定性减小的程度。若根据某个属性计算得到的信息增益越大,则说明在知道其取值后样本集的不确定性减小的程度越大,也即为书上所说的“纯度提升”越大。
-
-## 4.6
-$$\operatorname{Gini\_index}(D,a) = \sum_{v=1}^{V}\frac{|D^v|}{|D|}\operatorname{Gini}(D^v)$$
-[解析]:这个是数据集$D$中属性$a$的基尼指数的定义,它表示在属性$a$的取值已知的条件下,数据集$D$按照属性$a$的所有可能取值划分后的纯度,不过在构造CART分类树时并不会严格按照此公式来选择最优划分属性,主要是因为CART分类树是一颗二叉树,如果用上面的公式去选出最优划分属性,无法进一步选出最优划分属性的最优划分点。CART分类树的构造算法如下:
-- 首先,对每个属性$a$的每个可能取值$v$,将数据集$D$分为$a=v$和$a\neq v$两部分来计算基尼指数,即
-$$\operatorname{Gini\_index}(D,a) = \frac{|D^{a=v}|}{|D|}\operatorname{Gini}(D^{a=v})+\frac{|D^{a\neq v}|}{|D|}\operatorname{Gini}(D^{a\neq v})$$
-- 然后,选择基尼指数最小的属性及其对应取值作为最优划分属性和最优划分点;
-- 最后,重复以上两步,直至满足停止条件。
-
-下面以西瓜书中表4.2中西瓜数据集2.0为例来构造CART分类树,其中第一个最优划分属性和最优划分点的计算过程如下:
-以属性“色泽”为例,它有3个可能的取值:$\{\text{青绿},\text{乌黑},\text{浅白}\}$, 若使用该属性的属性值是否等于“青绿”对数据集$D$进行划分,则可得到2个子集,分别记为$D^1(\text{色泽}=\text{青绿}),D^2(\text{色泽}\not=\text{青绿})$。子集$D^1$包含编号$\{1,4,6,10,13,17\}$共6个样例,其中正例占$p_1=\frac{3}{6}$,反例占$p_2=\frac{3}{6}$;子集$D^2$包含编号$\{2,3,5,7,8,9,11,12,14,15,16\}$共11个样例,其中正例占$p_1=\frac{5}{11}$,反例占$p_2=\frac{6}{11}$,根据公式(4.5)可计算出用“色泽=青绿”划分之后得到基尼指数为
-$$\operatorname{Gini\_index}(D,\text{色泽}=\text{青绿}) = \frac{6}{17}\times\left(1-(\frac{3}{6})^2-(\frac{3}{6})^2\right)+\frac{11}{17}\times\left(1-(\frac{5}{11})^2-(\frac{6}{11})^2\right) 
-= 0.497$$
-类似的,可以计算出以下不同属性取不同值的基尼指数
-$$\begin{aligned}
-\operatorname{Gini\_index}(D,\text{色泽}=\text{乌黑}) = \frac{6}{17}\times\left(1-(\frac{4}{6})^2-(\frac{2}{6})^2\right)+\frac{11}{17}\times\left(1-(\frac{4}{11})^2-(\frac{7}{11})^2\right) 
-= 0.456\\
-\operatorname{Gini\_index}(D,\text{色泽}=\text{浅白}) = \frac{5}{17}\times\left(1-(\frac{1}{5})^2-(\frac{4}{5})^2\right)+\frac{12}{17}\times\left(1-(\frac{7}{12})^2-(\frac{5}{12})^2\right) 
-= 0.426
-\end{aligned}$$
-$$\begin{aligned}
-\operatorname{Gini\_index}(D,\text{根蒂}=\text{蜷缩}) = 0.456\\
-\operatorname{Gini\_index}(D,\text{根蒂}=\text{稍蜷}) = 0.496\\
-\operatorname{Gini\_index}(D,\text{根蒂}=\text{硬挺}) = 0.439\\
-\operatorname{Gini\_index}(D,\text{敲声}=\text{浊响}) = 0.450\\
-\operatorname{Gini\_index}(D,\text{敲声}=\text{沉闷}) = 0.494\\
-\operatorname{Gini\_index}(D,\text{敲声}=\text{清脆}) = 0.439\\
-\operatorname{Gini\_index}(D,\text{纹理}=\text{清晰}) = 0.286\\
-\operatorname{Gini\_index}(D,\text{纹理}=\text{稍稀}) = 0.437\\
-\operatorname{Gini\_index}(D,\text{纹理}=\text{模糊}) = 0.403\\
-\operatorname{Gini\_index}(D,\text{脐部}=\text{凹陷}) = 0.415\\
-\operatorname{Gini\_index}(D,\text{脐部}=\text{稍凹}) = 0.497\\
-\operatorname{Gini\_index}(D,\text{脐部}=\text{平坦}) = 0.362\\
-\operatorname{Gini\_index}(D,\text{触感}=\text{硬挺}) = 0.494\\
-\operatorname{Gini\_index}(D,\text{触感}=\text{软粘}) = 0.494
-\end{aligned}$$ 
-特别地,对于属性“触感”,由于它的可取值个数为2,所以其实只需计算其中一个取值的基尼指数即可。根据上面的计算结果可知$\operatorname{Gini\_index}(D,\text{纹理}=\text{清晰}) = 0.286$最小,所以选择属性“纹理”为最优划分属性并生成根节点,接着以“纹理=清晰”为最优划分点生成$D^1(\text{纹理}=\text{清晰}),D^2(\text{纹理}\not=\text{清晰})$两个子节点,对于两个子节点分别重复上述步骤继续生成下一层子节点,直至满足停止条件。以上便是CART分类树的构建过程,从构建过程中可以看出,CART分类树最终构造出来的是一颗二叉树。CART决策树除了能处理分类问题以外,它还可以处理回归问题,附录②中给出了CART回归树的构造算法。
-
-## 4.7
-$$T_a={\lbrace{\frac{a^i+a^{i+1}}{2}|1\leq{i}\leq{n-1}}\rbrace}$$
-[解析]:这个公式所表达的思想很简单,就是以每两个相邻取值的中点作为划分点,下面以西瓜书中表4.3中西瓜数据集3.0为例来说明此公式的用法。对于“密度”这个连续属性,已观测到的可能取值为$\{0.243,0.245,0.343,0.360,0.403,0.437,0.481,0.556,0.593,0.608,0.634,0.639,0.657,0.666,0.697,0.719,0.774\}$共17个值,根据公式(4.7)可知,此时$i$依次取1到16,那么“密度”这个属性的候选划分点集合为
-$T_{a} = \{\frac{(0.243+0.245)}{2}, \frac{(0.245+0.343)}{2},\frac{(0.343+0.360)}{2},\frac{(0.360+0.403)}{2},\frac{(0.403+0.437)}{2},\frac{(0.437+0.481)}{2},\frac{(0.481+0.556)}{2},\\\frac{(0.556+0.593)}{2},\frac{(0.593+0.608)}{2},\frac{(0.608+0.634)}{2},\frac{(0.634+0.639)}{2},\frac{(0.639+0.657)}{2},\frac{(0.657+0.666)}{2},\frac{(0.666+0.697)}{2},\frac{(0.697+0.719)}{2},\frac{(0.719+0.774)}{2}\}$
-
-## 4.8
-$$\begin{aligned}
-\operatorname{Gain}(D,a) &= \max_{t\in{T_a}}\operatorname{Gain}(D,a,t)\\
-&=
-\max_{t\in{T_a}}\operatorname{Ent}(D)-\sum_{\lambda\in\{-,+\}}\frac{|D_t^{\lambda}|}
-{|D|}\operatorname{Ent}(D_t^{\lambda})
-\end{aligned}$$
-[解析]:此公式是公式(4.2)用于离散化后的连续属性的版本,其中$T_a$由公式(4.7)计算得来,$\lambda\in\{-,+\}$表示属性$a$的取值分别小于等于和大于候选划分点$t$时的情形,也即当$\lambda=-$时:$D^{\lambda}_t=D^{a\leq t}_t$,当$\lambda=+$时:$D^{\lambda}_t=D^{a> t}_t$。
-           
-## 附录
-### ①互信息<sup>[1]</sup>
-在解释互信息之前,需要先解释一下什么是条件熵。条件熵表示的是在已知一个随机变量的条件下,另一个随机变量的不确定性。具体地,假设有随机变量$X$和$Y$,且它们服从以下联合概率分布
-$$P(X = x_{i},Y = y_{j}) = p_{ij}\quad i = 1,2,....,n;j = 1,2,...,m$$
+
+$$
+x_1=x_2=\cdots=x_n=\dfrac{1}{n}
+$$
+
+又因为$x_k$还需满足约束$0 \leqslant x_k \leqslant 1$,显然$0\leqslant\frac{1}{n}\leqslant
+1$,所以$x_1=x_2=\cdots=x_n=\frac{1}{n}$是满足所有约束的最优解,即当前最小化问题的最小值点,同时也是$f(x_1,\cdots,x_n)$的最大值点。将$x_1=x_2=\cdots=x_n=\frac{1}{n}$代入$f(x_1,\cdots,x_n)$中可得
+
+$$
+f\left(\dfrac{1}{n},\cdots,\dfrac{1}{n}\right)
+=-\sum_{k=1}^{n} \dfrac{1}{n} \log _{2}
+\dfrac{1}{n}=-n\cdot\dfrac{1}{n} \log _{2} \dfrac{1}{n}=\log _{2}
+n
+$$
+
+
+所以$f(x_1,\cdots,x_n)$在满足约束$0 \leqslant x_k \leqslant 1,\sum_{k=1}^{n}x_k=1$时的最大值为$\log _{2} n$。
+
+下面求最小值。如果不考虑约束$\sum_{k=1}^{n}x_k=1$而仅考虑$0 \leqslant x_k \leqslant 1$,则$f(x_1,\cdots,x_n)$可以看作$n$个互不相关的一元函数的和,即
+
+$$
+f(x_1,\cdots,x_n)=\sum_{k=1}^{n} g(x_k)
+$$
+
+
+其中,$g(x_k)=-x_{k} \log _{2} x_{k},0 \leqslant x_k \leqslant 1$。那么当$g(x_1),g(x_2),\cdots,g(x_n)$分别取到其最小值时,$f(x_1,\cdots,x_n)$也就取到了最小值,所以接下来考虑分别求$g(x_1),g(x_2),\cdots,g(x_n)$各自的最小值。
+
+由于$g(x_1),g(x_2),\cdots,g(x_n)$的定义域和函数表达式均相同,所以只需求出$g(x_1)$的最小值也就求出了$g(x_2),\cdots,g(x_n)$的最小值。下面考虑求$g(x_1)$的最小值,首先对$g(x_1)$关于$x_1$求一阶和二阶导数,有
+
+$$
+g^{\prime}(x_1)=\dfrac{{\rm d}(-x_{1} \log _{2} x_{1})}
+{{\rm d} x_1}=-\log _{2} x_{1}-x_1\cdot \dfrac{1}{x_1\ln2}=-\log
+_{2} x_{1}-\dfrac{1}{\ln2}
+$$
+
+
+
+$$
+g^{\prime\prime}(x_1)=\dfrac{{\rm d}\left(g^{\prime}(x_1)\right)}
+{{\rm d} x_1}=\dfrac{{\rm d}\left(-\log _{2}
+x_{1}-\dfrac{1}{\ln2}\right)}{{\rm d}
+x_1}=-\dfrac{1}{x_{1}\ln2}
+$$
+
+显然,当$0 \leqslant x_k \leqslant
+1$时$g^{\prime\prime}(x_1)=-\frac{1}{x_{1}\ln2}$恒小于0,所以$g(x_1)$是一个在其定义域范围内开口
+向下的凹函数,那么其最小值必然在边界取。分别取$x_1=0$和$x_1=1$,代入$g(x_1)$可得
+
+$$
+g(0)=-0\log _{2} 0=0
+$$
+
+ 
+$$
+g(1)=-1\log _{2} 1=0
+$$
+
+
+**(计算信息熵时约定:若$x=0$,则$x\log_2 x=0$)**
+所以,$g(x_1)$的最小值为0,同理可得$g(x_2),\cdots,g(x_n)$的最小值也都为0,
+即$f(x_1,\cdots, x_n)$的最小值为0。但是,此时仅考虑约束$0 \leqslant x_k \leqslant 1$,而未考虑$\sum_{k=1}^{n}x_k=1$。若考虑约束$\sum_{k=1}^{n}x_k=1$,那么$f(x_1,\cdots,x_n)$的最小值一定大于等于0。如果令某个$x_k=1$,那么根据约束$\sum_{k=1}^{n}x_k=1$可知$x_1=x_2=\cdots=x_{k-1}=x_{k+1}=\cdots=x_n=0$,将其代入$f(x_1,\cdots,x_n)$可得
+
+$$
+\begin{aligned}
+&f(0,0,\cdots,0,1,0,\cdots,0)\\
+=&-0 \log _{2}0-0 \log _{2}0-\cdots-0 \log _{2}0-1 \log _{2}1-0
+\log _{2}0-\cdots-0 \log _{2}0=0
+\end{aligned}
+$$
+
+
+所以$x_k=1,x_1=x_2=\cdots=x_{k-1}=x_{k+1}=\cdots=x_n=0$一定是$f(x_1,\cdots,x_n)$在满足约束$\sum_{k=1}^{n}x_k=1$和$0\leqslant x_k \leqslant 1$的条件下的最小值点,此时$f$取到最小值0。
+
+综上可知,当$f(x_1,\cdots,x_n)$取到最大值时:$x_1=x_2=\cdots=x_n=\frac{1}{n}$,此时样本集合纯度最低;当$f(x_1,\cdots,x_n)$取到最小值时:$x_k=1,x_1=x_2=\cdots=x_{k-1}=x_{k+1}=\cdots=x_n=0$,此时样本集合纯度最高。
+
+### 4.2.2 式(4.2)的解释
+
+此为信息增益的定义式。在信息论中信息增益也称为"互信息",表示已知一个随机变量的信息后另一个随机变量的不确定性减少的程度。
+
+下面给出互信息的定义,在此之前,还需要先解释一下什么是"条件熵"。条件熵表示的是在已知一个随机变量的条件下,另一个随机变量的不确定性。具体地,假设有随机变量$X$和$Y$,且它们服从以下联合概率分布
+
+$$
+P(X = x_{i},Y = y_{j}) = p_{ij},\quad i = 1,2,\cdots,n,\quad j = 1,2,\cdots,m
+$$
+
+
 那么在已知$X$的条件下,随机变量$Y$的条件熵为
-$$\operatorname{Ent}(Y|X) =  \sum_{i=1}^np_i \operatorname{Ent}(Y|X = x_i)$$
-其中,$ p_i = P(X = x_i) ,i =1,2,...,n$。互信息定义为信息熵和条件熵的差,它表示的是已知一个随机变量的信息后使得另一个随机变量的不确定性减少的程度。具体地,假设有随机变量$X$和$Y$,那么在已知$X$的信息后,$Y$的不确定性减少的程度为
-$$\operatorname{I}(Y;X) = \operatorname{Ent}(Y) - \operatorname{Ent}(Y|X)$$
-此即为互信息的数学定义。
 
-### ②CART回归树<sup>[1]</sup>
+$$
+\operatorname{Ent}(Y|X) =  \sum_{i=1}^np_i \operatorname{Ent}(Y|X = x_i)
+$$
+
+
+其中,$p_i = P(X = x_i) ,i =1,2,\cdots,n$。互信息定义为信息熵和条件熵的差,它表示的是已知一个随机变量的信息后使得另一个随机变量的不确定性减少的程度。具体地,假设有随机变量$X$和$Y$,那么在已知$X$的信息后,$Y$的不确定性减少的程度为
+
+$$
+\operatorname{I}(Y;X) = \operatorname{Ent}(Y) - \operatorname{Ent}(Y|X)
+$$
+
+
+此即互信息的数学定义。
+
+所以式(4.2)可以理解为,在已知属性$a$的取值后,样本类别这个随机变量的不确定性减小的程度。若根据某个属性计算得到的信息增益越大,则说明在知道其取值后样本集的不确定性减小的程度越大,即"西瓜书"上所说的"纯度提升"越大。
+
+### 4.2.3 式(4.4)的解释
+
+为了理解该式的"固有值"的概念,可以将式(4.4)与式(4.1)对比理解。式(4.1)可重写为
+
+$$
+\operatorname{Ent}(D)=-\sum_{k=1}^{|\mathcal{Y}|} p_k \log _2 p_k=-\sum_{k=1}^{|\mathcal{Y}|} \frac{\left|D^k\right|}{|D|} \log _2 \frac{\left|D^k\right|}{|D|}
+$$
+
+
+其中$\frac{\left|D^k\right|}{|D|}=p_k$,为第$k$类样本所占的比例。与式(4.4)的表达式作一下对比
+
+$$
+\operatorname{IV}(a)=-\sum_{v=1}^V \frac{\left|D^v\right|}{|D|} \log _2 \frac{\left|D^v\right|}{|D|}
+$$
+
+
+其中$\frac{\left|D^v\right|}{|D|}=p_v$,为属性$a$取值为$a^v$的样本所占的比例。即式(4.1)是按样本的类别标记计算的信息熵,而式(4.4)是按样本属性的取值计算的信息熵。
+
+### 4.2.4 式(4.5)的推导
+
+假设数据集$D$中的样例标记种类共有三类,每类样本所占比例分别为$p_1$、$p_2$、$p_3$。现从数据集中随机抽取两个样本,两个样本类别标记正好一致的概率为
+
+$$
+p_1 p_1+p_2 p_2+p_3 p_3=\sum_{k=1}^{|\mathcal{Y}|=3} p_k^2
+$$
+
+两个样本类别标记不一致的概率为(即"基尼值")
+
+$$
+\operatorname{Gini}(D)=p_1 p_2+p_1 p_3+p_2 p_1+p_2 p_3+p_3 p_1+p_3 p_2=\sum_{k=1}^{|\mathcal{Y}|=3} \sum_{k^{\prime} \neq k} p_k p_{k^{\prime}}
+$$
+
+易证以上两式之和等于1,证明过程如下 
+
+$$
+\begin{aligned}
+&\sum_{k=1}^{|\mathcal{Y}|=3} p_k^2+\sum_{k=1}^{|\mathcal{Y}|=3} \sum_{k^{\prime} \neq k} p_k p_{k^{\prime}}\\
+=&\left(p_1 p_1+p_2 p_2+p_3 p_3\right)+\left(p_1 p_2+p_1 p_3+p_2 p_1+p_2 p_3+p_3 p_1+p_3 p_2\right) \\
+=&\left(p_1 p_1+p_1 p_2+p_1 p_3\right)+\left(p_2 p_1+p_2 p_2+p_2 p_3\right)+\left(p_3 p_1+p_3 p_2+p_3 p_3\right) \\
+=&p_1\left(p_1+p_2+p_3\right)+p_2\left(p_1+p_2+p_3\right)+p_3\left(p_1+p_2+p_3\right) \\
+=&p_1+p_2+p_3=1
+\end{aligned}
+$$
+
+所以可进一步推得式(4.5)
+
+$$
+
+\operatorname{Gini}(D)=\sum_{k=1}^{|\mathcal{Y}|} \sum_{k^{\prime} \neq k} p_k p_{k^{\prime}}=1-\sum_{k=1}^{\mid \mathcal{Y |}} p_k^2
+$$
+
+
+从数据集中$D$任取两个样本,类别标记一致的概率越大表示其纯度越高(即大部分样本属于同一类),类别标记不一致的概率(即基尼值)越大表示纯度越低。
+
+### 4.2.5 式(4.6)的解释
+
+此为数据集$D$中属性$a$的基尼指数的定义,表示在属性$a$的取值已知的条件下,数据集$D$按照属性$a$的所有可能取值划分后的纯度。不过在构造CART决策树时并不会严格按照此式来选择最优划分属性,主要是因为CART决策树是一棵二叉树,如果用上式去选出最优划分属性,无法进一步选出最优划分属性的最优划分点。常用的CART决策树的构造算法如下[1]:
+
+(1)考虑每个属性$a$的每个可能取值$v$,将数据集$D$分为$a=v$和$a\neq
+v$两部分来计算基尼指数,即
+
+$$
+\operatorname{Gini\_index}(D,a) = \frac{|D^{a=v}|}{|D|}\operatorname{Gini}(D^{a=v})+\frac{|D^{a\neq v}|}{|D|}\operatorname{Gini}(D^{a\neq v})
+$$
+
+
+
+(2)选择基尼指数最小的属性及其对应取值作为最优划分属性和最优划分点;
+
+(3)重复以上两步,直至满足停止条件。
+
+下面以"西瓜书"中表4.2中西瓜数据集2.0为例来构造CART决策树,其中第一个最优划分属性和最优划分点的计算过程如下:以属性"色泽"为例,它有3个可能的取值:$\{\text{青绿}$,$\text{乌黑}$,$\text{浅白}\}$,
+若使用该属性的属性值是否等于"青绿"对数据集$D$进行划分,则可得到2个子集,分别记为$D^1(\text{色泽}=\text{青绿}),D^2(\text{色泽}\not=\text{青绿})$。子集$D^1$包含编号$\{1,4,6,10,13,17\}$共6个样例,其中正例占$p_1=\frac{3}{6}$,反例占$p_2=\frac{3}{6}$;子集$D^2$包含编号$\{2,3,5,7,8,9,11,12,14,15,16\}$共11个样例,其中正例占$p_1=\frac{5}{11}$,反例占$p_2=\frac{6}{11}$,根据式(4.5)可计算出用"色泽=青绿"划分之后得到基尼指数为
+
+$$
+\begin{aligned}
+&\operatorname{Gini\_index}(D,\text{色泽}=\text{青绿}) \\ 
+=&\frac{6}{17}\times\left(1-\left(\frac{3}{6}\right)^2-\left(\frac{3}{6}\right)^2\right)+\frac{11}{17}\times\left(1-\left(\frac{5}{11}\right)^2-\left(\frac{6}{11}\right)^2\right)
+= 0.497
+\end{aligned}
+$$
+
+类似地,可以计算出不同属性取不同值的基尼指数如下:
+
+$$
+\operatorname{Gini\_index}(D,\text{色泽}=\text{乌黑})=0.456
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{色泽}=\text{浅白})=0.426
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{根蒂}=\text{蜷缩})=0.456
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{根蒂}=\text{稍蜷})=0.496
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{根蒂}=\text{硬挺})=0.439
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{敲声}=\text{浊响})=0.450
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{敲声}=\text{沉闷})=0.494
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{敲声}=\text{清脆})=0.439
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{纹理}=\text{清晰})=0.286
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{纹理}=\text{稍稀})=0.437
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{纹理}=\text{模糊})=0.403
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{脐部}=\text{凹陷})=0.415
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{脐部}=\text{稍凹})=0.497
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{脐部}=\text{平坦})=0.362
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{触感}=\text{硬挺})=0.494
+$$
+
+$$
+\operatorname{Gini\_index}(D,\text{触感}=\text{软粘})=0.494
+$$
+
+
+特别地,对于属性"触感",由于它的可取值个数为2,所以其实只需计算其中一个取值的基尼指数即可。
+
+根据上面的计算结果可知,$\operatorname{Gini\_index}(D,\text{纹理}=\text{清晰}) = 0.286$最小,所以选择属性"纹理"为最优划分属性并生成根节点,接着以"纹理=清晰"为最优划分点生成$D^1(\text{纹理}=\text{清晰})$、$D^2(\text{纹理}\not=\text{清晰})$两个子节点,对两个子节点分别重复上述步骤继续生成下一层子节点,直至满足停止条件。
+
+以上便是CART决策树的构建过程,从构建过程可以看出,CART决策树最终构造出来的是一棵二叉树。CART除了决策树能处理分类问题以外,回归树还可以处理回归问题,下面给出CART回归树的构造算法。
+
 假设给定数据集
-$$D = {(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2)...,(\boldsymbol{x}_N,y_N)}$$
-其中$\boldsymbol{x}\in \mathbb{R}^d$为$d$维特征向量,$y\in \mathbb{R}$是连续型随机变量,这是一个标准的回归问题的数据集。若把每个属性视为坐标空间中的一个坐标轴,则$d$个属性就构成了一个$d$维的特征空间,而每个$d$维特征向量$\boldsymbol{x}$就对应了$d$维的特征空间中的一个数据点。CART回归树的目标是将特征空间划分成若干个子空间,每个子空间都有一个固定的输出值,也就是凡是落在同一个子空间内的数据点$\boldsymbol{x}_i$,他们所对应的输出值$y_i$恒相等,且都为该子空间的输出值。那么如何划分出若干个子空间呢?这里采用一种启发式的方法:
-- 任意选择一个属性$a$,遍历其所有可能取值,根据如下公式找出属性$a$最优划分点$v^*$:
-$$v^* = \arg\min_{v}\left[\min_{c_1}\sum_{\boldsymbol {x}_i\in{R_1(a,v)}}{(y_i - c_1)}^2 + \min_{c_2}\sum_{\boldsymbol {x}_i\in{R_2(a,v)}}{(y_i - c_2)}^2 \right]$$
-其中,$R_1(a,v)=\{\boldsymbol {x}|\boldsymbol {x}\in D^{a\leq v}\},R_2(a,v)=\{\boldsymbol {x}|\boldsymbol {x}\in D^{a > v}\}$,$c_1$和$c_2$分别为集合$R_1(a,v)$和$R_2(a,v)$中的样本$\boldsymbol {x}_i$对应的输出值$y_i$的均值,也即
-$$c_1=\operatorname{ave}(y_i | x\in R_1(a,v))=\frac{1}{|R_1(a,v)|}\sum_{\boldsymbol {x}_i\in{R_1(a,v)}}y_i$$
-$$c_2=\operatorname{ave}(y_i | x\in R_2(a,v))=\frac{1}{|R_2(a,v)|}\sum_{\boldsymbol {x}_i\in{R_2(a,v)}}y_i$$
-- 遍历所有属性,找到最优划分属性$a^*$,然后根据$a^*$的最优划分点$v^*$将特征空间划分为两个子空间,接着对每个子空间重复上述步骤,直至满足停止条件。这样就生成了一颗CART回归树,假设最终将特征空间被划分为了$M$个子空间$R_1,R_2,...,R_M$,那么CART回归树的模型公式可以表示为
-$$f(\boldsymbol {x}) = \sum_{m=1}^{M}c_m\mathbb{I}(x\in{R_m})$$
-同理,其中的$c_m$表示的也是集合$R_m$中的样本$\boldsymbol {x}_i$对应的输出值$y_i$的均值。此公式直观上的理解就是,对于一个给定的样本$\boldsymbol {x}_i$,首先判断其属于哪个子空间,然后将其所属的子空间对应的输出值作为该样本的预测值$y_i$。
 
-## 参考文献
-[1]李航编著.统计学习方法[M].清华大学出版社,2012.
+$$
+D = \{(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2),\cdots,(\boldsymbol{x}_N,y_N)\}
+$$
+
+
+其中$\boldsymbol{x}\in \mathbb{R}^d$为$d$维特征向量,$y\in\mathbb{R}$是连续型随机变量。这是一个标准的回归问题的数据集,若把每个属性视为坐标空间中的一个坐标轴,则$d$个属性就构成了一个$d$维的特征空间,而每个$d$维特征向量$\boldsymbol{x}$就对应了$d$维的特征空间中的一个数据点。CART回归树的目标是将特征空间划分成若干个子空间,每个子空间都有一个固定的输出值,也就是凡是落在同一个子空间内的数据点$\boldsymbol{x}_i$,
+它们所对应的输出值$y_i$恒相等,且都为该子空间的输出值。
 
+那么如何划分出若干个子空间呢?这里采用一种启发式的方法。
+
+(1) 任意选择一个属性$a$,遍历其所有可能取值,根据下式找出属性$a$最优划分点$v^*$:
+    
+$$
+v^* = \arg\min_{v}\left[\min_{c_1}\sum_{\boldsymbol {x}_i\in{R_1(a,v)}}{(y_i - c_1)}^2 + \min_{c_2}\sum_{\boldsymbol {x}_i\in{R_2(a,v)}}{(y_i - c_2)}^2 \right]
+$$
+其中,$R_1(a,v)=\{\boldsymbol {x}|\boldsymbol {x}\in D^{a\leqslant v}\},R_2(a,v)=\{\boldsymbol {x}|\boldsymbol {x}\in D^{a > v}\}$,$c_1$和$c_2$分别为集合$R_1(a,v)$和$R_2(a,v)$中的样本$\boldsymbol{x}_i$对应的输出值$y_i$的均值,即
+
+$$
+c_1=\operatorname{ave}(y_i | \boldsymbol{x}\in R_1(a,v))=\frac{1}{|R_1(a,v)|}\sum_{\boldsymbol {x}_i\in{R_1(a,v)}}y_i
+$$
+  
+$$
+c_2=\operatorname{ave}(y_i | \boldsymbol {x}\in R_2(a,v))=\frac{1}{|R_2(a,v)|}\sum_{\boldsymbol {x}_i\in{R_2(a,v)}}y_i
+$$
+
+(2) 遍历所有属性,找到最优划分属性 $a^*$ ,然后根据 $a^*$ 的最优划分点 $v^*$ 将特征空间划分为两个子空间,接着对每个子空间重复上述步骤,直至满足停止条件.这样就生成了一棵CART回归树,假设最终将特征空间划分为$M$个子空间$R_1,R_2,\cdots,R_M$,那么CART回归树的模型式可以表示为
+    
+$$
+f(\boldsymbol {x}) = \sum_{m=1}^{M}c_m\mathbb{I}(\boldsymbol {x}\in{R_m})
+$$
+
+同理,其中的$c_m$表示的也是集合$R_m$中的样本$\boldsymbol{x}_i$对应的输出值$y_i$的均值。此式直观上的理解就是,对于一个给定的样本$\boldsymbol{x}_i$,首先判断其属于哪个子空间,然后将其所属的子空间对应的输出值作为该样本的预测值$y_i$。
+
+## 4.3 剪枝处理
+
+本节内容通俗易懂,跟着"西瓜书"中的例子动手演算即可,无需做过多解释。以下仅结合图4.5继续讨论一下图4.2中的递归返回条件。图4.5与图4.4均是基于信息增益生成的决策树,不同在于图4.4基于表4.1,而图4.5基于表4.2的训练集。
+
+结点包含训练集"脐部"为稍凹的样本(编号6、7、15、17),当根据"根蒂"再次进行划分时不含有"根蒂"为硬挺的样本(递归返回情形(3)),而恰巧四个样本(编号6、7、15、17)含两个好瓜和两个坏瓜,因此叶结点硬挺的类别随机从类别好瓜和坏瓜中选择其一。
+
+结点包含训练集"脐部"为稍凹且"根蒂"为稍蜷的样本(编号6、7、15),当根据"色泽"再次进行划分时不含有"色泽"为浅白的样本(递归返回情形(3)),因此叶结点浅白类别标记为好瓜(编号6、7、15样本中,前两个为好瓜,最后一个为坏瓜)。
+
+结点包含训练集"脐部"为稍凹、"根蒂"为稍蜷、"色泽"为乌黑的样本(编号7、15),当根据"纹理"再次进行划分时不含有"纹理"为模糊的样本(递归返回情形(3)),而恰巧两个样本(编号7、15)含好瓜和坏瓜各一个,因此叶结点模糊的类别随机从类别好瓜和坏瓜中选择其一。
+
+图4.5两次随机选择均选为好瓜,实际上表示了一种归纳偏好(参见第1章1.4节)。
+
+## 4.4 连续与缺失值
+
+连续与缺失值的预处理均属于特征工程的范畴。
+
+有些分类器只能使用离散属性,当遇到连续属性时则需要特殊处理,有兴趣可以通过关键词"连续属性离散化"或者"Discretization"查阅更多处理方法。结合第11章11.2节至11.4节分别介绍的"过滤式"算法、"包裹式"算法、"嵌入式"算法的概念,若先使用某个离散化算法对连续属性离散化后再调用C4.5决策树生成算法,则是一种过滤式算法,若如4.4.1节所述,则应该属于嵌入式算法,因为并没有以学习器的预测结果准确率为评价标准,而是与决策树生成过程融为一体,因此不应该划入包裹式算法。
+
+类似地,有些分类器不能使用含有缺失值的样本,需要进行预处理。常用的缺失值填充方法是:对于连续属性,采用该属性的均值进行填充;对于离散属性,采用属性值个数最多的样本进行填充。这实际上假设了数据集中的样本是基于独立同分布采样得到的。
+特别地,一般缺失值仅指样本的属性值有缺失,若类别标记有缺失,一般会直接抛弃该样本。当然,也可以尝试根据第11章11.6节的式(11.24),在低秩假设下对数据集缺失值进行填充。
+
+### 4.4.1 式(4.7)的解释
+
+此式所表达的思想很简单,就是以每两个相邻取值的中点作为划分点。下面以"西瓜书"中表4.3中西瓜数据集3.0为例来说明此式的用法。对于"密度"这个连续属性,已观测到的可能取值为$\{0.243,0.245,0.343,\linebreak0.360,0.403,0.437,0.481,0.556,0.593,0.608,0.634,0.639,0.657,0.666,0.697,0.719,0.774\}$共17个值,根据式(4.7)可知,此时$i$依次取1到16,那么"密度"这个属性的候选划分点集合为
+
+$$
+\begin{aligned}
+T_{a} = \{&\frac{0.243+0.245}{2},\frac{0.245+0.343}{2},\frac{0.343+0.360}{2}, \frac{0.360+0.403}{2},\frac{0.403+0.437}{2},\frac{0.437+0.481}{2},\\
+&\frac{0.481+0.556}{2},\frac{0.556+0.593}{2},\frac{0.593+0.608}{2},\frac{0.608+0.634}{2},\frac{0.634+0.639}{2},\frac{0.639+0.657}{2},\\
+&\frac{0.657+0.666}{2},\frac{0.666+0.697}{2},
+\frac{0.697+0.719}{2},\frac{0.719+0.774}{2}\}
+\end{aligned}
+$$
+
+
+
+### 4.4.2 式(4.8)的解释
+
+此式是式(4.2)用于离散化后的连续属性的版本,其中$T_a$由式(4.7)计算得来,$\lambda\in\{-,+\}$表示属性$a$的取值分别小于等于和大于候选划分点$t$时的情形,即当$\lambda=-$时有$D^{\lambda}_t=D^{a\leqslant t}_t$,当$\lambda=+$时有$D^{\lambda}_t=D^{a> t}_t$。
+
+### 4.4.3 式(4.12)的解释
+
+该式括号内与式(4.2)基本一样,区别在于式(4.2)中的$\frac{\left|D^v\right|}{|D|}$改为式(4.11)的$\tilde{r}_v$,在根据式(4.1)计算信息熵时第$k$类样本所占的比例改为式(4.10)的$\tilde{p}_k$;所有计算结束后再乘以式(4.9)的$\rho$。
+
+有关式(4.9) (4.10)
+(4.11)中的权重$w_{\boldsymbol{x}}$,初始化为1。以图4.9为例,在根据"纹理"进行划分时,除编号为8、10的两个样本在此属性缺失之外,其余样本根据自身在该属性上的取值分别划入稍糊、清晰、模糊三个子集,而编号为8、10的两个样本则要按比例同时划入三个子集。具体来说,稍糊子集包含样本7、9、13、14、17共5个样本,清晰子集包含样本1、2、3、4、5、6、15共7个样本,模糊子集包含样本10、11、16共3个样本,总共15个在该属性不含缺失值的样本,而此时各样本的权重$w_{\boldsymbol{x}}$初始化为1,因此编号为8、10的两个样本分到稍糊、清晰、模糊三个子集的权重分别为$\frac{5}{15}$,$\frac{7}{15}$和$\frac{3}{15}$。
+
+## 4.5 多变量决策树
+
+本节内容也通俗易懂,以下仅对部分图做进一步解释说明。
+
+### 4.5.1 图(4.10)的解释
+
+只想用该图强调一下,离散属性不可以重复使用,但连续属性是可以重复使用的。
+
+### 4.5.2 图(4.11)的解释
+
+对照"西瓜书"中图4.10的决策树,下面给出图4.11中的划分边界产出过程。
+
+在下图4-1中,斜纹阴影部分表示已确定标记为坏瓜的样本,点状阴影部分表示已确定标记为好瓜的样本,空白部分表示需要进一步划分的样本。
+第一次划分条件是"含糖率$\leqslant0.126?$",满足此条件的样本直接被标记为坏瓜(如图4-1(a)斜纹阴影部分所示),而不满足此条件的样本还需要进一步划分(如图4-1(a)空白部分所示)。
+
+在第一次划分的基础上对图4-1(a)空白部分继续进行划分,第二次划分条件是"密度$\leqslant0.381?$",满足此条件的样本直接被标记为坏瓜(如图4-1(b)新增斜纹阴影部分所示),而不满足此条件的样本还需要进一步划分(如图4-1(b)空白部分所示)。
+
+在第二次划分的基础上对图4-1(b)空白部分继续进行划分,第三次划分条件是"含糖率$\leqslant0.205?$",不满足此条件的样本直接标记为好瓜(如图4-1(c)新增点状阴影部分所示),而满足此条件的样本还需进一步划分(如图4-1(c)空白部分所示)。
+
+在第三次划分的基础上对图4-1(c)空白部分继续进行划分,第四次划分的条件是"密度$\leqslant0.560?$",满足此条件的样本直接标记为好瓜(如图4-1(d)新增点状阴影部分所示),而不满足此条件的样本直接标记为坏瓜(如图4-1(d)新增斜纹阴影部分所示)。
+
+经过四次划分已无空白部分,表示决策树生成完毕,从图4-1(d)中可以清晰地看出好瓜与坏瓜的分类边界。
+
+
+![图4-1 图4.11中的划分边界产出过程](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/dd2a06f4-216b-4b91-8cc7-6e14317f821b-4_11.svg)
+
+## 参考文献
+[1] 李航. 统计学习方法. 清华大学出版社, 2012.

+ 387 - 216
docs/chapter5/chapter5.md

@@ -1,62 +1,235 @@
-## 5.2
-$$\Delta w_i=\eta(y-\hat{y})x_i$$
-[解析]:此公式是感知机学习算法中的参数更新公式,下面依次给出感知机模型、学习策略和学习算法的具体介绍<sup>[1]</sup>:
-### 感知机模型
-已知感知机由两层神经元组成,故感知机模型的公式可表示为
-$$y=f(\sum\limits_{i=1}^{n}w_ix_i-\theta)=f(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta)$$
-其中,$\boldsymbol{x} \in \mathbb{R}^n$为样本的特征向量,是感知机模型的输入;$\boldsymbol{w},\theta$是感知机模型的参数,$\boldsymbol{w} \in \mathbb{R}^n$为权重,$\theta$为阈值。上式中的$f$通常设为符号函数,那么感知机模型的公式可进一步表示为
-$$ y=\operatorname{sign}(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta)=\left\{\begin{array}{rcl}
-1,& {\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} -\theta\geq 0}\\
-0,& {\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} -\theta < 0}\\
-\end{array} \right.$$
-由于$n$维空间中的超平面方程为
-$$w_1x_1+w_2x_2+\cdots+w_nx_n+b  =\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} +b=0$$
-所以此时感知机模型公式中的$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta$可以看作是$n$维空间中的一个超平面,通过它将$n$维空间划分为$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta\geq 0$和$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta<0$两个子空间,落在前一个子空间的样本对应的模型输出值为1,落在后一个子空间的样本对应的模型输出值为0,以此来实现分类功能。
-### 感知机学习策略
-给定一个线性可分的数据集$T$(参见附录①),感知机的学习目标是求得能对数据集$T$中的正负样本完全正确划分的分离超平面:
-$$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta=0$$
-假设此时误分类样本集合为$M\subseteq T$,对任意一个误分类样本$(\boldsymbol{x},y)\in M$来说,当$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta \geq 0$时,模型输出值为$\hat{y}=1$,样本真实标记为$y=0$;反之,当$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta<0$时,模型输出值为$\hat{y}=0$,样本真实标记为$y=1$。综合两种情形可知,以下公式恒成立
-$$(\hat{y}-y)(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta)\geq0$$
-所以,给定数据集$T$,其损失函数可以定义为:
-$$L(\boldsymbol{w},\theta)=\sum_{\boldsymbol{x}\in M}(\hat{y}-y)(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta)$$
-显然,此损失函数是非负的。如果没有误分类点,损失函数值是0。而且,误分类点越少,误分类点离超平面越近,损失函数值就越小。因此,给定数据集$T$,损失函数$L(\boldsymbol{w},\theta)$是关于$\boldsymbol{w},\theta$的连续可导函数。
-### 感知机学习算法
-感知机模型的学习问题可以转化为求解损失函数的最优化问题,具体地,给定数据集
-$$T=\{(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2),\dots,(\boldsymbol{x}_N,y_N)\}$$
-其中$\boldsymbol{x}_i \in \mathbb{R}^n,y_i \in \{0,1\}$,求参数$\boldsymbol{w},\theta$,使其为极小化损失函数的解:
-$$\min\limits_{\boldsymbol{w},\theta}L(\boldsymbol{w},\theta)=\min\limits_{\boldsymbol{w},\theta}\sum_{\boldsymbol{x_i}\in M}(\hat{y}_i-y_i)(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}_i-\theta)$$
-其中$M\subseteq T$为误分类样本集合。若将阈值$\theta$看作一个固定输入为$-1$的“哑节点”,即
-$$-\theta=-1\cdot w_{n+1}=x_{n+1}\cdot w_{n+1}$$
+# 第5章 神经网络
+
+神经网络类算法可以堪称当今最主流的一类机器学习算法,其本质上和前几章讲到的线性回归、对数几率回归、决策树等算法一样均属于机器学习算法,也是被发明用来完成分类和回归等任务。不过由于神经网络类算法在如今超强算力的加持下效果表现极其出色,且从理论角度来说神经网络层堆叠得越深其效果越好,因此也单独称用深层神经网络类算法所做的机器学习为深度学习,属于机器学习的子集。
+
+## 5.1 神经元模型
+
+本节对神经元模型的介绍通俗易懂,在此不再赘述。
+本节第2段提到"阈值"(threshold)的概念时,"西瓜书"左侧边注特意强调是"阈(yù)"而不是"阀(fá)",这是因为该字确实很容易认错,读者注意一下即可。
+
+图5.1所示的M-P神经元模型,其中的"M-P"便是两位作者McCulloch和Pitts的首字母简写。
+
+## 5.2 感知机与多层网络
+
+### 5.2.1 式(5.1)和式(5.2)的推导
+
+此式是感知机学习算法中的参数更新公式,下面依次给出感知机模型、学习策略和学习算法的具体介绍[1]:
+
+**感知机模型**:已知感知机由两层神经元组成,故感知机模型的公式可表示为
+
+
+$$
+
+y=f\left(\sum\limits_{i=1}^{n}w_ix_i-\theta\right)=f(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta)
+
+$$
+
+
+其中,$\boldsymbol{x}\in\mathbb{R}^n$,为样本的特征向量,是感知机模型的输入;$\boldsymbol{w},\theta$是感知机模型的参数,$\boldsymbol{w}\in\mathbb{R}^n$,为权重,$\theta$为阈值。假定$f$为阶跃函数,那么感知机模型的公式可进一步表示为 **(用$\varepsilon(\cdot)$代表阶跃函数)**
+
+
+$$
+
+y=\varepsilon(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta)=\left\{\begin{array}{rcl}
+1,& {\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} -\theta\geqslant 0};\\
+0,& {\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} -\theta < 0}.\\
+\end{array} \right.
+
+$$
+
+ 由于$n$维空间中的超平面方程为
+
+
+$$
+
+w_1x_1+w_2x_2+\cdots+w_nx_n+b  =\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} +b=0
+
+$$
+
+
+所以此时感知机模型公式中的$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta$可以看作是$n$维空间中的一个超平面,将$n$维空间划分为$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta\geqslant 0$和$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta<0$两个子空间,落在前一个子空间的样本对应的模型输出值为1,落在后一个子空间的样本对应的模型输出值为0,如此便实现了分类功能。
+
+**感知机学习策略**:给定一个数据集
+
+
+$$
+
+T=\{(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2),\cdots,(\boldsymbol{x}_N,y_N)\}
+
+$$
+
+
+其中$\boldsymbol{x}_i\in\mathbb{R}^n,y_i\in\{0,1\},i=1,2,\cdots,N$。如果存在某个超平面
+
+
+$$
+
+\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}+b=0
+
+$$
+
+
+能将数据集$T$中的正样本和负样本完全正确地划分到超平面两侧,即对所有$y_i=1$的样本$\boldsymbol{x}_i$有$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\geqslant0$,对所有$y_i=0$的样本$\boldsymbol{x}_i$有$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b<0$,则称数据集$T$线性可分,否则称数据集$T$线性不可分。
+
+现给定一个线性可分的数据集$T$,感知机的学习目标是求得能对数据集$T$中的正负样本完全正确划分的分离超平面
+
+
+$$
+
+\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}-\theta=0
+
+$$
+
+
+假设此时误分类样本集合为$M\subseteq T$,对任意一个误分类样本$(\boldsymbol{x},y)\in M$来说,当$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta\geqslant0$时,模型输出值为$\hat{y}=1$,样本真实标记为$y=0$;反之,当$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta<0$时,模型输出值为$\hat{y}=0$,样本真实标记为$y=1$。综合两种情形可知,以下公式恒成立:
+
+
+$$
+
+(\hat{y}-y)\left(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta\right)\geqslant0
+
+$$
+
+
+所以,给定数据集$T$,其损失函数可以定义为
+
+
+$$
+
+L(\boldsymbol{w},\theta)=\sum_{\boldsymbol{x}\in M}(\hat{y}-y)
+\left(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}-\theta\right)
+
+$$
+
+
+显然,此损失函数是非负的。如果没有误分类点,则损失函数值为0。而且,误分类点越少,误分类点离超平面越近(超平面相关知识参见本书6.1.2节),损失函数值就越小。因此,给定数据集$T$,损失函数$L(\boldsymbol{w},\theta)$是关于$\boldsymbol{w},\theta$的连续可导函数。
+
+**感知机学习算法**:感知机模型的学习问题可以转化为求解损失函数的最优化问题,具体地,给定数据集
+
+
+$$
+
+T=\{(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2),\cdots,(\boldsymbol{x}_N,y_N)\}
+
+$$
+
+
+其中$\boldsymbol{x}_i \in \mathbb{R}^n,y_i \in\{0,1\}$,求参数$\boldsymbol{w},\theta$,使其为极小化损失函数的解:
+
+
+$$
+
+\min\limits_{\boldsymbol{w},\theta}L(\boldsymbol{w},\theta)=\min\limits_{\boldsymbol{w},\theta}\sum_{\boldsymbol{x_i}\in M}(\hat{y}_i-y_i)(\boldsymbol{w}^\mathrm{T}\boldsymbol{x}_i-\theta)
+
+$$
+
+
+其中$M\subseteq T$为误分类样本集合。若将阈值$\theta$看作一个固定输入为$-1$的"哑节点",即
+
+
+$$
+
+-\theta=-1\cdot w_{n+1}=x_{n+1}\cdot w_{n+1}
+
+$$
+
+
 那么$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}_i-\theta$可化简为
-$$\begin{aligned}
-\boldsymbol{w}^\mathrm{T}\boldsymbol{x_i}-\theta&=\sum \limits_{j=1}^n w_jx_j+x_{n+1}\cdot w_{n+1}\\
-&=\sum \limits_{j=1}^{n+1}w_jx_j\\
+
+
+$$
+
+\begin{aligned}
+\boldsymbol{w}^\mathrm{T}\boldsymbol{x_i}-\theta&=\sum
+\limits_{j=1}^n w_jx_j+x_{n+1}\cdot w_{n+1}\\ 
+&=\sum\limits_{j=1}^{n+1}w_jx_j\\
 &=\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x_i}
- \end{aligned}$$
-其中$\boldsymbol{x_i} \in \mathbb{R}^{n+1},\boldsymbol{w} \in \mathbb{R}^{n+1}$。根据该式,可将要求解的极小化问题进一步简化为
-$$\min\limits_{\boldsymbol{w}}L(\boldsymbol{w})=\min\limits_{\boldsymbol{w}}\sum_{\boldsymbol{x_i}\in M}(\hat{y}_i-y_i)\boldsymbol{w}^\mathrm{T}\boldsymbol{x_i}$$
-假设误分类样本集合$M$固定,那么可以求得损失函数$L(\boldsymbol{w})$的梯度为:
-$$\nabla_{\boldsymbol{w}}L(\boldsymbol{w})=\sum_{\boldsymbol{x_i}\in M}(\hat{y}_i-y_i)\boldsymbol{x_i}$$
-感知机的学习算法具体采用的是随机梯度下降法,也就是极小化过程中不是一次使$M$中所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降。所以权重$\boldsymbol{w}$的更新公式为
-$$\boldsymbol w \leftarrow \boldsymbol w+\Delta \boldsymbol w$$
-$$\Delta \boldsymbol w=-\eta(\hat{y}_i-y_i)\boldsymbol x_i=\eta(y_i-\hat{y}_i)\boldsymbol x_i$$
-相应地,$\boldsymbol{w}$中的某个分量$w_i$的更新公式即为公式(5.2)。
-
-## 5.10
-$$\begin{aligned}
-g_j&=-\frac{\partial {E_k}}{\partial{\hat{y}_j^k}} \cdot \frac{\partial{\hat{y}_j^k}}{\partial{\beta_j}}
-\\&=-( \hat{y}_j^k-y_j^k ) f ^{\prime} (\beta_j-\theta_j)
-\\&=\hat{y}_j^k(1-\hat{y}_j^k)(y_j^k-\hat{y}_j^k)
-\end{aligned}$$
-[推导]:参见公式(5.12)
-
-## 5.12
-$$\Delta \theta_j = -\eta g_j$$
-[推导]:因为
-$$\Delta \theta_j = -\eta \cfrac{\partial E_k}{\partial \theta_j}$$
-又
-$$
-\begin{aligned}	
+\end{aligned}
+
+$$
+
+
+其中$\boldsymbol{x_i} \in \mathbb{R}^{n+1},\boldsymbol{w} \in
+\mathbb{R}^{n+1}$。根据该公式,可将要求解的极小化问题进一步简化为
+
+
+$$
+
+\min\limits_{\boldsymbol{w}}L(\boldsymbol{w})=\min\limits_{\boldsymbol{w}}\sum_{\boldsymbol{x_i}\in M}(\hat{y}_i-y_i)\boldsymbol{w}^\mathrm{T}\boldsymbol{x_i}
+
+$$
+
+
+假设误分类样本集合$M$固定,那么可以求得损失函数$L(\boldsymbol{w})$的梯度
+
+
+$$
+
+\nabla_{\boldsymbol{w}}L(\boldsymbol{w})=\sum_{\boldsymbol{x_i}\in M}(\hat{y}_i-y_i)\boldsymbol{x_i}
+
+$$
+
+
+感知机的学习算法具体采用的是随机梯度下降法,即在极小化过程中,不是一次使$M$中所有误分类点的梯度下降,而是一次随机选取一个误分类点并使其梯度下降。
+所以权重$\boldsymbol{w}$的更新公式为
+
+
+$$
+
+\boldsymbol w \leftarrow \boldsymbol w+\Delta \boldsymbol w
+
+$$
+
+
+
+
+$$
+
+\Delta \boldsymbol w=-\eta(\hat{y}_i-y_i)\boldsymbol x_i=\eta(y_i-\hat{y}_i)\boldsymbol x_i
+
+$$
+
+
+相应地,$\boldsymbol{w}$中的某个分量$w_i$的更新公式即式(5.2)。
+
+实践中常用的求解方法是先随机初始化一个模型权重$\boldsymbol{w}_{0}$,此时将训练集中的样本一一代入模型便可确定误分类点集合$M$,然后从$M$中随机抽选取一个误分类点计算得到$\Delta \boldsymbol{w}$,接着按照上述权重更新公式计算得到新的权重$\boldsymbol{w}_{1}=\boldsymbol{w}_{0}+\Delta \boldsymbol{w}$,并重新确定误分类点集合,如此迭代直至误分类点集合为空,即训练样本中的样本均完全正确分类。显然,随机初始化的$\boldsymbol{w}_{0}$不同,每次选取的误分类点不同,最后都有可能导致求解出的模型不同,因此感知模型的解不唯一。
+
+### 5.2.2 图5.5的解释
+
+图5.5中$(0,0),(0,1),(1,0),(1,1)$这4个样本点实现"异或"计算的过程如下:
+
+
+$$
+
+(x_1,x_2)\rightarrow h_1=\varepsilon(x_1-x_2-0.5),h_2=\varepsilon(x_2-x_1-0.5)\rightarrow y=\varepsilon(h_1+h_2-0.5)
+
+$$
+
+
+以$(0,1)$为例,首先求得$h_1=\varepsilon(0-1-0.5)=0,h_2=\varepsilon(1-0-0.5)=1$,然后求得$y=\varepsilon(0+1-0.5)=1$。
+
+## 5.3 误差逆传播算法
+
+### 5.3.1 式(5.10)的推导
+
+参见式(5.12)的推导
+
+### 5.3.2 式(5.12)的推导
+
+因为 
+
+$$
+
+\Delta \theta_j = -\eta \cfrac{\partial E_k}{\partial \theta_j}
+
+$$
+
+
+又 
+
+$$
+
+\begin{aligned} 
 \cfrac{\partial E_k}{\partial \theta_j} &= \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot\cfrac{\partial \hat{y}_j^k}{\partial \theta_j} \\
 &= \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot\cfrac{\partial [f(\beta_j-\theta_j)]}{\partial \theta_j} \\
 &=\cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot f^{\prime}(\beta_j-\theta_j) \times (-1) \\
@@ -67,17 +240,36 @@ $$
 &=(y_j^k-\hat{y}_j^k)\hat{y}_j^k\left(1-\hat{y}_j^k\right)  \\
 &= g_j
 \end{aligned}
+
+$$
+
+ 所以
+
+
 $$
-所以
-$$\Delta \theta_j = -\eta \cfrac{\partial E_k}{\partial \theta_j}=-\eta g_j$$
 
-## 5.13
-$$\Delta v_{ih} = \eta e_h x_i$$
-[推导]:因为
-$$\Delta v_{ih} = -\eta \cfrac{\partial E_k}{\partial v_{ih}}$$
-又
+\Delta \theta_j = -\eta \cfrac{\partial E_k}{\partial \theta_j}=-\eta g_j
+
 $$
-\begin{aligned}	
+
+
+
+### 5.3.3 式(5.13)的推导
+
+因为 
+
+$$
+
+\Delta v_{ih} = -\eta \cfrac{\partial E_k}{\partial v_{ih}}
+
+$$
+
+ 又
+
+
+$$
+
+\begin{aligned} 
 \cfrac{\partial E_k}{\partial v_{ih}} &= \sum_{j=1}^{l} \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot \cfrac{\partial \hat{y}_j^k}{\partial \beta_j} \cdot \cfrac{\partial \beta_j}{\partial b_h} \cdot \cfrac{\partial b_h}{\partial \alpha_h} \cdot \cfrac{\partial \alpha_h}{\partial v_{ih}} \\
 &= \sum_{j=1}^{l} \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot \cfrac{\partial \hat{y}_j^k}{\partial \beta_j} \cdot \cfrac{\partial \beta_j}{\partial b_h} \cdot \cfrac{\partial b_h}{\partial \alpha_h} \cdot x_i \\ 
 &= \sum_{j=1}^{l} \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot \cfrac{\partial \hat{y}_j^k}{\partial \beta_j} \cdot \cfrac{\partial \beta_j}{\partial b_h} \cdot f^{\prime}(\alpha_h-\gamma_h) \cdot x_i \\
@@ -87,17 +279,36 @@ $$
 &= -b_h(1-b_h) \cdot \sum_{j=1}^{l} g_j \cdot w_{hj}  \cdot x_i \\
 &= -e_h \cdot x_i
 \end{aligned}
+
+$$
+
+ 所以
+
+
 $$
-所以
-$$\Delta v_{ih} =-\eta \cfrac{\partial E_k}{\partial v_{ih}} =\eta e_h x_i$$
 
-## 5.14
-$$\Delta \gamma_h= -\eta e_h$$
-[推导]:因为
-$$\Delta \gamma_h = -\eta \cfrac{\partial E_k}{\partial \gamma_h}$$
-又
+\Delta v_{ih} =-\eta \cfrac{\partial E_k}{\partial v_{ih}} =\eta e_h x_i
+
+$$
+
+
+
+### 5.3.4 式(5.14)的推导
+
+因为 
+
+$$
+
+\Delta \gamma_h = -\eta \cfrac{\partial E_k}{\partial \gamma_h}
+
+$$
+
+
+又 
+
 $$
-\begin{aligned}	
+
+\begin{aligned} 
 \cfrac{\partial E_k}{\partial \gamma_h} &= \sum_{j=1}^{l} \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot \cfrac{\partial \hat{y}_j^k}{\partial \beta_j} \cdot \cfrac{\partial \beta_j}{\partial b_h} \cdot \cfrac{\partial b_h}{\partial \gamma_h} \\
 &= \sum_{j=1}^{l} \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot \cfrac{\partial \hat{y}_j^k}{\partial \beta_j} \cdot \cfrac{\partial \beta_j}{\partial b_h} \cdot f^{\prime}(\alpha_h-\gamma_h) \cdot (-1) \\
 &= -\sum_{j=1}^{l} \cfrac{\partial E_k}{\partial \hat{y}_j^k} \cdot \cfrac{\partial \hat{y}_j^k}{\partial \beta_j} \cdot w_{hj} \cdot f^{\prime}(\alpha_h-\gamma_h)\\
@@ -105,152 +316,112 @@ $$
 &= \sum_{j=1}^{l}g_j\cdot w_{hj} \cdot b_h(1-b_h)\\
 &=e_h
 \end{aligned}
+
 $$
-所以
-$$\Delta \gamma_h=-\eta\cfrac{\partial E_k}{\partial \gamma_h} = -\eta e_h$$
-
-## 5.15
-$$\begin{aligned}
-e_h&=-\frac{\partial {E_k}}{\partial{b_h}}\cdot \frac{\partial{b_h}}{\partial{\alpha_h}}
-\\&=-\sum_{j=1}^l \frac{\partial {E_k}}{\partial{\beta_j}}\cdot \frac{\partial{\beta_j}}{\partial{b_h}}f^{\prime}(\alpha_h-\gamma_h)
-\\&=\sum_{j=1}^l w_{hj}g_j f^{\prime}(\alpha_h-\gamma_h)
-\\&=b_h(1-b_h)\sum_{j=1}^l w_{hj}g_j 
-\end{aligned}$$
-[推导]:参见公式(5.13)
-
-## 5.20
-$$E(\boldsymbol{s})=-\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}w_{ij}s_is_j-\sum_{i=1}^n\theta_is_i$$
-[解析]:Boltzmann机本质上是一个引入了隐变量的无向图模型,无向图的能量可理解为
-$$E_{graph}=E_{edges}+E_{nodes}$$
-其中,$E_{graph}$表示图的能量,$E_{edges}$表示图中边的能量,$E_{nodes}$表示图中结点的能量;边能量由两连接结点的值及其权重的乘积确定:$E_{{edge}_{ij}}=-w_{ij}s_is_j$,结点能量由结点的值及其阈值的乘积确定:$E_{{node}_i}=-\theta_is_i$;图中边的能量为图中所有边能量之和
-$$E_{edges}=\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}E_{{edge}_{ij}}=-\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}w_{ij}s_is_j$$
-图中结点的能量为图中所有结点能量之和
-$$E_{nodes}=\sum_{i=1}^nE_{{node}_i}=-\sum_{i=1}^n\theta_is_i$$
-故状态向量$\boldsymbol{s}$所对应的Boltzmann机能量为
-$$E_{graph}=E_{edges}+E_{nodes}=-\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}w_{ij}s_is_j-\sum_{i=1}^n\theta_is_i$$
-
-## 5.22
-$$P(\boldsymbol{v}|\boldsymbol{h})=\prod_{i=1}^dP(v_i\,  |  \, \boldsymbol{h})$$
-[解析]:受限Boltzmann机仅保留显层与隐层之间的连接,显层的状态向量为$\boldsymbol{v}$,隐层的状态向量为$\boldsymbol{h}$。
-$$\boldsymbol{v}=\left[\begin{array}{c}v_1\\ v_2\\ \vdots\\ v_d\\\end{array} \right]\qquad
-\boldsymbol{h}=\left[\begin{array}{c}h_1\\h_2\\ \vdots\\ h_q\end{array} \right]$$
-对于显层状态向量$\boldsymbol{v}$中的变量$v_i$,其仅与隐层状态向量$\boldsymbol{h}$有关,所以给定隐层状态向量$\boldsymbol{h}$,$v_1,v_2,...,v_d$相互独立。
-
-## 5.23
-$$P(\boldsymbol{h}|\boldsymbol{v})=\prod_{j=1}^qP(h_i\,  |  \, \boldsymbol{v})$$
-[解析]:由公式5.22的解析同理可得:给定显层状态向量$\boldsymbol{v}$,$h_1,h_2,\cdots,h_q$相互独立。
-
-## 5.24
-$$\Delta w=\eta(\boldsymbol{v}\boldsymbol{h}^\mathrm{T}-\boldsymbol{v}’\boldsymbol{h}’^{\mathrm{T}})$$
-[推导]:由公式(5.20)可推导出受限Boltzmann机(以下简称RBM)的能量函数为:
-$$\begin{aligned}
-E(\boldsymbol{v},\boldsymbol{h})&=-\sum_{i=1}^d\sum_{j=1}^qw_{ij}v_ih_j-\sum_{i=1}^d\alpha_iv_i-\sum_{j=1}^q\beta_jh_j \\
-&=-\boldsymbol{h}^{\mathrm{T}}\mathbf{W}\boldsymbol{v}-\boldsymbol{\alpha}^{\mathrm{T}}\boldsymbol{v}-\boldsymbol{\beta}^{\mathrm{T}}\boldsymbol{h}
-\end{aligned}$$
-其中
-$$\mathbf{W}=\begin{bmatrix}
-\boldsymbol{w}_1\\
-\boldsymbol{w}_2\\ 
-\vdots\\
-\boldsymbol{w}_q
-\end{bmatrix}\in \mathbb{R}^{q*d}$$
-再由公式(5.21)可知,RBM的联合概率分布为
-$$P(\boldsymbol{v},\boldsymbol{h})=\frac{1}{Z}e^{-E(\boldsymbol{v},\boldsymbol{h})}$$
-其中$Z$为规范化因子
-$$Z=\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E(\boldsymbol{v},\boldsymbol{h})}$$
-给定含$m$个独立同分布数据的数据集$V=\{\boldsymbol{v}_1,\boldsymbol{v}_2,\cdots,\boldsymbol{v}_m\}$,记$\boldsymbol{\theta}=\{\mathbf{W},\boldsymbol{\alpha},\boldsymbol{\beta}\}$,学习RBM的策略是求出参数$\boldsymbol{\theta}$的值,使得如下对数似然函数最大化
-$$\begin{aligned}
-L(\boldsymbol{\theta})&=\ln\left(\prod_{k=1}^{m}P(\boldsymbol{v}_k)\right) \\
-&=\sum_{k=1}^m\ln P(\boldsymbol{v}_k) \\
-&= \sum_{k=1}^m L_k(\boldsymbol{\theta})
-\end{aligned}$$
-具体采用的是梯度上升法来求解参数$\boldsymbol{\theta}$,因此,下面来考虑求对数似然函数$L(\boldsymbol{\theta})$的梯度。对于$V$中的任意一个样本$\boldsymbol{v}_k$来说,其$L_k(\boldsymbol{\theta})$的具体形式为
-$$\begin{aligned}
-L_k(\boldsymbol{\theta})&=\ln P(\boldsymbol{v}_k)
-\\&=\ln\left(\sum_{\boldsymbol{h}}P(\boldsymbol{v}_k,\boldsymbol{h})\right)
-\\&=\ln\left(\sum_{\boldsymbol{h}}\frac{1}{Z}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}\right)
-\\&=\ln\left(\sum_{\boldsymbol{h}}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}\right)-\ln Z
-\\&=\ln\left(\sum_{\boldsymbol{h}}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}\right)-\ln\left(\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E({\boldsymbol{v},\boldsymbol{h})}}\right)
-\end{aligned}$$
-对$L_k(\boldsymbol{\theta})$进行求导
+
+ 所以
+
+
 $$
-\begin{aligned}
-\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{\boldsymbol{\theta}}}&=\frac{\partial}{\partial{\boldsymbol{\theta}}}\left[\ln\sum_{\boldsymbol{h}}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}\right]-\frac{\partial}{\partial{\boldsymbol{\theta}}}\left[\ln\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E({\boldsymbol{v},\boldsymbol{h})}}\right]
-\\&=-\frac{\sum_{\boldsymbol{h}}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}}{\sum_{\boldsymbol{h}}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}}+\frac{\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E(\boldsymbol{v},\boldsymbol{h})}\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}}{\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E(\boldsymbol{v},\boldsymbol{h})}}
-\\&=-\sum_{\boldsymbol{h}}\frac{e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}}{\sum_{\boldsymbol{h}}e^{-E(\boldsymbol{v}_k,\boldsymbol{h})}}+\sum_{\boldsymbol{v},\boldsymbol{h}}\frac{e^{-E(\boldsymbol{v},\boldsymbol{h})}\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}}{\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E(\boldsymbol{v},\boldsymbol{h})}}
-\end{aligned}
+
+\Delta \gamma_h=-\eta\cfrac{\partial E_k}{\partial \gamma_h} = -\eta e_h
+
+$$
+
+
+
+### 5.3.5 式(5.15)的推导
+
+参见式(5.13)的推导
+
+## 5.4 全局最小与局部极小
+
+由图5.10可以直观理解局部极小和全局最小的概念,其余概念如模拟退火、遗传算法、启发式等,则需要查阅专业资料系统化学习。
+
+## 5.5 其他常见神经网络
+
+本节所提到的神经网络其实如今已不太常见,更为常见的神经网络是下一节深度学习里提到的卷积神经网络、循环神经网络等。
+
+### 5.5.1 式(5.18)的解释
+
+从式(5.18)可以看出,对于样本$\boldsymbol{x}$来说,RBF网络的输出为$q$个$\rho(\boldsymbol{x},\boldsymbol{c}_{i})$的线性组合。若换个角度来看这个问题,将$q$个$\rho(\boldsymbol{x},\boldsymbol{c}_{i})$当作是将$d$维向量$\boldsymbol{x}$基于式(5.19)进行特征转换后所得的$q$维特征,即$\tilde{\boldsymbol{x}}=\left(\rho(\boldsymbol{x},\boldsymbol{c}_{1});\rho(\boldsymbol{x},\boldsymbol{c}_{2});...;\rho(\boldsymbol{x},\boldsymbol{c}_{q})\right)$,则式(5.18)求线性加权系数$w_{i}$相当于求解第3.2节的线性回归$f(\tilde{\boldsymbol{x}})=\boldsymbol{w}^{\mathrm{T}}\tilde{\boldsymbol{x}}+b$,对于仅有的差别$b$来说,当然可以在式(5.18)中补加一个$b$。因此,RBF网络在确定$q$个神经元中心$\boldsymbol{c}_{i}$之后,接下来要做的就是线性回归。
+
+### 5.5.2 式(5.20)的解释
+
+Boltzmann机(Restricted Boltzmann
+Machine,简称RBM)本质上是一个引入了隐变量的无向图模型,其能量可理解为
+
+
 $$
-由于
-$$\frac{e^{-E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\sum_{\boldsymbol{h}}e^{-E({\boldsymbol{v}_k,\boldsymbol{h})}}}=\frac{\frac{e^{-E({\boldsymbol{v}_k,\boldsymbol{h})}}}{Z}}{\frac{\sum_{\boldsymbol{h}}e^{-E({\boldsymbol{v}_k,\boldsymbol{h})}}}{Z}}=\frac{\frac{e^{-E({\boldsymbol{v}_k,\boldsymbol{h})}}}{Z}}{\sum_{\boldsymbol{h}}\frac{e^{-E({\boldsymbol{v}_k,\boldsymbol{h})}}}{Z}}=\frac{P(\boldsymbol{v}_k,\boldsymbol{h})}{\sum_{\boldsymbol{h}}P(\boldsymbol{v}_k,\boldsymbol{h})}=P(\boldsymbol{h}|\boldsymbol{v}_k)
+
+E_{\rm graph}=E_{\rm edges}+E_{\rm nodes}
+
 $$
-$$\frac{e^{-E({\boldsymbol{v},\boldsymbol{h})}}}{\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E({\boldsymbol{v},\boldsymbol{h})}}}=\frac{\frac{e^{-E({\boldsymbol{v},\boldsymbol{h})}}}{Z}}{\frac{\sum_{\boldsymbol{v},\boldsymbol{h}}e^{-E({\boldsymbol{v},\boldsymbol{h})}}}{Z}}=\frac{\frac{e^{-E({\boldsymbol{v},\boldsymbol{h})}}}{Z}}{\sum_{\boldsymbol{v},\boldsymbol{h}}\frac{e^{-E({\boldsymbol{v},\boldsymbol{h})}}}{Z}}=\frac{P(\boldsymbol{v},\boldsymbol{h})}{\sum_{\boldsymbol{v},\boldsymbol{h}}P(\boldsymbol{v},\boldsymbol{h})}=P(\boldsymbol{v},\boldsymbol{h})$$
-故
+
+
+其中,$E_{\rm graph}$表示图的能量,$E_{\rm edges}$表示图中边的能量,$E_{\rm nodes}$表示图中结点的能量。边能量由两连接结点的值及其权重的乘积确定,即$E_{{\rm edge}_{ij}}=-w_{ij}s_is_j$;结点能量由结点的值及其阈值的乘积确定,即$E_{{\rm node}_i}=-\theta_is_i$。图中边的能量为所有边能量之和为
+
+
 $$
-\begin{aligned}
-\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{\boldsymbol{\theta}}}&=-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}_k)\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}+\sum_{\boldsymbol{v},\boldsymbol{h}}P(\boldsymbol{v},\boldsymbol{h})\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}
-\\&=-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}_k)\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}+\sum_{\boldsymbol{v}}\sum_{\boldsymbol{h}}P(\boldsymbol{v})P(\boldsymbol{h}|\boldsymbol{v})\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}
-\\&=-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}_k)\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}+\sum_{\boldsymbol{v}}P(\boldsymbol{v})\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v})\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}
-\end{aligned}$$
-由于$\boldsymbol{\theta}=\{\mathbf{W},\boldsymbol{\alpha},\boldsymbol{\beta}\}$包含三个参数,在这里我们仅以$\mathbf{W}$中的任意一个分量$w_{ij}$为例进行详细推导。首先将上式中的$\boldsymbol{\theta}$替换为$w_{ij}$可得
-$$\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{w_{ij}}}=-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}_k)\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{w_{ij}}}+\sum_{\boldsymbol{v}}P(\boldsymbol{v})\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v})\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{w_{ij}}}$$
-根据公式(5.23)可知
-$$\begin{aligned}
-&\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v})\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{w_{ij}}}\\
-=&-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v})h_iv_j\\
-=&-\sum_{\boldsymbol{h}}\prod_{l=1}^{q}P(h_l|\boldsymbol{v})h_iv_j\\
-=&-\sum_{\boldsymbol{h}}P(h_i|\boldsymbol{v})\prod_{l=1,l\neq i}^{q}P(h_l|\boldsymbol{v})h_iv_j\\
-=&-\sum_{\boldsymbol{h}}P(h_i|\boldsymbol{v})P(h_1,...,h_{i-1},h_{i+1},...,h_q|\boldsymbol{v})h_iv_j\\
-=&-\sum_{h_i}P(h_i|\boldsymbol{v})h_iv_j\sum_{h_1,...,h_{i-1},h_{i+1},...,h_q}P(h_1,...,h_{i-1},h_{i+1},...,h_q|\boldsymbol{v})\\
-=&-\sum_{h_i}P(h_i|\boldsymbol{v})h_iv_j\cdot 1\\
-=&-\left[P(h_i=0|\boldsymbol{v})\cdot0\cdot v_j+P(h_i=1|\boldsymbol{v})\cdot 1\cdot v_j\right]\\
-=&-P(h_i=1|\boldsymbol{v})v_j
-\end{aligned}$$
-同理可推得
-$$\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}_k)\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{w_{ij}}}=-P(h_i=1|\boldsymbol{v}_k)v_j^k$$
-将以上两式代回$\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{w_{ij}}}$中可得
-$$\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{w_{ij}}}=P(h_i=1|\boldsymbol{v}_k){v_{j}^k}-\sum_{\boldsymbol{v}}P(\boldsymbol{v})P(h_i=1|\boldsymbol{v})v_j$$
-观察此式可知,通过枚举所有可能的$\boldsymbol{v}$来计算$\sum_{\boldsymbol{v}}P(\boldsymbol{v})P(h_i=1|\boldsymbol{v})v_j$的复杂度太高,因此可以考虑求其近似值来简化计算。具体地,RBM通常采用的是西瓜书上所说的“对比散度”(Contrastive Divergence,简称CD)算法。CD算法的核心思想<sup>[2]</sup>是:用步长为$s$(通常设为1)的CD算法
-$$CD_s(\boldsymbol{\theta},\boldsymbol{v})=-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}^{(0)})\frac{\partial{E({\boldsymbol{v}^{(0)},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}+\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}^{(s)})\frac{\partial{E({\boldsymbol{v}^{(s)},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}$$
-近似代替
-$$\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{\boldsymbol{\theta}}}=-\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v}_k)\frac{\partial{E({\boldsymbol{v}_k,\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}+\sum_{\boldsymbol{v}}P(\boldsymbol{v})\sum_{\boldsymbol{h}}P(\boldsymbol{h}|\boldsymbol{v})\frac{\partial{E({\boldsymbol{v},\boldsymbol{h})}}}{\partial{\boldsymbol{\theta}}}$$
-由此可知对于$w_{ij}$来说,就是用
-$$CD_s(w_{ij},\boldsymbol{v})=P(h_i=1|\boldsymbol{v}^{(0)}){v_{j}^{(0)}}-P(h_i=1|\boldsymbol{v}^{(s)})v_j^{(s)}$$
-近似代替
-$$\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{w_{ij}}}=P(h_i=1|\boldsymbol{v}_k){v_{j}^k}-\sum_{\boldsymbol{v}}P(\boldsymbol{v})P(h_i=1|\boldsymbol{v})v_j$$
-令$\Delta w_{ij}:=\frac{\partial{L_k(\boldsymbol{\theta})}}{\partial{w_{ij}}}$,$RBM(\boldsymbol\theta)$表示参数为$\boldsymbol{\theta}$的RBM网络,则$CD_s(w_{ij},\boldsymbol{v})$的具体算法可表示为:
-- 输入:$s,V=\{\boldsymbol{v}_1,\boldsymbol{v}_2,\cdots,\boldsymbol{v}_m\},RBM(\boldsymbol\theta)$
-- 过程:
-    1. 初始化:$\Delta w_{ij}=0$
-    2. $for\quad \boldsymbol{v}\in V \quad do$
-    3. $\quad \boldsymbol{v}^{(0)}:=\boldsymbol{v}$
-    4. $\quad for\quad t=1,2,...,s-1\quad do$
-    5. $\qquad \boldsymbol{h}^{(t)}=h\_given\_v(\boldsymbol{v}^{(t)},RBM(\boldsymbol\theta))$
-    6. $\qquad \boldsymbol{v}^{(t+1)}=v\_given\_h(\boldsymbol{h}^{(t)},RBM(\boldsymbol\theta))$
-    7. $\quad end\quad for$
-    8. $\quad for\quad i=1,2,...,q;j=1,2,...,d\quad do$
-    9. $\qquad \Delta w_{ij}=\Delta w_{ij}+\left[P(h_i=1|\boldsymbol{v}^{(0)}){v_{j}^{(0)}}-P(h_i=1|\boldsymbol{v}^{(s)})v_j^{(s)}\right]$
-    10. $\quad end\quad for$
-    11. $end\quad for$
-- 输出:$\Delta w_{ij}$
-
-其中函数$h\_given\_v(\boldsymbol{v},RBM(\boldsymbol\theta))$表示在给定$\boldsymbol{v}$的条件下,从$RBM(\boldsymbol\theta)$中采样生成$\boldsymbol{h}$,同理,函数$v\_given\_h(\boldsymbol{h},RBM(\boldsymbol\theta))$表示在给定$\boldsymbol{h}$的条件下,从$RBM(\boldsymbol\theta)$中采样生成$\boldsymbol{v}$。由于两个函数的算法可以互相类比推得,因此,下面仅给出函数$h\_given\_v(\boldsymbol{v},RBM(\boldsymbol\theta))$的具体算法:
-- 输入:$\boldsymbol{v},RBM(\boldsymbol\theta)$
-- 过程:
-    1. $for \quad i=1,2,...,q \quad do$
-    2. $\quad \text{随机生成} 0\leq\alpha_i\leq 1$
-    3. $\quad h_{j}=\left\{\begin{array}{ll}1, & \text { if } \alpha_{i}<P(h_i=1|\boldsymbol{v}) \\ 0, & \text { otherwise }\end{array}\right.$
-    4. $end \quad for$
-- 输出:$\boldsymbol{h}=(h_1,h_2,...,h_q)^{\mathrm{T}}$
-
-综上可知,公式(5.24)其实就是带有学习率为$\eta$的$\Delta w_{ij}$的一种形式化的表示。
-
-## 附录
-### ①数据集的线性可分<sup>[1]</sup>
-给定一个数据集
-$$T=\{(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2),...,(\boldsymbol{x}_N,y_N)\}$$
-其中,$\boldsymbol{x}_i\in \mathbb{R}^n,y_i\in\{0,1\},i=1,2,...,N$,如果存在某个超平面
-$$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} +b=0 $$
-能将数据集$T$中的正样本和负样本完全正确地划分到超平面两侧,即对所有$y_i=1$的样本$\boldsymbol{x}_i$,有$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i +b\geq0$,对所有$y_i=0$的样本$\boldsymbol{x}_i$,有$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x} _i+b<0$,则称数据集$T$线性可分,否则称数据集$T$线性不可分。
+
+E_{\rm edges}=\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}E_{{\rm edge}_{ij}}=-\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}w_{ij}s_is_j
+
+$$
+
+
+图中结点的能量为所有结点能量之和
+
+
+$$
+
+E_{\rm nodes}=\sum_{i=1}^nE_{{\rm node}_i}=-\sum_{i=1}^n\theta_is_i
+
+$$
+
+
+故状态向量$\boldsymbol{s}$所对应的Boltzmann机能量
+
+
+$$
+
+E_{\rm graph}=E_{\rm edges}+E_{\rm nodes}=-\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}w_{ij}s_is_j-\sum_{i=1}^n\theta_is_i
+
+$$
+
+
+
+### 5.5.3 式(5.22)的解释
+
+受限Boltzmann机仅保留显层与隐层之间的连接。显层状态向量$\boldsymbol{v}=(v_1;v_2;...;v_d)$,隐层状态向量$\boldsymbol{h}=(h_1;h_2;...;h_q)$。显层状态向量$\boldsymbol{v}$中的变量$v_i$仅与隐层状态向量$\boldsymbol{h}$有关,所以给定隐层状态向量$\boldsymbol{h}$,有$v_1,v_2,...,v_d$相互独立。
+
+### 5.5.4 式(5.23)的解释
+
+由式(5.22)的解释同理可得,给定显层状态向量$\boldsymbol{v}$,有$h_1,h_2,...,h_q$相互独立。
+
+## 5.6 深度学习
+
+"西瓜书"在本节并未对如今深度学习领域的诸多经典神经网络作展开介绍,而是从更宏观的角度详细解释了应该如何理解深度学习。因此,本书也顺着"西瓜书"的思路对深度学习相关概念作进一步说明,对深度学习的经典神经网络感兴趣的读者可查阅其他相关书籍进行系统性学习。
+
+### 5.6.1 什么是深度学习
+
+深度学习就是很深层的神经网络,而神经网络属于机器学习算法的范畴,因此深度学习是机器学习的子集。
+
+### 5.6.2 深度学习的起源
+
+深度学习中的经典神经网络以及用于训练神经网络的BP算法其实在很早就已经被提出,例如卷积神经网络[2]是在1989提出,BP算法[3]是在1986年提出,但是在当时的计算机算力水平下,其他非神经网络类算法(例如当时红极一时的支持向量机算法)的效果优于神经网络类算法,因此神经网络类算法进入瓶颈期。随着计算机算力的不断提升,以及2012年Hinton和他的学生提出了AlexNet并在ImageNet评测中以明显优于第二名的成绩夺冠后,引起了学术界和工业界的广泛关注,紧接着三位深度学习之父LeCun、Bengio和Hinton在2015年正式提出深度学习的概念,自此深度学习开始成为机器学习的主流研究方向。
+
+### 5.6.3 怎么理解特征学习
+
+举例来说,用非深度学习算法做西瓜分类时,首先需要人工设计西瓜的各个特征,比如根蒂、色泽等,然后将其表示为数学向量,这些过程统称为"特征工程",完成特征工程后用算法分类即可,其分类效果很大程度上取决于特征工程做得是否够好。而对于深度学习算法来说,只需将西瓜的图片表示为数学向量输入,输出层设置为想要的分类结果即可(例如二分类通常设置为对数几率回归),之前的"特征工程"交由神经网络来自动完成,即让神经网络进行"特征学习",通过在输出层约束分类结果,神经网络会自动从西瓜的图片上提取出有助于西瓜分类的特征。
+
+因此,如果分别用对数几率回归和卷积神经网络来做西瓜分类,其算法运行流程分别是"人工特征工程$\rightarrow$对数几率回归分类"和"卷积神经网络特征学习$\rightarrow$对数几率回归分类"。
+
 ## 参考文献
-[1]李航编著.统计学习方法[M].清华大学出版社,2012.<br>
-[2]https://blog.csdn.net/itplus/article/details/19408143
+[1] 李航. 统计学习方法. 清华大学出版社, 2012.
+
+[2] Yann LeCun, Bernhard Boser, John S Denker, Donnie Henderson, Richard E Howard, Wayne Hub-
+bard, and Lawrence D Jackel. Backpropagation applied to handwritten zip code recognition. Neural
+computation, 1(4):541–551, 1989.
+
+[3] David E Rumelhart, Geoffrey E Hinton, and Ronald J Williams. Learning representations by back-
+propagating errors. nature, 323(6088):533–536, 1986.

+ 1176 - 248
docs/chapter6/chapter6.md

@@ -1,346 +1,1274 @@
-## 6.9
-$$\boldsymbol{w} = \sum_{i=1}^m\alpha_iy_i\boldsymbol{x}_i$$
-[推导]:公式(6.8)可作如下展开
-$$\begin{aligned}
-L(\boldsymbol{w},b,\boldsymbol{\alpha}) &= \frac{1}{2}||\boldsymbol{w}||^2+\sum_{i=1}^m\alpha_i(1-y_i(\boldsymbol{w}^T\boldsymbol{x}_i+b)) \\
-& =  \frac{1}{2}||\boldsymbol{w}||^2+\sum_{i=1}^m(\alpha_i-\alpha_iy_i \boldsymbol{w}^T\boldsymbol{x}_i-\alpha_iy_ib)\\
-& =\frac{1}{2}\boldsymbol{w}^T\boldsymbol{w}+\sum_{i=1}^m\alpha_i -\sum_{i=1}^m\alpha_iy_i\boldsymbol{w}^T\boldsymbol{x}_i-\sum_{i=1}^m\alpha_iy_ib
-\end{aligned}​$$
-对$\boldsymbol{w}$和$b$分别求偏导数​并令其等于0
-$$\frac {\partial L}{\partial \boldsymbol{w}}=\frac{1}{2}\times2\times\boldsymbol{w} + 0 - \sum_{i=1}^{m}\alpha_iy_i \boldsymbol{x}_i-0= 0 \Longrightarrow \boldsymbol{w}=\sum_{i=1}^{m}\alpha_iy_i \boldsymbol{x}_i$$
-
-$$\frac {\partial L}{\partial b}=0+0-0-\sum_{i=1}^{m}\alpha_iy_i=0  \Longrightarrow  \sum_{i=1}^{m}\alpha_iy_i=0$$
-值得一提的是,上述求解过程遵循的是西瓜书附录B中公式(B.7)左边的那段话“在推导对偶问题时,常通过将拉格朗日函数$L(\boldsymbol{x},\boldsymbol{\lambda},\boldsymbol{\mu})$对$\boldsymbol{x}$求导并令导数为0,来获得对偶函数的表达形式”。那么这段话背后的缘由是啥呢?在这里我认为有两种说法可以进行解释:
-1. 对于强对偶性成立的优化问题,其主问题的最优解$\boldsymbol{x}^*$一定满足附录①给出的KKT条件(证明参见参考文献[3]的§ 5.5),而KKT条件中的条件(1)就要求最优解$\boldsymbol{x}^*$能使得拉格朗日函数$L(\boldsymbol{x},\boldsymbol{\lambda},\boldsymbol{\mu})$关于$\boldsymbol{x}$的一阶导数等于0;
-2. 对于任意优化问题,若拉格朗日函数$L(\boldsymbol{x},\boldsymbol{\lambda},\boldsymbol{\mu})$是关于$\boldsymbol{x}$的凸函数,那么此时对$L(\boldsymbol{x},\boldsymbol{\lambda},\boldsymbol{\mu})$关于$\boldsymbol{x}$求导并令导数等于0解出来的点一定是最小值点。根据对偶函数的定义可知,将最小值点代回$L(\boldsymbol{x},\boldsymbol{\lambda},\boldsymbol{\mu})$即可得到对偶函数。
-
-显然,对于SVM来说,从以上任意一种说法都能解释得通。
-
-## 6.10
-$$0=\sum_{i=1}^m\alpha_iy_i$$
-[解析]:参见公式(6.9)
-
-## 6.11
-$$\begin{aligned}
-\max_{\boldsymbol{\alpha}} & \sum_{i=1}^m\alpha_i - \frac{1}{2}\sum_{i = 1}^m\sum_{j=1}^m\alpha_i \alpha_j y_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j \\
-\text { s.t. } & \sum_{i=1}^m \alpha_i y_i =0 \\ 
-& \alpha_i \geq 0 \quad i=1,2,\dots ,m
-\end{aligned}$$  
-[推导]:将公式(6.9)和公式(6.10)代入公式(6.8)即可将$L(\boldsymbol{w},b,\boldsymbol{\alpha})$中的$\boldsymbol{w}$和$b$消去,再考虑公式(6.10)的约束,就得到了公式(6.6)的对偶问题
-$$\begin{aligned}
-\inf_{\boldsymbol{w},b} L(\boldsymbol{w},b,\boldsymbol{\alpha})  &=\frac{1}{2}\boldsymbol{w}^T\boldsymbol{w}+\sum_{i=1}^m\alpha_i -\sum_{i=1}^m\alpha_iy_i\boldsymbol{w}^T\boldsymbol{x}_i-\sum_{i=1}^m\alpha_iy_ib \\
-&=\frac {1}{2}\boldsymbol{w}^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i-\boldsymbol{w}^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_
-i -b\sum _{i=1}^m\alpha_iy_i \\
-& = -\frac {1}{2}\boldsymbol{w}^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i -b\sum _{i=1}^m\alpha_iy_i
-\end{aligned}$$
-由于$\sum\limits_{i=1}^{m}\alpha_iy_i=0$,所以上式最后一项可化为0,于是得
-$$\begin{aligned}
-\inf_{\boldsymbol{w},b} L(\boldsymbol{w},b,\boldsymbol{\alpha}) &= -\frac {1}{2}\boldsymbol{w}^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i \\
-&=-\frac {1}{2}(\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i)^T(\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i)+\sum _{i=1}^m\alpha_i \\
-&=-\frac {1}{2}\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i \\
-&=\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j
-\end{aligned}$$
-所以
-$$\max_{\boldsymbol{\alpha}}\inf_{\boldsymbol{w},b} L(\boldsymbol{w},b,\boldsymbol{\alpha})=\max_{\boldsymbol{\alpha}} \sum_{i=1}^m\alpha_i - \frac{1}{2}\sum_{i = 1}^m\sum_{j=1}^m\alpha_i \alpha_j y_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j $$
-
-## 6.13
-$$\left\{\begin{array}{l}\alpha_{i} \geqslant 0 \\ y_{i} f\left(\boldsymbol{x}_{i}\right)-1 \geqslant 0 \\ \alpha_{i}\left(y_{i} f\left(\boldsymbol{x}_{i}\right)-1\right)=0\end{array}\right.$$
-[解析]:参见公式(6.9)中给出的第1点理由
-
-## 6.35
-$$\begin{aligned}
-\min _{\boldsymbol{w}, b, \xi_{i}} & \frac{1}{2}\|\boldsymbol{w}\|^{2}+C \sum_{i=1}^{m} \xi_{i} \\
- \text { s.t. } & y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right) \geqslant 1-\xi_{i} \\ & \xi_{i} \geqslant 0, i=1,2, \ldots, m \end{aligned}$$
-[解析]:令
-$$\max \left(0,1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)\right)=\xi_{i}$$
-显然$\xi_i\geq 0$,而且当$1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)>0$时
-$$1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)=\xi_i$$
-当$1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)\leq 0$时
-$$\xi_i = 0$$
-所以综上可得
-$$1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)\leq\xi_i\Rightarrow y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right) \geqslant 1-\xi_{i}$$
-
-## 6.37
-$$\boldsymbol{w}=\sum_{i=1}^{m}\alpha_{i}y_{i}\boldsymbol{x}_{i}$$
-[解析]:参见公式(6.9)
-
-## 6.38
-$$0=\sum_{i=1}^{m}\alpha_{i}y_{i}$$
-[解析]:参见公式(6.10)
-
-## 6.39
-$$ C=\alpha_i +\mu_i $$
-[推导]:对公式(6.36)关于$\xi_i$求偏导并令其等于0可得:
-$$\frac{\partial L}{\partial \xi_i}=0+C \times 1 - \alpha_i \times 1-\mu_i
-\times 1 =0\Longrightarrow C=\alpha_i +\mu_i$$
-
-## 6.40
-$$\begin{aligned}
-\max_{\boldsymbol{\alpha}}&\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j \\
- s.t. &\sum_{i=1}^m \alpha_i y_i=0 \\ 
- &  0 \leq\alpha_i \leq C \quad i=1,2,\dots ,m
- \end{aligned}$$
-将公式(6.37)-(6.39)代入公式(6.36)可以得到公式(6.35)的对偶问题:
-$$\begin{aligned}
- &\frac{1}{2}||\boldsymbol{w}||^2+C\sum_{i=1}^m \xi_i+\sum_{i=1}^m \alpha_i(1-\xi_i-y_i(\boldsymbol{w}^T\boldsymbol{x}_i+b))-\sum_{i=1}^m\mu_i \xi_i  \\
-=&\frac{1}{2}||\boldsymbol{w}||^2+\sum_{i=1}^m\alpha_i(1-y_i(\boldsymbol{w}^T\boldsymbol{x}_i+b))+C\sum_{i=1}^m \xi_i-\sum_{i=1}^m \alpha_i \xi_i-\sum_{i=1}^m\mu_i \xi_i \\
-=&-\frac {1}{2}\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i +\sum_{i=1}^m C\xi_i-\sum_{i=1}^m \alpha_i \xi_i-\sum_{i=1}^m\mu_i \xi_i \\
-=&-\frac {1}{2}\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i^T\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i +\sum_{i=1}^m (C-\alpha_i-\mu_i)\xi_i \\
-=&\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j\\
-=&\min_{\boldsymbol{w},b,\boldsymbol{\xi}}L(\boldsymbol{w},b,\boldsymbol{\alpha},\boldsymbol{\xi},\boldsymbol{\mu}) 
-\end{aligned}$$
-所以
-$$\begin{aligned}
-\max_{\boldsymbol{\alpha},\boldsymbol{\mu}} \min_{\boldsymbol{w},b,\boldsymbol{\xi}}L(\boldsymbol{w},b,\boldsymbol{\alpha},\boldsymbol{\xi},\boldsymbol{\mu})&=\max_{\boldsymbol{\alpha},\boldsymbol{\mu}}\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j \\
-&=\max_{\boldsymbol{\alpha}}\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^T\boldsymbol{x}_j 
-\end{aligned}$$
+# 第6章 支持向量机
+
+在深度学习流行之前,支持向量机及其核方法一直是机器学习领域中的主流算法,尤其是核方法至今都仍有相关学者在持续研究。
+
+## 6.1 间隔与支持向量
+
+### 6.1.1 图6.1的解释
+
+回顾第5章5.2节的感知机模型可知,图6.1中的黑色直线均可作为感知机模型的解,因为感知机模型求解的是能将正负样本完全正确划分的超平面,因此解不唯一。而支持向量机想要求解的则是离正负样本都尽可能远且刚好位于"正中间"的划分超平面,因为这样的超平面理论上泛化性能更好。
+
+### 6.1.2 式(6.1)的解释
+
+$n$维空间的超平面定义为$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}+b=0$,其中$\boldsymbol{w},\boldsymbol{x}\in\mathbb{R}^{n}$,$\boldsymbol{w}=(w_1;w_2;...;w_n)$称为法向量,$b$称为位移项。超平面具有以下性质:
+
+(1)法向量$\boldsymbol{w}$和位移项$b$确定一个唯一超平面;
+
+(2)超平面方程不唯一,因为当等倍缩放$\boldsymbol{w}$和$b$时(假设缩放倍数为$\alpha$),所得的新超平面方程$\alpha\boldsymbol{w}^\mathrm{T}\boldsymbol{x}+\alpha b=0$和$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}+b=0$的解完全相同,因此超平面不变,仅超平面方程有变;
+
+(3)法向量$\boldsymbol{w}$垂直于超平面;
+
+(4)超平面将$n$维空间切割为两半,其中法向量$\boldsymbol{w}$指向的那一半空间称为正空间,另一半称为负空间,正空间中的点$\boldsymbol{x}^{+}$代入进方程$\boldsymbol{w}^\mathrm{T}\boldsymbol{x}^{+}+b$其计算结果大于0,反之负空间中的点代入进方程其计算结果小于0;
+
+(5)$n$维空间中的任意点$\boldsymbol{x}$到超平面的距离公式为$r=\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}+b\right|}{\|\boldsymbol{w}\|}$,其中$\|\boldsymbol{w}\|$表示向量$\boldsymbol{w}$的模。
+
+### 6.1.3 式(6.2)的推导
+
+对于任意一点$\boldsymbol{x}_0=(x^0_1;x^0_2;...;x^0_n)$,设其在超平面$\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b=0$上的投影点为$\boldsymbol{x}_1=(x^1_1;x^1_2;...;x^1_n)$,则$\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_1+b=0$。根据超平面的性质(3)可知,此时向量$\overrightarrow{\boldsymbol{x}_1\boldsymbol{x}_0}$与法向量$\boldsymbol{w}$平行,因此
+
+
+$$
+
+|\boldsymbol{w}\cdot\overrightarrow{\boldsymbol{x}_1\boldsymbol{x}_0}|=|\|\boldsymbol{w}\|\cdot\cos\pi\cdot\|\overrightarrow{\boldsymbol{x}_1\boldsymbol{x}_0}\||=\|\boldsymbol{w}\|\cdot \|\overrightarrow{\boldsymbol{x}_1\boldsymbol{x}_0}\|=\|\boldsymbol{w}\|\cdot r
+
+$$
+
+
+又 
+
+$$
+
+\begin{aligned}
+\boldsymbol{w}\cdot\overrightarrow{\boldsymbol{x}_1\boldsymbol{x}_0}&=w_1(x^0_1-x^1_1)+w_2(x^0_2-x^1_2)+...+w_n(x^0_n-x^1_n) \\
+&=w_1x^0_1+w_2x^0_2+...+w_nx^0_n-(w_1x^1_1+w_2x^1_2+...+w_nx^1_n) \\
+&=\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_0-\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_1 \\
+&=\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_0+b\\
+\end{aligned}
+
+$$
+
+ 所以
+
+
+$$
+
+|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_0+b|=\|\boldsymbol{w}\|\cdot r
+
+$$
+
+
+
+
+$$
+
+r=\frac{\left|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b\right|}{\|\boldsymbol{w}\|}
+
+$$
+
+
+
+### 6.1.4 式(6.3)的推导
+
+支持向量机所要求的超平面需要满足三个条件,第一个是能正确划分正负样本,第二个是要位于正负样本正中间,第三个是离正负样本都尽可能远。式(6.3)仅满足前两个条件,第三个条件由式(6.5)来满足,因此下面仅基于前两个条件来进行推导。
+
+对于第一个条件,当超平面满足该条件时,根据超平面的性质(4)可知,若$y_i=+1$的正样本被划分到正空间(当然也可以将其划分到负空间),$y_i=-1$的负样本被划分到负空间,以下不等式成立
+
+
+$$
+
+\left\{\begin{array}{ll}
+\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b \geqslant 0, & y_i=+1 \\
+\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b \leqslant 0, & y_i=-1
+\end{array}\right.
+
+$$
+
+
+
+对于第二个条件,首先设离超平面最近的正样本为$\boldsymbol{x}^{+}_{*}$,离超平面最近的负样本为$\boldsymbol{x}^{-}_{*}$,由于这两样本是离超平面最近的点,所以其他样本到超平面的距离均大于等于它们,即
+
+
+$$
+
+\left\{\begin{array}{ll}
+\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right|}{\|\boldsymbol{w}\|} \geqslant \frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{+}_{*}+b\right|}{\|\boldsymbol{w}\|}, & y_i=+1 \\
+\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right|}{\|\boldsymbol{w}\|} \geqslant \frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{-}_{*}+b\right|}{\|\boldsymbol{w}\|}, & y_i=-1
+\end{array}\right.
+
+$$
+
+
+结合第一个条件中推导出的不等式,可将上式中的绝对值符号去掉并推得
+
+
+$$
+
+\left\{\begin{array}{ll}
+\frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}{\|\boldsymbol{w}\|} \geqslant \frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{+}_{*}+b}{\|\boldsymbol{w}\|}, & y_i=+1 \\
+\frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}{\|\boldsymbol{w}\|} \leqslant \frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{-}_{*}+b}{\|\boldsymbol{w}\|}, & y_i=-1
+\end{array}\right.
+
+$$
+
+
+基于此再考虑第二个条件,"位于正负样本正中间"等价于要求超平面到$\boldsymbol{x}^{+}_{*}$和$\boldsymbol{x}^{-}_{*}$这两点的距离相等,即
+
+
+$$
+
+\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{+}_{*}+b\right|}{\|\boldsymbol{w}\|}=\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{-}_{*}+b\right|}{\|\boldsymbol{w}\|}
+
+$$
+
+
+
+综上,支持向量机所要求的超平面所需要满足的条件如下
+
+
+$$
+
+\left\{\begin{array}{ll}
+\frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}{\|\boldsymbol{w}\|} \geqslant \frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{+}_{*}+b}{\|\boldsymbol{w}\|}, & y_i=+1 \\
+\frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}{\|\boldsymbol{w}\|} \leqslant \frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{-}_{*}+b}{\|\boldsymbol{w}\|}, & y_i=-1 \\
+\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{+}_{*}+b\right|}{\|\boldsymbol{w}\|}=\frac{\left|\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{-}_{*}+b\right|}{\|\boldsymbol{w}\|}
+\end{array}\right.
+
+$$
+
+
+
+但是根据超平面的性质(2)可知,当等倍缩放法向量$\boldsymbol{w}$和位移项$b$时,超平面不变,且上式也恒成立,因此会导致所求的超平面的参数$\boldsymbol{w}$和$b$有无穷多解。因此为了保证每个超平面的参数只有唯一解,不妨再额外施加一些约束,例如约束$\boldsymbol{x}^{+}_{*}$和$\boldsymbol{x}^{-}_{*}$代入进超平面方程后的绝对值为1,也就是令$\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{+}_{*}+b=1,\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}^{-}_{*}+b=-1$。此时支持向量机所要求的超平面所需要满足的条件变为
+
+
+$$
+
+\left\{\begin{array}{ll}
+\frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}{\|\boldsymbol{w}\|} \geqslant \frac{+1}{\|\boldsymbol{w}\|}, & y_i=+1 \\
+\frac{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}{\|\boldsymbol{w}\|} \leqslant \frac{-1}{\|\boldsymbol{w}\|}, & y_i=-1 \\
+\end{array}\right.
+
+$$
+
+
+由于$\|\boldsymbol{w}\|$恒大于0,因此上式可进一步化简为
+
+
+$$
+
+\left\{\begin{array}{ll}
+\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b \geqslant +1, & y_i=+1 \\
+\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b \leqslant -1, & y_i=-1 \\
+\end{array}\right.
+
+$$
+
+
+
+### 6.1.5 式(6.4)的推导
+
+根据式(6.3)的推导可知,$\boldsymbol{x}^{+}_{*}$和$\boldsymbol{x}^{-}_{*}$便是"支持向量",因此支持向量到超平面的距离已经被约束为$\frac{1}{\|\boldsymbol{w}\|}$,所以两个异类支持向量到超平面的距离之和为$\frac{2}{\|\boldsymbol{w}\|}$。
+
+### 6.1.6 式(6.5)的解释
+
+式(6.5)是通过"最大化间隔"来保证超平面离正负样本都尽可能远,且该超平面有且仅有一个,因此可以解出唯一解。
+
+## 6.2 对偶问题
+
+### 6.2.1 凸优化问题
+
+考虑一般地约束优化问题 
+
+$$
+
+\begin{array}{ll}
+{\min } & {f(\boldsymbol x)} \\
+{\text {s.t.}} & {g_{i}(\boldsymbol x) \leqslant 0, \quad i=1,2,..., m} \\
+{} & {h_{j}(\boldsymbol x)=0, \quad j=1,2,...,n}
+\end{array}
+
+$$
+
+
+若目标函数$f(\boldsymbol x)$是凸函数,不等式约束$g_i(\boldsymbol{x})$是凸函数,等式约束$h_{j}(\boldsymbol x)$是仿射函数,则称该优化问题为凸优化问题。
+
+由于$\frac{1}{2}\|\boldsymbol{w}\|^{2}$和$1-y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)$均是关于$\boldsymbol{w}$和$b$的凸函数,所以式(6.6)是凸优化问题。凸优化问题是最优化里比较易解的一类优化问题,因为其拥有诸多良好的数学性质和现成的数学工具,因此如果非凸优化问题能等价转化为凸优化问题,其求解难度通常也会减小。
+
+### 6.2.2 KKT条件
+
+考虑一般的约束优化问题 
+
+$$
+
+\begin{array}{ll}
+{\min } & {f(\boldsymbol x)} \\
+{\text {s.t.}} & {g_{i}(\boldsymbol x) \leqslant 0, \quad i=1,2,..., m} \\
+{} & {h_{j}(\boldsymbol x)=0, \quad j=1,2,...,n}
+\end{array}
+
+$$
+
+ 若$f(\boldsymbol x),g_i(\boldsymbol x),h_j(\boldsymbol
+x)$的一阶偏导连续,$\boldsymbol x^*$是优化问题的局部解,$\boldsymbol \mu=(\mu_1;\mu_2;...;\mu_m),\boldsymbol \lambda=(\lambda_1;\lambda_2;...;\lambda_n)$为拉格朗日乘子向量,$L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda)=f(\boldsymbol x)+\sum_{i=1}^{m}\mu_i g_i(\boldsymbol x)+\sum_{j=1}^{n}\lambda_j h_j(\boldsymbol x)$为拉格朗日函数,且该优化问题满足任何一个特定的约束限制条件,则一定存在$\boldsymbol \mu^*=(\mu_1^*;
+\mu_2^*;...; \mu_m^*), \boldsymbol \lambda^*=(\lambda_1^*;
+\lambda_2^*;...; \lambda_n^*)$,使得:
+
+\(1\)
+$\nabla_{\boldsymbol x} L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^* )=\nabla f(\boldsymbol  x^*)+\sum_{i=1}^{m}\mu_i^* \nabla g_i(\boldsymbol x^*)+\sum_{j=1}^{n}\lambda_j^* \nabla h_j(\boldsymbol x^*)=0$;
+
+\(2\) $h_j(\boldsymbol x^*)=0, \quad j=1,2,...,n$;
+
+\(3\) $g_i(\boldsymbol x^*) \leqslant 0, \quad i=1,2,..., m$;
+
+\(4\) $\mu_i^* \geqslant 0, \quad i=1,2,..., m$;
+
+\(5\) $\mu_i^* g_i(\boldsymbol x^*)=0, \quad i=1,2,..., m$。
+
+以上5条便是Karush--Kuhn--Tucker
+Conditions(简称KKT条件)。KKT条件是局部解的必要条件,也就是说只要该优化问题满足任何一个特定的约束限制条件,局部解就一定会满足以上5个条件。常用的约束限制条件可查阅维基百科"Karush--Kuhn--Tucker
+Conditions"词条以及查阅参考文献[1]的第4.2.2节,若对KKT条件的数学证明感兴趣可查阅参考文献[1]的第4.2.1节。
+
+### 6.2.3 拉格朗日对偶函数
+
+考虑一般地约束优化问题 
+
+$$
+
+\begin{array}{ll}
+{\min } & {f(\boldsymbol x)} \\
+{\text {s.t.}} & {g_{i}(\boldsymbol x) \leqslant 0, \quad i=1,2,..., m} \\
+{} & {h_{j}(\boldsymbol x)=0, \quad j=1,2,...,n}
+\end{array}
+
+$$
+
+
+设上述优化问题的定义域为$D=\operatorname{dom} \ f \cap \bigcap\limits_{i=1}^{m}\operatorname{dom} \ g_i \cap \bigcap\limits_{j=1}^{n}\operatorname{dom} \ h_j$,可行集为$\tilde{D}=\{\boldsymbol x|\boldsymbol x\in D,g_i(\boldsymbol x) \leqslant 0,h_j(\boldsymbol x) = 0\}$(显然$\tilde{D}$是$D$的子集),最优值为$p^*=\min\{f(\tilde{\boldsymbol x})\},\tilde{\boldsymbol x}\in\tilde{D}$。上述优化问题的拉格朗日函数定义为
+
+
+$$
+
+L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda)=f(\boldsymbol x)+\sum_{i=1}^{m}\mu_i g_i(\boldsymbol x)+\sum_{j=1}^{n}\lambda_j h_j(\boldsymbol x)
+
+$$
+
+
+其中$\boldsymbol \mu=(\mu_1;\mu_2;...;\mu_m),\boldsymbol \lambda=(\lambda_1;\lambda_2;...;\lambda_n)$为拉格朗日乘子向量。相应地拉格朗日对偶函数$\Gamma (\boldsymbol \mu,\boldsymbol \lambda)$(简称对偶函数)定义为$L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda)$关于$\boldsymbol x$的下确界,即
+
+
+$$
+
+\Gamma (\boldsymbol \mu,\boldsymbol \lambda)=\mathop{\inf}\limits_{\boldsymbol x\in D}L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda)=\mathop{\inf}\limits_{\boldsymbol x\in D} \left( f(\boldsymbol x)+\sum_{i=1}^{m}\mu_i g_i(\boldsymbol x)+\sum_{j=1}^{n}\lambda_j h_j(\boldsymbol x) \right)
+
+$$
+
+
+
+对偶函数有如下性质:
+
+(1)无论上述优化问题是否为凸优化问题,其对偶函数$\Gamma (\boldsymbol \mu,\boldsymbol \lambda)$恒为凹函数,详细证明可查阅参考文献[2]的第5.1.2和3.2.3节;
+
+(2)当$\boldsymbol{\mu} \succeq 0$时[($\boldsymbol{\mu} \succeq 0$表示$\boldsymbol{\mu}$的分量均为非负)]{style="background-color: lightgray"},$\Gamma (\boldsymbol \mu,\boldsymbol \lambda)$构成了上述优化问题最优值$p^*$的下界,即
+
+
+$$
+
+\Gamma (\boldsymbol \mu,\boldsymbol \lambda)\leqslant p^*
+
+$$
+
+
+其推导过程如下:
+
+设$\tilde{\boldsymbol x}\in\tilde{D}$是优化问题的可行点,则$g_i(\tilde{\boldsymbol x})\leqslant 0,h_j(\tilde{\boldsymbol x})=0$,因此,当$\boldsymbol \mu \succeq 0$时,$\mu_i g_i(\tilde{\boldsymbol x})\leqslant 0,\lambda_j h_j(\tilde{\boldsymbol x})=0$恒成立,所以
+
+
+$$
+
+\sum_{i=1}^{m}\mu_i g_i(\tilde{\boldsymbol x})+\sum_{j=1}^{n}\lambda_j h_j(\tilde{\boldsymbol x}) \leqslant 0
+
+$$
+
+
+根据上述不等式可以推得
+
+
+$$
+
+L(\tilde{\boldsymbol x},\boldsymbol \mu,\boldsymbol \lambda)=f(\tilde{\boldsymbol x})+\sum_{i=1}^{m}\mu_i g_i(\tilde{\boldsymbol x})+\sum_{j=1}^{n}\lambda_j h_j(\tilde{\boldsymbol x}) \leqslant f(\tilde{\boldsymbol x})
+
+$$
+
+
-$$\begin{aligned}
-\alpha_i &\geq 0 \\
-\mu_i &\geq 0 \\
-C &= \alpha_i+\mu_i
-\end{aligned}$$
-消去$\mu_i$可得等价约束条件为:
-$$0 \leq\alpha_i \leq C \quad i=1,2,\dots ,m$$
 
-## 6.41
-$$\left\{\begin{array}{l}\alpha_{i} \geqslant 0, \quad \mu_{i} \geqslant 0 \\ y_{i} f\left(\boldsymbol{x}_{i}\right)-1+\xi_{i} \geqslant 0 \\ \alpha_{i}\left(y_{i} f\left(\boldsymbol{x}_{i}\right)-1+\xi_{i}\right)=0 \\ \xi_{i} \geqslant 0, \mu_{i} \xi_{i}=0\end{array}\right.$$
-[解析]:参见公式(6.13)
 
-## 6.52
 $$
-\left\{\begin{array}{l}
-{\alpha_{i}\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i}\right)=0} \\ {\hat{\alpha}_{i}\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i}\right)=0} \\ {\alpha_{i} \hat{\alpha}_{i}=0, \xi_{i} \hat{\xi}_{i}=0} \\ 
-{\left(C-\alpha_{i}\right) \xi_{i}=0,\left(C-\hat{\alpha}_{i}\right) \hat{\xi}_{i}=0}
+
+\Gamma (\boldsymbol \mu,\boldsymbol \lambda)=\mathop{\inf}\limits_{\boldsymbol x\in D}L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda) \leqslant L(\tilde{\boldsymbol x},\boldsymbol \mu,\boldsymbol \lambda)
+
+$$
+
+
+所以
+
+
+$$
+
+\Gamma (\boldsymbol \mu,\boldsymbol \lambda) \leqslant L(\tilde{\boldsymbol x},\boldsymbol \mu,\boldsymbol \lambda) \leqslant f(\tilde{\boldsymbol x})
+
+$$
+
+
+进一步地
+
+
+$$
+
+\Gamma (\boldsymbol \mu,\boldsymbol \lambda) \leqslant \min\{f(\tilde{\boldsymbol x})\}=p^*
+
+$$
+
+
+
+### 6.2.4 拉格朗日对偶问题
+
+在$\boldsymbol \mu \succeq 0$的约束下求对偶函数最大值的优化问题称为拉格朗日对偶问题(简称对偶问题)
+
+
+$$
+
+\begin{array}{ll}
+{\max } & {\Gamma (\boldsymbol \mu,\boldsymbol \lambda)} \\ 
+{\text {s.t.}} & {\boldsymbol \mu \succeq 0} 
+\end{array}
+
+$$
+
+ 上一节的优化问题称为主问题或原问题。
+
+设对偶问题的最优值为$d^*=\max \{\Gamma (\boldsymbol \mu,\boldsymbol \lambda)\},\boldsymbol \mu \succeq 0$,根据对偶函数的性质(2)可知$d^* \leqslant p^*$,此时称为"弱对偶性"成立,若$d^* = p^*$,则称为"强对偶性"成立。由此可以看出,当主问题较难求解时,如果强对偶性成立,则可以通过求解对偶问题来间接求解主问题。由于约束条件$\boldsymbol \mu \succeq 0$是凸集,且根据对偶函数的性质(1)可知$\Gamma (\boldsymbol \mu,\boldsymbol \lambda)$恒为凹函数,其加个负号即为凸函数,所以无论主问题是否为凸优化问题,对偶问题恒为凸优化问题。
+
+一般情况下,强对偶性并不成立,只有当主问题满足特定的约束限制条件(不同于KKT条件中的约束限制条件)时,强对偶性才成立,常见的有"Slater条件"。Slater条件指出,当主问题是凸优化问题,且存在一点$\boldsymbol x\in\operatorname{relint}D$能使得所有等式约束成立,除仿射函数以外的不等式约束严格成立,则强对偶性成立。由于式(6.6)是凸优化问题,且不等式约束均为仿射函数,所以式(6.6)强对偶性成立。
+
+对于凸优化问题,还可以通过KKT条件来间接推导出强对偶性,并同时求解出主问题和对偶问题的最优解。具体地,若主问题为凸优化问题,目标函数$f(\boldsymbol x)$和约束函数$g_{i}(\boldsymbol x),h_{j}(\boldsymbol x)$的一阶偏导连续,主问题满足KKT条件中任何一个特定的约束限制条件,则满足KKT条件的点$\boldsymbol{x}^{*}$和$(\boldsymbol{\mu}^{*},\boldsymbol{\lambda}^{*})$分别是主问题和对偶问题的最优解,且此时强对偶性成立。下面给出具体的推导过程。
+
+设$\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^*$是任意满足KKT条件的点,即
+
+
+$$
+
+\left\{\begin{array}{ll}
+\nabla_{\boldsymbol x} L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^* )=\nabla f(\boldsymbol  x^*)+\sum_{i=1}^{m}\mu_i^* \nabla g_i(\boldsymbol x^*)+\sum_{j=1}^{n}\lambda_j^* \nabla h_j(\boldsymbol x^*)=0 \\
+h_j(\boldsymbol x^*)=0, \quad j=1,2,...,n\\
+g_i(\boldsymbol x^*) \leqslant 0, \quad i=1,2,..., m\\
+\mu_i^* \geqslant 0, \quad i=1,2,..., m\\
+\mu_i^* g_i(\boldsymbol x^*)=0, \quad i=1,2,..., m
+\end{array}\right.
+
+$$
+
+
+由于主问题是凸优化问题,所以$f(\boldsymbol{x})$和$g_i(\boldsymbol{x})$是凸函数,$h_j(\boldsymbol{x})$是仿射函数,又因为此时$\mu_i^* \geqslant 0$,所以$L(\boldsymbol x,\boldsymbol \mu^*,\boldsymbol \lambda^*)$是关于$\boldsymbol{x}$的凸函数。根据$\nabla_{\boldsymbol x} L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^* )=0$可知,此时$\boldsymbol{x}^{*}$是$L(\boldsymbol x,\boldsymbol \mu^*,\boldsymbol \lambda^*)$的极值点,而凸函数的极值点也是最值点,所以$\boldsymbol{x}^{*}$是最小值点,因此可以进一步推得
+
+
+$$
+
+\begin{aligned}
+L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^* )&=\min\{L(\boldsymbol x,\boldsymbol \mu^*,\boldsymbol \lambda^*)\} \\
+&=\mathop{\inf}_{\boldsymbol x\in D} \left( f(\boldsymbol x)+\sum_{i=1}^{m}\mu_i^* g_i(\boldsymbol x)+\sum_{j=1}^{n}\lambda_j^* h_j(\boldsymbol x) \right)\\
+&=\Gamma(\boldsymbol \mu^*,\boldsymbol \lambda^*) \\
+&=f(\boldsymbol x^*)+\sum_{i=1}^{m}\mu_i^* g_i(\boldsymbol x^*)+\sum_{j=1}^{n}\lambda_j^* h_j(\boldsymbol x^*)\\
+&=f(\boldsymbol x^*)
+\end{aligned}
+
+$$
+
+
+其中第二个等式是根据下确界函数的性质推得,第三个等式是根据对偶函数的定义推得,第四个等式是$L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^* )$的展开形式,最后一个等式是因为$\mu_i^* g_i(\boldsymbol x^*)=0,h_j(\boldsymbol x^*)=0$。
+
+由于$\boldsymbol{x}^{*}$和$(\boldsymbol{\mu}^{*},\boldsymbol{\lambda}^{*})$仅是满足KKT条件的点,并不一定是$f(\boldsymbol x)$和$\Gamma(\boldsymbol \mu,\boldsymbol \lambda)$的最值点,所以$f(\boldsymbol x^*)\geqslant p^*\geqslant d^{*}\geqslant\Gamma(\boldsymbol \mu^*,\boldsymbol \lambda^*)$,但是上式又推得$f(\boldsymbol x^*)=\Gamma(\boldsymbol \mu^*,\boldsymbol \lambda^*)$,所以$p^{*}=d^{*}$,因此推得强对偶性成立,且$\boldsymbol{x}^{*}$和$(\boldsymbol{\mu}^{*},\boldsymbol{\lambda}^{*})$分别是主问题和对偶问题的最优解。
+
+Slater条件恰巧也是KKT条件中特定的约束限制条件之一,所以式(6.6)不仅强对偶性成立,而且可以通过求解满足KKT条件的点来求解出最优解。
+
+KKT条件除了可以作为凸优化问题强对偶性成立的充分条件以外,其实对于任意优化问题(并不一定是凸优化问题),若其强对偶性成立,KKT条件也是主问题和对偶问题最优解的必要条件,而且此时并不要求主问题满足KKT条件中任何一个特定的约束限制条件。下面同样给出具体的推导过程。
+
+设主问题的最优解为$\boldsymbol{x}^{*}$,对偶问题的最优解为$(\boldsymbol{\mu}^{*},\boldsymbol{\lambda}^{*})$,目标函数$f(\boldsymbol x)$和约束函数$g_{i}(\boldsymbol x),h_{j}(\boldsymbol x)$的一阶偏导连续,当强对偶性成立时,可以推得
+
+
+$$
+
+\begin{aligned}
+f(\boldsymbol x^*)&=\Gamma(\boldsymbol \mu^*,\boldsymbol \lambda^*)\\
+&= \mathop{\inf}_{\boldsymbol x\in D} L(\boldsymbol x,\boldsymbol \mu^*,\boldsymbol \lambda^*) \\
+&=\mathop{\inf}_{\boldsymbol x\in D} \left( f(\boldsymbol x)+\sum_{i=1}^{m}\mu_i^* g_i(\boldsymbol x)+\sum_{j=1}^{n}\lambda_j^* h_j(\boldsymbol x) \right) \\
+&\leqslant f(\boldsymbol x^*)+\sum_{i=1}^{m}\mu_i^* g_i(\boldsymbol x^*)+\sum_{j=1}^{n}\lambda_j^* h_j(\boldsymbol x^*) \\
+&\leqslant f(\boldsymbol x^*)
+\end{aligned}
+
+$$
+
+
+其中,第一个等式是因为强对偶性成立时$p^{*}=d^{*}$,第二和第三个等式是对偶函数的定义,第四个不等式是根据下确界的性质推得,最后一个不等式成立是因为$\mu_i^*\geqslant 0,g_i(\boldsymbol x^*)\leqslant 0,h_j(\boldsymbol x^*)=0$。
+
+由于$f(\boldsymbol x^*)=f(\boldsymbol x^*)$,所以上式中的不等式均可化为等式。第四个不等式可化为等式,说明$L(\boldsymbol x,\boldsymbol \mu^*,\boldsymbol \lambda^*)$在$\boldsymbol x^*$处取得最小值,所以根据极值的性质可知在$\boldsymbol x^*$处一阶导$\nabla_{\boldsymbol x} L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^*)=0$。最后一个不等式可化为等式,说明$\mu_i^* g_i(\boldsymbol x^*)=0$。此时再结合主问题和对偶问题原有的约束条件$\mu_i^*\geqslant 0,g_i(\boldsymbol x^*)\leqslant 0,h_j(\boldsymbol x^*)=0$便凑齐了KKT条件。
+
+### 6.2.5 式(6.9)和式(6.10)的推导
+
+
+
+$$
+
+\begin{aligned}
+L(\boldsymbol{w},b,\boldsymbol{\alpha}) &= \frac{1}{2}\|\boldsymbol{w}\|^2+\sum_{i=1}^m\alpha_i(1-y_i(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b)) \\
+& =\frac{1}{2}\|\boldsymbol{w}\|^2+\sum_{i=1}^m(\alpha_i-\alpha_iy_i \boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i-\alpha_iy_ib)\\
+& =\frac{1}{2}\boldsymbol{w}^{\mathrm{T}}\boldsymbol{w}+\sum_{i=1}^m\alpha_i -\sum_{i=1}^m\alpha_iy_i\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i-\sum_{i=1}^m\alpha_iy_ib
+\end{aligned}
+
+$$
+
+ 对$\boldsymbol{w}$和$b$分别求偏导数并令其为零
+
+
+$$
+
+\frac {\partial L}{\partial \boldsymbol{w}}=\frac{1}{2}\times2\times\boldsymbol{w} + 0 - \sum_{i=1}^{m}\alpha_iy_i \boldsymbol{x}_i-0= 0 \Longrightarrow \boldsymbol{w}=\sum_{i=1}^{m}\alpha_iy_i \boldsymbol{x}_i
+
+$$
+
+
+
+
+$$
+
+\frac {\partial L}{\partial b}=0+0-0-\sum_{i=1}^{m}\alpha_iy_i=0  \Longrightarrow  \sum_{i=1}^{m}\alpha_iy_i=0
+
+$$
+
+
+
+### 6.2.6 式(6.11)的推导
+
+因为$\alpha_{i}\geqslant0$,且$\frac{1}{2}\|\boldsymbol{w}\|^{2}$和$1-y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)$均是关于$\boldsymbol{w}$和$b$的凸函数,所以式(6.8)也是关于$\boldsymbol{w}$和$b$的凸函数。根据凸函数的性质可知,其极值点就是最值点,所以一阶导为零的点就是最小值点,因此将式(6.9)和式(6.10)代入式(6.8)后即可得式(6.8)的最小值(等价于下确界),再根据对偶问题的定义加上约束$\alpha_{i}\geqslant 0$,就得到了式(6.6)的对偶问题。由于式(6.10)也是$\alpha{i}$必须满足的条件,且不含有$\boldsymbol{w}$和$b$,因此也需要纳入对偶问题的约束条件。根据以上思路进行推导的过程如下:
+
+
+$$
+
+\begin{aligned}
+\inf_{\boldsymbol{w},b} L(\boldsymbol{w},b,\boldsymbol{\alpha})  &=\frac{1}{2}\boldsymbol{w}^{\mathrm{T}}\boldsymbol{w}+\sum_{i=1}^m\alpha_i -\sum_{i=1}^m\alpha_iy_i\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i-\sum_{i=1}^m\alpha_iy_ib \\
+&=\frac {1}{2}\boldsymbol{w}^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i-\boldsymbol{w}^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_
+i -b\sum _{i=1}^m\alpha_iy_i \\
+& = -\frac {1}{2}\boldsymbol{w}^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i -b\sum _{i=1}^m\alpha_iy_i \\
+&= -\frac {1}{2}\boldsymbol{w}^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i \\
+&=-\frac {1}{2}(\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i)^{\mathrm{T}}(\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i)+\sum _{i=1}^m\alpha_i \\
+&=-\frac {1}{2}\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i \\
+&=\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^{\mathrm{T}}\boldsymbol{x}_j
+\end{aligned}
+
+$$
+
+ 所以
+
+
+$$
+
+\max_{\boldsymbol{\alpha}}\inf_{\boldsymbol{w},b} L(\boldsymbol{w},b,\boldsymbol{\alpha})=\max_{\boldsymbol{\alpha}} \sum_{i=1}^m\alpha_i - \frac{1}{2}\sum_{i = 1}^m\sum_{j=1}^m\alpha_i \alpha_j y_iy_j\boldsymbol{x}_i^{\mathrm{T}}\boldsymbol{x}_j
+
+$$
+
+
+最后将$\alpha_{i}\geqslant 0$和式(6.10)作为约束条件即可得式(6.11)。
+
+式(6.6)之所以要转化为式(6.11)来求解,其主要有以下两点理由:
+
+(1)式(6.6)中的未知数是$\boldsymbol{w}$和$b$,式(6.11)中的未知数是$\boldsymbol{\alpha}$,$\boldsymbol{w}$的维度$d$对应样本特征个数,$\boldsymbol{\alpha}$的维度$m$对应训练样本个数,通常$m\ll d$,所以求解式(6.11)更高效,反之求解式(6.6)更高效;
+
+(2)式(6.11)中有样本内积$\boldsymbol{x}_i^{\mathrm{T}}\boldsymbol{x}_j$这一项,后续可以很自然地引入核函数,进而使得支持向量机也能对在原始特征空间线性不可分的数据进行分类。
+
+### 6.2.7 式(6.13)的解释
+
+因为式(6.6)满足Slater条件,所以强对偶性成立,进而最优解满足KKT条件。
+
+## 6.3 核函数
+
+### 6.3.1 式(6.22)的解释
+
+此即核函数的定义,即核函数可以分解成两个向量的内积。要想了解某个核函数是如何将原始特征空间映射到更高维的特征空间的,只需要分解为两个表达形式完全一样的向量内积即可。
+
+## 6.4 软间隔与正则化
+
+### 6.4.1 式(6.35)的推导
+
+令
+
+
+$$
+
+\max \left(0,1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)\right)=\xi_{i}
+
+$$
+
+
+显然$\xi_i\geq 0$,且当$1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_{i}+b\right)>0$时有
+
+
+$$
+
+1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)=\xi_i
+
+$$
+
+
+当$1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_{i}+b\right)\leq 0$时有
+
+
+$$
+
+\xi_i = 0
+
+$$
+
+ 综上可得
+
+
+$$
+
+1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)\leqslant\xi_i\Rightarrow y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right) \geqslant 1-\xi_{i}
+
+$$
+
+
+
+### 6.4.2 式(6.37)和式(6.38)的推导
+
+类比式(6.9)和式(6.10)的推导
+
+### 6.4.3 式(6.39)的推导
+
+式(6.36)关于$\xi_i$求偏导数并令其为零
+
+
+$$
+
+\frac{\partial L}{\partial \xi_i}=0+C \times 1 - \alpha_i \times 1-\mu_i
+\times 1 =0\Rightarrow C=\alpha_i +\mu_i
+
+$$
+
+
+
+### 6.4.4 式(6.40)的推导
+
+将式(6.37)、式(6.38)和(6.39)代入式(6.36)可以得到式(6.35)的对偶问题,有
+
+
+$$
+
+\begin{aligned}
+&\frac{1}{2}\left\|\boldsymbol{w}\right\|^2+C\sum_{i=1}^m \xi_i+\sum_{i=1}^m\alpha_i\left(1-\xi_i-y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)\right)-\sum_{i=1}^m\mu_i \xi_i  \\
+=&\frac{1}{2}\left\|\boldsymbol{w}\right\|^2+\sum_{i=1}^m\alpha_i
+\left(1-y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)\right)+C\sum_{i=1}^m \xi_i-\sum_{i=1}^m \alpha_i \xi_i-\sum_{i=1}^m\mu_i \xi_i \\
+=&-\frac {1}{2}\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i +\sum_{i=1}^m C\xi_i-\sum_{i=1}^m \alpha_i \xi_i-\sum_{i=1}^m\mu_i \xi_i \\
+=&-\frac {1}{2}\sum_{i=1}^{m}\alpha_iy_i\boldsymbol{x}_i^{\mathrm{T}}\sum _{i=1}^m\alpha_iy_i\boldsymbol{x}_i+\sum _{i=1}^m\alpha_i +\sum_{i=1}^m (C-\alpha_i-\mu_i)\xi_i \\
+=&\sum _{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1 }^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^{\mathrm{T}}\boldsymbol{x}_j\\
+=&\min_{\boldsymbol{w},b,\boldsymbol{\xi}}L(\boldsymbol{w},b,\boldsymbol{\alpha},\boldsymbol{\xi},\boldsymbol{\mu})
+\end{aligned}
+
+$$
+
+ 所以 
+
+$$
+
+\begin{aligned}
+\max_{\boldsymbol{\alpha},\boldsymbol{\mu}}\min_{\boldsymbol{w},b,\boldsymbol{\xi}}L(\boldsymbol{w},b,\boldsymbol{\alpha},\boldsymbol{\xi},\boldsymbol{\mu})&=\max_{\boldsymbol{\alpha},\boldsymbol{\mu}}\quad\sum_{i=1}^m\alpha_i-\frac {1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}
+\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^{\mathrm{T}}\boldsymbol{x}_j \\
+&=\max_{\boldsymbol{\alpha}}\quad\sum _{i=1}^m\alpha_i-\frac
+{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_j\boldsymbol{x}_i^{\mathrm{T}}\boldsymbol{x}_j
+\end{aligned}
+
+$$
+
+ 又因为 $\alpha_i \geq 0$,$\mu_i \geq 0$,
+$C = \alpha_i+\mu_i$,消去$\mu_i$可得等价约束条件
+
+
+$$
+
+0 \leqslant\alpha_i \leqslant C, \quad i=1,2,...,m
+
+$$
+
+
+
+### 6.4.5 对数几率回归与支持向量机的关系
+
+在"西瓜书"本节的倒数第二段开头,其讨论了对数几率回归与支持向量机的关系,提到"如果使用对率损失函数$\ell_{\log}$来替代式(6.29)中的$0/1$损失函数,则几乎就得到了对率回归模型(3.27)",但式(6.29)与式(3.27)形式上相差甚远。为了更清晰的说明对数几率回归与软间隔支持向量机的关系,以下先对式(3.27)的形式进行变化。
+
+将$\boldsymbol{\beta}=(\boldsymbol{w};b)$和$\hat{\boldsymbol{x}}=(\boldsymbol{x};1)$代入式(3.27)可得
+
+
+$$
+
+\begin{aligned}
+\ell(\boldsymbol{w}, b) & =\sum_{i=1}^m\left(-y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)+\ln \left(1+e^{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}\right)\right) \\
+& =\sum_{i=1}^m\left(\ln \frac{1}{e^{y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)}}+\ln \left(1+e^{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}\right)\right) \\
+& =\sum_{i=1}^m \ln \frac{1+e^{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}}{e^{y_i\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)}} \\
+& =\left\{\begin{array}{cl}
+\sum_{i=1}^m \ln \left(1+e^{-\left(\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b\right)}\right),&\quad y_i=1 \\
+\sum_{i=1}^m \ln \left(1+e^{\boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}_i+b}\right),&\quad y_i=0
 \end{array}\right.
+\end{aligned}
+
+$$
+
+
+上式中正例和反例分别用$y_i=1$和$y_i=0$表示,这是对数几率回归常用的方式,而在支持向量机中正例和反例习惯用$y_i=+1$和$y_i=-1$表示。实际上,若上式也换用$y_i=+1$和$y_i=-1$分别表示正例和反例,则上式可改写为
+
+
+$$
+
+\begin{aligned}
+\ell(\boldsymbol{w}, b) & =\left\{\begin{array}{cl}
+\sum_{i=1}^m \ln \left(1+e^{-\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right)}\right),&\quad y_i=+1 \\
+\sum_{i=1}^m \ln \left(1+e^{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b}\right),&\quad y_i=-1
+\end{array}\right. \\
+&=\sum_{i=1}^m \ln \left(1+e^{-y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right)}\right) \\
+\end{aligned}
+
+$$
+
+ 此时上式的求和项正是式(6.33)所表述的对率损失。
+
+### 6.4.6 式(6.41)的解释
+
+参见式(6.13)的解释
+
+## 6.5 支持向量回归
+
+### 6.5.1 式(6.43)的解释
+
+相比于线性回归用一条线来拟合训练样本,支持向量回归而是采用一个以$f(\boldsymbol x)=\boldsymbol{w}^\mathrm{T}\boldsymbol{x}+b$为中心,宽度为$2\epsilon$的间隔带,来拟合训练样本。
+
+落在带子上的样本不计算损失(类比线性回归在线上的点预测误差为0),不在带子上的则以偏离带子的距离作为损失(类比线性回归的均方误差),然后以最小化损失的方式迫使间隔带从样本最密集的地方穿过,进而达到拟合训练样本的目的。因此支持向量回归的优化问题可以写为
+
+
+$$
+
+\min _{\boldsymbol{w}, b} \frac{1}{2}\|\boldsymbol{w}\|^{2}+C \sum_{i=1}^{m} \ell_{\epsilon}\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}\right)
+
+$$
+
+
+其中$\ell_{\epsilon}(z)$为"$\epsilon$不敏感损失函数"(类比线性回归的均方误差损失)
+
+
+$$
+
+\ell_{\epsilon}(z)=\left\{\begin{array}{cc}{0,} & {\text { if }|z| \leqslant \epsilon} \\ {|z|-\epsilon,} & {\text { if }|z| > \epsilon}\end{array}\right.
+
+$$
+
+
+$\frac{1}{2}\|\boldsymbol{w}\|^{2}$为L2正则项,此处引入正则项除了起正则化本身的作用外,也是为了和软间隔支持向量机的优化目标保持形式上的一致,这样就可以导出对偶问题引入核函数,$C$为用来调节损失权重的正则化常数。
+
+### 6.5.2 式(6.45)的推导
+
+同软间隔支持向量机,引入松弛变量$\xi_i$,令
+
+
+$$
+
+\ell_{\epsilon}\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}\right)=\xi_i
+
+$$
+
+
+显然$\xi_i\geqslant 0$,并且当$|f\left(\boldsymbol{x}_{i}\right)-y_{i}|\leqslant\epsilon$时,$\xi_i=0$,当$|f\left(\boldsymbol{x}_{i}\right)-y_{i}|>\epsilon$时,$\xi_i=|f\left(\boldsymbol{x}_{i}\right)-y_{i}|-\epsilon$,所以
+
+
+$$
+
+|f\left(\boldsymbol{x}_{i}\right)-y_{i}|-\epsilon\leqslant\xi_i
+
+$$
+
+
+
+
+$$
+
+|f\left(\boldsymbol{x}_{i}\right)-y_{i}|\leqslant\epsilon+\xi_i
+
+$$
+
+
+
+
+$$
+
+-\epsilon-\xi_i\leqslant f\left(\boldsymbol{x}_{i}\right)-y_{i}\leqslant\epsilon+\xi_i
+
+$$
+
+
+因此支持向量回归的优化问题可以化为
+
+
+$$
+
+\min _{\boldsymbol{w}, b, \xi_{i}} \frac{1}{2}\|\boldsymbol{w}\|^{2}+C \sum_{i=1}^{m}\xi_{i}
+
+$$
+
+
+
+
+$$
+
+\begin{array}{ll}{\text { s.t. }} & {-\epsilon-\xi_i\leqslant f\left(\boldsymbol{x}_{i}\right)-y_{i}\leqslant\epsilon+\xi_i} \\  {} & {\xi_{i} \geqslant 0, i=1,2, \ldots, m}\end{array}
+
+$$
+
+
+如果考虑两边采用不同的松弛程度,则有
+
+
+$$
+
+\min _{\boldsymbol{w}, b, \xi_{i}, \hat{\xi}_{i}} \frac{1}{2}\|\boldsymbol{w}\|^{2}+C \sum_{i=1}^{m}\left(\xi_{i}+\hat{\xi}_{i}\right)
+
+$$
+
+
+
+
+$$
+
+\begin{array}{ll}{\text { s.t. }} & {-\epsilon-\hat{\xi}_i\leqslant f\left(\boldsymbol{x}_{i}\right)-y_{i}\leqslant\epsilon+\xi_i} \\  {} & {\xi_{i} \geqslant 0, \hat{\xi}_{i} \geqslant 0, i=1,2, \ldots, m}\end{array}
+
 $$
-[推导]:将公式(6.45)的约束条件全部恒等变形为小于等于0的形式可得:
+
+
+
+### 6.5.3 式(6.52)的推导
+
+将式(6.45)的约束条件全部恒等变形为小于等于0的形式可得
+
+
 $$
+
 \left\{\begin{array}{l}
-{f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i} \leq 0 }  \\ 
-{y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i} \leq 0 } \\ 
+{f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i} \leq 0 } \\
+{y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i} \leq 0 } \\
 {-\xi_{i} \leq 0} \\
 {-\hat{\xi}_{i} \leq 0}
 \end{array}\right.
+
+$$
+
+
+由于以上四个约束条件的拉格朗日乘子分别为$\alpha_i,\hat{\alpha}_i,\mu_i,\hat{\mu}_i$,所以其对应的KKT条件为
+
+
+$$
+
+\left\{\begin{array}{l}
+{\alpha_i\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i} \right) = 0 } \\
+{\hat{\alpha}_i\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i} \right) = 0 } \\
+{-\mu_i\xi_{i} = 0 \Rightarrow \mu_i\xi_{i} = 0 } \\
+{-\hat{\mu}_i \hat{\xi}_{i} = 0  \Rightarrow \hat{\mu}_i
+\hat{\xi}_{i} = 0}
+\end{array}\right.
+
+$$
+
+ 又由式(6.49)和式(6.50)有 
+
+$$
+
+\left\{\begin{aligned}
+\mu_i=C-\alpha_i\\
+\hat{\mu}_i=C-\hat{\alpha}_i
+\end{aligned}\right.
+
+$$
+
+ 所以上述KKT条件可以进一步变形为
+
+
+$$
+
+\left\{\begin{array}{l}
+{\alpha_i\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i} \right) = 0 } \\
+{\hat{\alpha}_i\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i} \right) = 0 } \\
+{(C-\alpha_i)\xi_{i} = 0 }  \\
+{(C-\hat{\alpha}_i) \hat{\xi}_{i} = 0 }
+\end{array}\right.
+
+$$
+
+
+又因为样本$(\boldsymbol{x}_i,y_i)$只可能处在间隔带的某一侧,即约束条件$f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i}=0$和$y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i}=0$不可能同时成立,所以$\alpha_i$和$\hat{\alpha}_i$中至少有一个为0,即$\alpha_i\hat{\alpha}_i=0$。
+
+在此基础上再进一步分析可知,如果$\alpha_i=0$,则根据约束$(C-\alpha_i)\xi_{i} = 0$可知此时$\xi_i=0$。同理,如果$\hat{\alpha}_i=0$,则根据约束$(C-\hat{\alpha}_i)\hat{\xi}_{i} =
+0$可知此时$\hat{\xi}_i=0$。所以$\xi_i$和$\hat{\xi}_i$中也是至少有一个为0,即$\xi_{i}\hat{\xi}_{i}=0$。将$\alpha_i\hat{\alpha}_i=0,\xi_{i}\hat{\xi}_{i}=0$整合进上述KKT条件中即可得到式(6.52)。
+
+## 6.6 核方法
+
+### 6.6.1 式(6.57)和式(6.58)的解释
+
+式(6.24)是式(6.20)的解;式(6.56)是式(6.43)的解。对应到表示定理式(6.57)当中,式(6.20)和式(6.43)均为$\Omega\left(\|h\|_{\mathbb{H}}\right)=\frac{1}{2}\|\boldsymbol{w}\|^2$,式(6.20)的$\ell\left(h(\boldsymbol{x}_1),h(\boldsymbol{x}_2),...,h(\boldsymbol{x}_m)\right)=0$,而式(6.43)的$\ell\left(h(\boldsymbol{x}_1),h(\boldsymbol{x}_2),...,h(\boldsymbol{x}_m)\right)=C\sum_{i=1}^{m}\ell_{\epsilon}(f(\boldsymbol{x}_i)-y_i)$,均满足式(6.57)的要求,式(6.20)和式(6.43)的解均为$\kappa(\boldsymbol{x},\boldsymbol{x}_i)$的线性组合,即式(6.58)。
+
+### 6.6.2 式(6.65)的推导
+
+由表示定理可知,此时二分类KLDA最终求得的投影直线方程总可以写成如下形式:
+
+
+$$
+
+h(\boldsymbol{x})=\sum_{i=1}^{m} \alpha_{i} \kappa\left(\boldsymbol{x}, \boldsymbol{x}_{i}\right)
+
+$$
+
+
+又因为直线方程的固定形式为
+
+
+$$
+
+h(\boldsymbol{x})=\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})
+
+$$
+
+
+所以
+
+
+$$
+
+\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=\sum_{i=1}^{m} \alpha_{i} \kappa\left(\boldsymbol{x}, \boldsymbol{x}_{i}\right)
+
+$$
+
+
+将$\kappa\left(\boldsymbol{x},
+\boldsymbol{x}_{i}\right)=\phi(\boldsymbol{x})^{\mathrm{T}}\phi(\boldsymbol{x}_i)$代入可得
+
+
+$$
+
+\begin{aligned}
+\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})&=\sum_{i=1}^{m} \alpha_{i}
+\phi(\boldsymbol{x})^{\mathrm{T}}\phi(\boldsymbol{x}_i)\\
+&=\phi(\boldsymbol{x})^{\mathrm{T}}\cdot\sum_{i=1}^{m} \alpha_{i}
+\phi(\boldsymbol{x}_i)
+\end{aligned}
+
+$$
+
+
+由于$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})$的计算结果为标量,而标量的转置等于其本身,所以
+
+
+$$
+
+\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=
+\left(\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})\right)^{\mathrm{T}}
+=\phi(\boldsymbol{x})^{\mathrm{T}}\boldsymbol{w}
+=\phi(\boldsymbol{x})^{\mathrm{T}}\sum_{i=1}^{m} \alpha_{i}
+\phi(\boldsymbol{x}_i)
+
+$$
+
+ 即
+
+
+$$
+
+\boldsymbol{w}=\sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x}_i)
+
 $$
-由于以上四个约束条件的拉格朗日乘子分别为$\alpha_i,\hat{\alpha}_i,\mu_i,\hat{\mu}_i$,所以由附录①可知,以上四个约束条件可相应转化为以下KKT条件:
+
+
+
+### 6.6.3 式(6.66)和式(6.67)的解释
+
+为了详细地说明此式的计算原理,下面首先举例说明,然后再在例子的基础上延展出其一般形式。
+假设此时仅有4个样本,其中第1和第3个样本的标记为0,第2和第4个样本的标记为1,那么此时有
+
+
 $$
-\left\{\begin{array}{l}
-{\alpha_i\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i} \right) = 0 }  \\ 
-{\hat{\alpha}_i\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i} \right) = 0 } \\ 
-{-\mu_i\xi_{i} = 0 \Rightarrow \mu_i\xi_{i} = 0 }  \\
-{-\hat{\mu}_i \hat{\xi}_{i} = 0  \Rightarrow \hat{\mu}_i \hat{\xi}_{i} = 0 }
-\end{array}\right.
+
+m=4
+
 $$
-由公式(6.49)和公式(6.50)可知:
+
+ 
+
 $$
-\begin{aligned}
-\mu_i=C-\alpha_i \\
-\hat{\mu}_i=C-\hat{\alpha}_i
-\end{aligned}
+
+m_0=2,m_1=2
+
 $$
-所以上述KKT条件可以进一步变形为:
+
+
+
+
 $$
-\left\{\begin{array}{l}
-{\alpha_i\left(f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i} \right) = 0 }  \\ 
-{\hat{\alpha}_i\left(y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i} \right) = 0 } \\ 
-{(C-\alpha_i)\xi_{i} = 0 }  \\
-{(C-\hat{\alpha}_i) \hat{\xi}_{i} = 0 }
-\end{array}\right.
+
+X_0=\{\boldsymbol{x}_1,\boldsymbol{x}_3\},X_1=\{\boldsymbol{x}_2,\boldsymbol{x}_4\}
+
 $$
-又因为样本$(\boldsymbol{x}_i,y_i)$只可能处在间隔带的某一侧,那么约束条件$f\left(\boldsymbol{x}_{i}\right)-y_{i}-\epsilon-\xi_{i}=0$和$y_{i}-f\left(\boldsymbol{x}_{i}\right)-\epsilon-\hat{\xi}_{i}=0$不可能同时成立,所以$\alpha_i$和$\hat{\alpha}_i$中至少有一个为0,也即$\alpha_i\hat{\alpha}_i=0$。在此基础上再进一步分析可知,如果$\alpha_i=0$的话,那么根据约束$(C-\alpha_i)\xi_{i} = 0$可知此时$\xi_i=0$,同理,如果$\hat{\alpha}_i=0$的话,那么根据约束$(C-\hat{\alpha}_i)\hat{\xi}_{i} = 0$可知此时$\hat{\xi}_i=0$,所以$\xi_i$和$\hat{\xi}_i$中也是至少有一个为0,也即$\xi_{i} \hat{\xi}_{i}=0$。将$\alpha_i\hat{\alpha}_i=0,\xi_{i} \hat{\xi}_{i}=0$整合进上述KKT条件中即可得到公式(6.52)。
 
-## 6.60
-$$\max _{\boldsymbol{w}} J(\boldsymbol{w})=\frac{\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}}{\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{w}^{\phi} \boldsymbol{w}}$$
-[解析]:类似于第3章的公式(3.35)。
 
-## 6.62
-$$\mathbf{S}_{b}^{\phi}=\left(\boldsymbol{\mu}_{1}^{\phi}-\boldsymbol{\mu}_{0}^{\phi}\right)\left(\boldsymbol{\mu}_{1}^{\phi}-\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}$$
-[解析]:类似于第3章的公式(3.34)。
 
-## 6.63
-$$\mathbf{S}_{w}^{\phi}=\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\left(\phi(\boldsymbol{x})-\boldsymbol{\mu}_{i}^{\phi}\right)\left(\phi(\boldsymbol{x})-\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}}$$
-[解析]:类似于第3章的公式(3.33)。
 
-## 6.65
-$$\boldsymbol{w}=\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)$$
-[推导]:由表示定理可知,此时二分类KLDA最终求得的投影直线方程总可以写成如下形式
-$$h(\boldsymbol{x})=\sum_{i=1}^{m} \alpha_{i} \kappa\left(\boldsymbol{x}, \boldsymbol{x}_{i}\right)$$
-又因为直线方程的固定形式为
-$$h(\boldsymbol{x})=\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})$$
-所以
-$$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=\sum_{i=1}^{m} \alpha_{i} \kappa\left(\boldsymbol{x}, \boldsymbol{x}_{i}\right)$$
-将$\kappa\left(\boldsymbol{x}, \boldsymbol{x}_{i}\right)=\phi(\boldsymbol{x})^{\mathrm{T}}\phi(\boldsymbol{x}_i)$代入可得
-$$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=\sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x})^{\mathrm{T}}\phi(\boldsymbol{x}_i)$$
-$$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=\phi(\boldsymbol{x})^{\mathrm{T}}\cdot\sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x}_i)$$
-由于$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})$的计算结果为标量,而标量的转置等于其本身,所以
-$$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=\left(\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})\right)^{\mathrm{T}}=\phi(\boldsymbol{x})^{\mathrm{T}}\cdot\sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x}_i)$$
-$$\boldsymbol{w}^{\mathrm{T}}\phi(\boldsymbol{x})=\phi(\boldsymbol{x})^{\mathrm{T}}\boldsymbol{w}=\phi(\boldsymbol{x})^{\mathrm{T}}\cdot\sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x}_i)$$
-$$\boldsymbol{w}=\sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x}_i)$$
-
-## 6.66
-$$\hat{\boldsymbol{\mu}}_{0}=\frac{1}{m_{0}} \mathbf{K} \mathbf{1}_{0}$$
-[解析]:为了详细地说明此公式的计算原理,下面首先先举例说明,然后再在例子的基础上延展出其一般形式。假设此时仅有4个样本,其中第1和第3个样本的标记为0,第2和第4个样本的标记为1,那么此时:
-$$m=4$$
-$$m_0=2,m_1=2$$
-$$X_0=\{\boldsymbol{x}_1,\boldsymbol{x}_3\},X_1=\{\boldsymbol{x}_2,\boldsymbol{x}_4\}$$
-$$\mathbf{K}=\left[ \begin{array}{cccc}
+$$
+
+\mathbf{K}=\left[ \begin{array}{cccc}
 \kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_1\right) & \kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_2\right) & \kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_3\right) & \kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_4\right)\\ 
 \kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_1\right) & \kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_2\right) & \kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_3\right) & \kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_4\right)\\ 
 \kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_1\right) & \kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_2\right) & \kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_3\right) & \kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_4\right)\\ 
 \kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_1\right) & \kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_2\right) & \kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_3\right) & \kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_4\right)\\ 
-\end{array} \right]\in \mathbb{R}^{4\times 4}$$
-$$\mathbf{1}_{0}=\left[ \begin{array}{c}
+\end{array} \right]\in \mathbb{R}^{4\times 4}
+
+$$
+
+
+
+
+$$
+
+\mathbf{1}_{0}=\left[ \begin{array}{c}
 1\\ 
 0\\ 
 1\\ 
 0\\ 
-\end{array} \right]\in \mathbb{R}^{4\times 1}$$
-$$\mathbf{1}_{1}=\left[ \begin{array}{c}
+\end{array} \right]\in \mathbb{R}^{4\times 1}
+
+$$
+
+
+
+
+$$
+
+\mathbf{1}_{1}=\left[ \begin{array}{c}
 0\\ 
 1\\ 
 0\\ 
 1\\ 
-\end{array} \right]\in \mathbb{R}^{4\times 1}$$
-所以
-$$\hat{\boldsymbol{\mu}}_{0}=\frac{1}{m_{0}} \mathbf{K} \mathbf{1}_{0}=\frac{1}{2}\left[ \begin{array}{c}
+\end{array} \right]\in \mathbb{R}^{4\times 1}
+
+$$
+
+ 所以
+
+
+$$
+
+\hat{\boldsymbol{\mu}}_{0}=\frac{1}{m_{0}} \mathbf{K} \mathbf{1}_{0}=\frac{1}{2}\left[ \begin{array}{c}
 \kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_1\right)+\kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_3\right)\\ 
 \kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_1\right)+\kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_3\right)\\ 
 \kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_1\right)+\kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_3\right)\\ 
 \kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_1\right)+\kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_3\right)\\ 
-\end{array} \right]\in \mathbb{R}^{4\times 1}$$
-$$\hat{\boldsymbol{\mu}}_{1}=\frac{1}{m_{1}} \mathbf{K} \mathbf{1}_{1}=\frac{1}{2}\left[ \begin{array}{c}
+\end{array} \right]\in \mathbb{R}^{4\times 1}
+
+$$
+
+
+
+
+$$
+
+\hat{\boldsymbol{\mu}}_{1}=\frac{1}{m_{1}} \mathbf{K} \mathbf{1}_{1}=\frac{1}{2}\left[ \begin{array}{c}
 \kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_2\right)+\kappa\left(\boldsymbol{x}_1, \boldsymbol{x}_4\right)\\ 
 \kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_2\right)+\kappa\left(\boldsymbol{x}_2, \boldsymbol{x}_4\right)\\ 
 \kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_2\right)+\kappa\left(\boldsymbol{x}_3, \boldsymbol{x}_4\right)\\ 
 \kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_2\right)+\kappa\left(\boldsymbol{x}_4, \boldsymbol{x}_4\right)\\ 
-\end{array} \right]\in \mathbb{R}^{4\times 1}$$
+\end{array} \right]\in \mathbb{R}^{4\times 1}
+
+$$
+
+
 根据此结果易得$\hat{\boldsymbol{\mu}}_{0},\hat{\boldsymbol{\mu}}_{1}$的一般形式为
-$$\hat{\boldsymbol{\mu}}_{0}=\frac{1}{m_{0}} \mathbf{K} \mathbf{1}_{0}=\frac{1}{m_{0}}\left[ \begin{array}{c}
+
+
+$$
+
+\hat{\boldsymbol{\mu}}_{0}=\frac{1}{m_{0}} \mathbf{K} \mathbf{1}_{0}=\frac{1}{m_{0}}\left[ \begin{array}{c}
 \sum_{\boldsymbol{x} \in X_{0}}\kappa\left(\boldsymbol{x}_1, \boldsymbol{x}\right)\\ 
 \sum_{\boldsymbol{x} \in X_{0}}\kappa\left(\boldsymbol{x}_2, \boldsymbol{x}\right)\\ 
 \vdots\\ 
 \sum_{\boldsymbol{x} \in X_{0}}\kappa\left(\boldsymbol{x}_m, \boldsymbol{x}\right)\\ 
-\end{array} \right]\in \mathbb{R}^{m\times 1}$$
-$$\hat{\boldsymbol{\mu}}_{1}=\frac{1}{m_{1}} \mathbf{K} \mathbf{1}_{1}=\frac{1}{m_{1}}\left[ \begin{array}{c}
+\end{array} \right]\in \mathbb{R}^{m\times 1}
+
+$$
+
+
+
+
+$$
+
+\hat{\boldsymbol{\mu}}_{1}=\frac{1}{m_{1}} \mathbf{K} \mathbf{1}_{1}=\frac{1}{m_{1}}\left[ \begin{array}{c}
 \sum_{\boldsymbol{x} \in X_{1}}\kappa\left(\boldsymbol{x}_1, \boldsymbol{x}\right)\\ 
 \sum_{\boldsymbol{x} \in X_{1}}\kappa\left(\boldsymbol{x}_2, \boldsymbol{x}\right)\\ 
 \vdots\\ 
 \sum_{\boldsymbol{x} \in X_{1}}\kappa\left(\boldsymbol{x}_m, \boldsymbol{x}\right)\\ 
-\end{array} \right]\in \mathbb{R}^{m\times 1}$$
+\end{array} \right]\in \mathbb{R}^{m\times 1}
+
+$$
+
+
 
-## 6.67
-$$\hat{\boldsymbol{\mu}}_{1}=\frac{1}{m_{1}} \mathbf{K} \mathbf{1}_{1}$$
-[解析]:参见公式(6.66)的解析。
+### 6.6.4 式(6.70)的推导
 
-## 6.70
-$$\max _{\boldsymbol{\alpha}} J(\boldsymbol{\alpha})=\frac{\boldsymbol{\alpha}^{\mathrm{T}} \mathbf{M} \boldsymbol{\alpha}}{\boldsymbol{\alpha}^{\mathrm{T}} \mathbf{N} \boldsymbol{\alpha}}$$
-[推导]:此公式是将公式(6.65)代入公式(6.60)后推得而来的,下面给出详细的推导过程。首先将公式(6.65)代入公式(6.60)的分子可得:
-$$\begin{aligned}
+此式是将式(6.65)代入式(6.60)后推得而来的,下面给出详细地推导过程。
+
+首先将式(6.65)代入式(6.60)的分子可得 
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}&=\left(\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)\right)^{\mathrm{T}}\cdot\mathbf{S}_{b}^{\phi}\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
 &=\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\cdot\mathbf{S}_{b}^{\phi}\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
-\end{aligned}$$
-其中
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 其中 
+
+$$
+
+\begin{aligned}
 \mathbf{S}_{b}^{\phi} &=\left(\boldsymbol{\mu}_{1}^{\phi}-\boldsymbol{\mu}_{0}^{\phi}\right)\left(\boldsymbol{\mu}_{1}^{\phi}-\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}} \\
 &=\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\right)\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\right)^{\mathrm{T}} \\
 &=\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\right)\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})^{\mathrm{T}}-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})^{\mathrm{T}}\right) \\
-\end{aligned}$$
-将其代入上式可得
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 将其代入上式可得 
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}=&\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\cdot\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\right)\cdot\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})^{\mathrm{T}}-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})^{\mathrm{T}}\right)\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
 =&\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}}\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}} \phi(\boldsymbol{x})-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\phi(\boldsymbol{x})\right)\\
 &\cdot\left(\frac{1}{m_{1}} \sum_{\boldsymbol{x} \in X_{1}} \sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x})^{\mathrm{T}}\phi\left(\boldsymbol{x}_{i}\right)-\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \sum_{i=1}^{m} \alpha_{i} \phi(\boldsymbol{x})^{\mathrm{T}}\phi\left(\boldsymbol{x}_{i}\right)\right) \\
-\end{aligned}$$
-由于$\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)=\phi(\boldsymbol{x}_i)^{\mathrm{T}}\phi(\boldsymbol{x})$为标量,所以其转置等于本身,也即$\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)=\phi(\boldsymbol{x}_i)^{\mathrm{T}}\phi(\boldsymbol{x})=\left(\phi(\boldsymbol{x}_i)^{\mathrm{T}}\phi(\boldsymbol{x})\right)^{\mathrm{T}}=\phi(\boldsymbol{x})^{\mathrm{T}}\phi(\boldsymbol{x}_i)=\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)^{\mathrm{T}}$,将其代入上式可得
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+
+由于$\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)=\phi(\boldsymbol{x}_i)^{\mathrm{T}}\phi(\boldsymbol{x})$为标量,所以其转置等于本身,即$\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)=\phi(\boldsymbol{x}_i)^{\mathrm{T}}\phi(\boldsymbol{x})=\left(\phi(\boldsymbol{x}_i)^{\mathrm{T}}\phi(\boldsymbol{x})\right)^{\mathrm{T}}=\phi(\boldsymbol{x})^{\mathrm{T}}\phi(\boldsymbol{x}_i)=\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)^{\mathrm{T}}$,将其代入上式可得
+
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}=&\left(\frac{1}{m_{1}} \sum_{i=1}^{m}\sum_{\boldsymbol{x} \in X_{1}}\alpha_{i} \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)-\frac{1}{m_{0}} \sum_{i=1}^{m} \sum_{\boldsymbol{x} \in X_{0}}  \alpha_{i} \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)\right)\\
 &\cdot\left(\frac{1}{m_{1}} \sum_{i=1}^{m}\sum_{\boldsymbol{x} \in X_{1}} \alpha_{i} \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)-\frac{1}{m_{0}}\sum_{i=1}^{m}  \sum_{\boldsymbol{x} \in X_{0}} \alpha_{i} \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)\right)
-\end{aligned}$$
-令$\boldsymbol{\alpha}=(\alpha_1;\alpha_2;...;\alpha_m)^{\mathrm{T}}\in \mathbb{R}^{m\times 1}$,同时结合公式(6.66)的解析中得到的$\hat{\boldsymbol{\mu}}_{0},\hat{\boldsymbol{\mu}}_{1}$的一般形式,上式可以化简为
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+
+设$\boldsymbol{\alpha}=(\alpha_1;\alpha_2;...;\alpha_m)^{\mathrm{T}}\in \mathbb{R}^{m\times 1}$,同时结合式(6.66)的解释可得到$\hat{\boldsymbol{\mu}}_{0},\hat{\boldsymbol{\mu}}_{1}$的一般形式,上式可以化简为
+
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}&=\left(\boldsymbol{\alpha}^{\mathrm{T}}\hat{\boldsymbol{\mu}}_{1}-\boldsymbol{\alpha}^{\mathrm{T}}\hat{\boldsymbol{\mu}}_{0}\right)\cdot\left(\hat{\boldsymbol{\mu}}_{1}^{\mathrm{T}}\boldsymbol{\alpha}-\hat{\boldsymbol{\mu}}_{0}^{\mathrm{T}}\boldsymbol{\alpha}\right)\\
 &=\boldsymbol{\alpha}^{\mathrm{T}}\cdot\left(\hat{\boldsymbol{\mu}}_{1}-\hat{\boldsymbol{\mu}}_{0}\right)\cdot\left(\hat{\boldsymbol{\mu}}_{1}^{\mathrm{T}}-\hat{\boldsymbol{\mu}}_{0}^{\mathrm{T}}\right)\cdot\boldsymbol{\alpha}\\
 &=\boldsymbol{\alpha}^{\mathrm{T}}\cdot\left(\hat{\boldsymbol{\mu}}_{1}-\hat{\boldsymbol{\mu}}_{0}\right)\cdot\left(\hat{\boldsymbol{\mu}}_{1}-\hat{\boldsymbol{\mu}}_{0}\right)^{\mathrm{T}}\cdot\boldsymbol{\alpha}\\
 &=\boldsymbol{\alpha}^{\mathrm{T}} \mathbf{M} \boldsymbol{\alpha}\\
-\end{aligned}$$
-以上便是公式(6.70)分子部分的推导,下面继续推导公式(6.70)的分母部分。将公式(6.65)代入公式(6.60)的分母可得:
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+
+以上便是式(6.70)分子部分的推导,下面继续推导式(6.70)的分母部分。将式(6.65)代入式(6.60)的分母可得:
+
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{w}^{\phi} \boldsymbol{w}&=\left(\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)\right)^{\mathrm{T}}\cdot\mathbf{S}_{w}^{\phi}\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
 &=\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\cdot\mathbf{S}_{w}^{\phi}\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
-\end{aligned}$$
-其中
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 其中 
+
+$$
+
+\begin{aligned}
 \mathbf{S}_{w}^{\phi}&=\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\left(\phi(\boldsymbol{x})-\boldsymbol{\mu}_{i}^{\phi}\right)\left(\phi(\boldsymbol{x})-\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}} \\
 &=\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\left(\phi(\boldsymbol{x})-\boldsymbol{\mu}_{i}^{\phi}\right)\left(\phi(\boldsymbol{x})^{\mathrm{T}}-\left(\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}}\right) \\
 &=\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\left(\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}-\phi(\boldsymbol{x})\left(\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}}-\boldsymbol{\mu}_{i}^{\phi}\phi(\boldsymbol{x})^{\mathrm{T}}+\boldsymbol{\mu}_{i}^{\phi}\left(\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}}\right) \\
 &=\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}-\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\phi(\boldsymbol{x})\left(\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}}-\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\boldsymbol{\mu}_{i}^{\phi}\phi(\boldsymbol{x})^{\mathrm{T}}+\sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}}\boldsymbol{\mu}_{i}^{\phi}\left(\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}} \\
-\end{aligned}$$
-由于
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 由于 
+
+$$
+
+\begin{aligned}
 \sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}} \phi(\boldsymbol{x})\left(\boldsymbol{\mu}_{i}^{\phi}\right)^{\mathrm{T}} &=\sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}+\sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}} \\
- &=m_{0} \boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}+m_{1} \boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}} \\
+ &=m_{0} \boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}+m_{1} \boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}
+\end{aligned}
+
+$$
+
+ 且 
+
+$$
+
+\begin{aligned}
 \sum_{i=0}^{1} \sum_{\boldsymbol{x} \in X_{i}} \boldsymbol{\mu}_{i}^{\phi} \phi(\boldsymbol{x})^{\mathrm{T}} &=\sum_{i=0}^{1} \boldsymbol{\mu}_{i}^{\phi} \sum_{\boldsymbol{x} \in X_{i}} \phi(\boldsymbol{x})^{\mathrm{T}} \\ &=\boldsymbol{\mu}_{0}^{\phi} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})^{\mathrm{T}}+\boldsymbol{\mu}_{1}^{\phi} \sum_{\boldsymbol{x} \in X_{1}} \phi(\boldsymbol{x})^{\mathrm{T}} \\ &=m_{0} \boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}+m_{1} \boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}
-\end{aligned}$$
-所以
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 所以 
+
+$$
+
+\begin{aligned}
 \mathbf{S}_{w}^{\phi}&=\sum_{\boldsymbol{x} \in  D}\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}-2\left[m_0\boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}+m_1\boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}\right]+m_0 \boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}+m_1 \boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}} \\
 &=\sum_{\boldsymbol{x} \in  D}\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}-m_0\boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}-m_1\boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}\\
-\end{aligned}$$
+\end{aligned}
+
+$$
+
+
 再将此式代回$\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}$可得
-$$\begin{aligned}
+
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{w}^{\phi} \boldsymbol{w}=&\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\cdot\mathbf{S}_{w}^{\phi}\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
 =&\sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\cdot\left(\sum_{\boldsymbol{x} \in  D}\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}-m_0\boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}-m_1\boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}\right)\cdot \sum_{i=1}^{m} \alpha_{i} \phi\left(\boldsymbol{x}_{i}\right) \\
 =&\sum_{i=1}^{m}\sum_{j=1}^{m}\sum_{\boldsymbol{x} \in  D}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right)-\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}m_0\boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right)\\
 &-\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}m_1\boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right) \\
-\end{aligned}$$
-其中,第1项可化简为
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 其中,第1项 
+
+$$
+
+\begin{aligned}
 \sum_{i=1}^{m}\sum_{j=1}^{m}\sum_{\boldsymbol{x} \in  D}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\phi(\boldsymbol{x})\phi(\boldsymbol{x})^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right)&=\sum_{i=1}^{m}\sum_{j=1}^{m}\sum_{\boldsymbol{x} \in  D}\alpha_{i} \alpha_{j}\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)\kappa\left(\boldsymbol{x}_j, \boldsymbol{x}\right)\\
 &=\boldsymbol{\alpha}^{\mathrm{T}} \mathbf{K} \mathbf{K}^{\mathrm{T}} \boldsymbol{\alpha}
-\end{aligned}$$
-第2项可化简为
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 第2项 
+
+$$
+
+\begin{aligned}
 \sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}m_0\boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right)&=m_0\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}\phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\boldsymbol{\mu}_{0}^{\phi}\left(\boldsymbol{\mu}_{0}^{\phi}\right)^{\mathrm{T}} \phi\left(\boldsymbol{x}_{j}\right)\\
 &=m_0\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}\phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\left[\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\right]\left[\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})\right]^{\mathrm{T}} \phi\left(\boldsymbol{x}_{j}\right)\\
 &=m_0\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}\left[\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}\phi(\boldsymbol{x})\right]\left[\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \phi(\boldsymbol{x})^{\mathrm{T}}\phi\left(\boldsymbol{x}_{j}\right)\right] \\
 &=m_0\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}\left[\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}\right)\right]\left[\frac{1}{m_{0}} \sum_{\boldsymbol{x} \in X_{0}} \kappa\left(\boldsymbol{x}_j, \boldsymbol{x}\right)\right] \\
 &=m_0\boldsymbol{\alpha}^{\mathrm{T}} \hat{\boldsymbol{\mu}}_{0} \hat{\boldsymbol{\mu}}_{0}^{\mathrm{T}} \boldsymbol{\alpha}
-\end{aligned}$$
-同理可得,第3项可化简为
-$$\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}m_1\boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right)=m_1\boldsymbol{\alpha}^{\mathrm{T}} \hat{\boldsymbol{\mu}}_{1} \hat{\boldsymbol{\mu}}_{1}^{\mathrm{T}} \boldsymbol{\alpha}$$
+\end{aligned}
+
+$$
+
+ 同理,有第3项
+
+
+$$
+
+\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i} \phi\left(\boldsymbol{x}_{i}\right)^{\mathrm{T}}m_1\boldsymbol{\mu}_{1}^{\phi}\left(\boldsymbol{\mu}_{1}^{\phi}\right)^{\mathrm{T}}\alpha_{j} \phi\left(\boldsymbol{x}_{j}\right)=m_1\boldsymbol{\alpha}^{\mathrm{T}} \hat{\boldsymbol{\mu}}_{1} \hat{\boldsymbol{\mu}}_{1}^{\mathrm{T}} \boldsymbol{\alpha}
+
+$$
+
+
 将上述三项的化简结果代回再将此式代回$\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}$可得
-$$\begin{aligned}
+
+
+$$
+
+\begin{aligned}
 \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b}^{\phi} \boldsymbol{w}&=\boldsymbol{\alpha}^{\mathrm{T}} \mathbf{K} \mathbf{K}^{\mathrm{T}} \boldsymbol{\alpha}-m_0\boldsymbol{\alpha}^{\mathrm{T}} \hat{\boldsymbol{\mu}}_{0} \hat{\boldsymbol{\mu}}_{0}^{\mathrm{T}} \boldsymbol{\alpha}-m_1\boldsymbol{\alpha}^{\mathrm{T}} \hat{\boldsymbol{\mu}}_{1} \hat{\boldsymbol{\mu}}_{1}^{\mathrm{T}} \boldsymbol{\alpha}\\
 &=\boldsymbol{\alpha}^{\mathrm{T}} \cdot\left(\mathbf{K} \mathbf{K}^{\mathrm{T}} -m_0\hat{\boldsymbol{\mu}}_{0} \hat{\boldsymbol{\mu}}_{0}^{\mathrm{T}} -m_1\hat{\boldsymbol{\mu}}_{1} \hat{\boldsymbol{\mu}}_{1}^{\mathrm{T}} \right)\cdot\boldsymbol{\alpha}\\
 &=\boldsymbol{\alpha}^{\mathrm{T}} \cdot\left(\mathbf{K} \mathbf{K}^{\mathrm{T}}-\sum_{i=0}^{1} m_{i} \hat{\boldsymbol{\mu}}_{i} \hat{\boldsymbol{\mu}}_{i}^{\mathrm{T}} \right)\cdot\boldsymbol{\alpha}\\
 &=\boldsymbol{\alpha}^{\mathrm{T}} \mathbf{N}\boldsymbol{\alpha}\\
-\end{aligned}$$
-
-## 附录
-### ①KKT条件<sup>[1]</sup>
-对于一般地约束优化问题
-$$\begin{array}{ll}
-{\min } & {f(\boldsymbol x)} \\ 
-{\text {s.t.}} & {g_{i}(\boldsymbol x) \leq 0 \quad(i=1, \ldots, m)} \\ 
-{} & {h_{j}(\boldsymbol x)=0 \quad(j=1, \ldots, n)}
-\end{array}$$
-其中,自变量$\boldsymbol x\in \mathbb{R}^n$。设$f(\boldsymbol x),g_i(\boldsymbol x),h_j(\boldsymbol x)$具有连续的一阶偏导数,$\boldsymbol x^*$是优化问题的局部可行解。若该优化问题满足任意一个约束限制条件(constraint qualifications or regularity conditions)<sup>[2]</sup>,则一定存在$\boldsymbol \mu^*=(\mu_1^*,\mu_2^*,...,\mu_m^*)^T,\boldsymbol \lambda^*=(\lambda_1^*,\lambda_2^*,...,\lambda_n^*)^T,$使得
-$$\left\{
-\begin{aligned}
-& \nabla_{\boldsymbol x} L(\boldsymbol x^* ,\boldsymbol \mu^* ,\boldsymbol \lambda^* )=\nabla f(\boldsymbol  x^* )+\sum_{i=1}^{m}\mu_i^* \nabla g_i(\boldsymbol x^* )+\sum_{j=1}^{n}\lambda_j^* \nabla h_j(\boldsymbol x^*)=0 &(1) \\
-& h_j(\boldsymbol x^*)=0 &(2) \\
-& g_i(\boldsymbol x^*) \leq 0 &(3) \\
-& \mu_i^* \geq 0 &(4)\\
-& \mu_i^* g_i(\boldsymbol x^*)=0 &(5)
 \end{aligned}
-\right.
+
+$$
+
+
+
+### 6.6.5 核对数几率回归
+
+将"对数几率回归与支持向量机的关系"中最后得到的对数几率回归重写为如下形式
+
+
+$$
+
+\min_{\boldsymbol{w}, b} \frac{1}{m} \sum_{i=1}^m \log \left(1+e^{-y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right)}\right)+\frac{\lambda}{2 m}\|\boldsymbol{w}\|^2
+
+$$
+
+
+其中$\lambda$是用来调整正则项权重的正则化常数。假设$\boldsymbol{z}_i=\phi(\boldsymbol{x}_i)$是由原始空间经核函数映射到高维空间的特征向量,则
+
+
 $$
-其中$L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda)$为拉格朗日函数
-$$L(\boldsymbol x,\boldsymbol \mu,\boldsymbol \lambda)=f(\boldsymbol x)+\sum_{i=1}^{m}\mu_i g_i(\boldsymbol x)+\sum_{j=1}^{n}\lambda_j h_j(\boldsymbol x)$$
-以上5条即为KKT条件,严格数学证明参见参考文献[1]的§ 4.2.1。
+
+\min_{\boldsymbol{w}, b} \frac{1}{m} \sum_{i=1}^m \log \left(1+e^{-y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{z}_i+b\right)}\right)+\frac{\lambda}{2 m}\|\boldsymbol{w}\|^2
+
+$$
+
+
+注意,以上两式中的$\boldsymbol{w}$维度是不同的,其分别与$\boldsymbol{x}_i$和$\boldsymbol{z}_i$的维度一致。根据表示定理,上式的解可以写为
+
+
+$$
+
+\boldsymbol{w}=\sum_{j=1}^{m}\alpha_j\boldsymbol{z}_j
+
+$$
+
+
+将$\boldsymbol{w}$代入对数几率回归可得
+
+
+$$
+
+\min _{\boldsymbol{w}, b} \frac{1}{m} \sum_{i=1}^m \log \left(1+e^{-y_i\left(\sum_{j=1}^m \alpha_j \boldsymbol{z}_j^{\mathrm{T}} \boldsymbol{z}_i+b\right)}\right)+\frac{\lambda}{2 m} \sum_{i=1}^m \sum_{j=1}^m \alpha_i \alpha_j \boldsymbol{z}_i^{\mathrm{T}} \boldsymbol{z}_j
+
+$$
+
+
+用核函数$\kappa\left(\boldsymbol{x}_i, \boldsymbol{x}_j\right)=\boldsymbol{z}_i^{\mathrm{T}} \boldsymbol{z}_j=\phi\left(\boldsymbol{x}_i\right)^{\mathrm{T}} \phi\left(\boldsymbol{x}_j\right)$替换上式中的内积运算
+
+
+$$
+
+\min _{\boldsymbol{w}, b} \frac{1}{m} \sum_{i=1}^m \log \left(1+e^{-y_i\left(\sum_{j=1}^m \alpha_j \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}_j\right)+b\right)}\right)+\frac{\lambda}{2 m} \sum_{i=1}^m \sum_{j=1}^m \alpha_i \alpha_j \kappa\left(\boldsymbol{x}_i, \boldsymbol{x}_j\right)
+
+$$
+
+
+解出$\boldsymbol{\alpha}=(\alpha_1,\alpha_2,...,\alpha_m)$和$b$后,即可得$f(\boldsymbol{x})=\sum_{i=1}^{m}\alpha_i\kappa(\boldsymbol{x},\boldsymbol{x}_i)+b$。
+
 
 ## 参考文献
-[1] 王燕军. 《最优化基础理论与方法》 <br>
-[2] https://en.wikipedia.org/wiki/Karush%E2%80%93Kuhn%E2%80%93Tucker_conditions#Regularity_conditions_(or_constraint_qualifications) <br>
-[3] 王书宁 译.《凸优化》
+
+[1] 王燕军. 最优化基础理论与方法. 复旦大学出版社, 2011.
+
+[2] 王书宁. 凸优化. 清华大学出版社, 2013.

+ 939 - 132
docs/chapter7/chapter7.md

@@ -1,43 +1,109 @@
-## 7.5
-$$R(c|\boldsymbol x)=1−P(c|\boldsymbol x)$$
-[推导]:由公式(7.1)和公式(7.4)可得:
-$$R(c_i|\boldsymbol x)=1*P(c_1|\boldsymbol x)+...+1*P(c_{i-1}|\boldsymbol x)+0*P(c_i|\boldsymbol x)+1*P(c_{i+1}|\boldsymbol x)+...+1*P(c_N|\boldsymbol x)$$
-又$\sum_{j=1}^{N}P(c_j|\boldsymbol x)=1$,则:
-$$R(c_i|\boldsymbol x)=1-P(c_i|\boldsymbol x)$$
-此即为公式(7.5)
-
-## 7.6
-$$h^{*}(\boldsymbol{x})=\underset{c \in \mathcal{Y}}{\arg \max } P(c | \boldsymbol{x})$$
-[推导]:将公式(7.5)代入公式(7.3)即可推得此式。
-
-## 7.12
-$$\hat{\boldsymbol{\mu}}_{c}=\frac{1}{\left|D_{c}\right|} \sum_{\boldsymbol{x} \in D_{c}} \boldsymbol{x}$$
-[推导]:参见公式(7.13)
-
-## 7.13
-$$\hat{\boldsymbol{\sigma}}_{c}^{2}=\frac{1}{\left|D_{c}\right|} \sum_{\boldsymbol{x} \in D_{c}}\left(\boldsymbol{x}-\hat{\boldsymbol{\mu}}_{c}\right)\left(\boldsymbol{x}-\hat{\boldsymbol{\mu}}_{c}\right)^{\mathrm{T}}$$
-[推导]:根据公式(7.11)和公式(7.10)可知参数求解公式为
-$$\begin{aligned}
+# 第7章 贝叶斯分类器
+
+本章是从概率框架下的贝叶斯视角给出机器学习问题的建模方法,不同于前几章着重于算法具体实现,本章的理论性会更强。朴素贝叶斯算法常用于文本分类,例如用于广告邮件检测,贝叶斯网和EM算法均属于概率图模型的范畴,因此可合并至第14章一起学习。
+
+## 7.1 贝叶斯决策论
+
+### 7.1.1 式(7.5)的推导
+
+由式(7.1)和式(7.4)可得
+
+
+$$
+
+R(c_i|\boldsymbol x)=1*P(c_1|\boldsymbol x)+...+1*P(c_{i-1}|\boldsymbol x)+0*P(c_i|\boldsymbol x)+1*P(c_{i+1}|\boldsymbol x)+...+1*P(c_N|\boldsymbol x)
+
+$$
+
+
+又$\sum_{j=1}^{N}P(c_j|\boldsymbol x)=1$,则
+
+
+$$
+
+R(c_i|\boldsymbol x)=1-P(c_i|\boldsymbol x)
+
+$$
+
+ 此即式(7.5)。
+
+### 7.1.2 式(7.6)的推导
+
+将式(7.5)代入式(7.3)即可推得此式
+
+### 7.1.3 判别式模型与生成式模型
+
+对于判别式模型来说,就是在已知$\boldsymbol{x}$的条件下判别其类别标记$c$,即求后验概率$P(c|\boldsymbol{x})$,前几章介绍的模型都属于判别式模型的范畴,尤其是对数几率回归最为直接明了,式(3.23)和式(3.24)直接就是后验概率的形式。
+
+对于生成式模型来说,理解起来比较抽象,但是可通过思考以下两个问题来理解。
+
+(1)对于数据集来说,其中的样本是如何生成的?通常假设数据集中的样本服从独立同分布,即每个样本都是按照联合概率分布$P(\boldsymbol{x},c)$采样而得,也可以描述为根据$P(\boldsymbol{x},c)$生成的。
+
+(2)若已知样本$\boldsymbol{x}$和联合概率分布$P(\boldsymbol{x},c)$,如何预测类别呢?若样本$\boldsymbol{x}$和联合概率分布$P(\boldsymbol{x},c)$已知,则可以分别求出$\boldsymbol{x}$属于各个类别的概率,即$P(\boldsymbol{x},c_1),P(\boldsymbol{x},c_2),...,P(\boldsymbol{x},c_N)$,然后选择概率最大的类别作为样本$\boldsymbol{x}$的预测结果。
+
+因此,之所以称为"生成式"模型,是因为所求的概率$P(\boldsymbol{x},c)$是生成样本$\boldsymbol{x}$的概率。
+
+## 7.2 极大似然估计
+
+### 7.2.1 式(7.12)和(7.13)的推导
+
+根据式(7.11)和式(7.10)可知参数求解式为 
+
+$$
+
+\begin{aligned}
 \hat{\boldsymbol{\theta}}_{c}&=\underset{\boldsymbol{\theta}_{c}}{\arg \max } LL\left(\boldsymbol{\theta}_{c}\right) \\
 &=\underset{\boldsymbol{\theta}_{c}}{\arg \min } -LL\left(\boldsymbol{\theta}_{c}\right) \\
 &= \underset{\boldsymbol{\theta}_{c}}{\arg \min }-\sum_{\boldsymbol{x} \in D_{c}} \log P\left(\boldsymbol{x} | \boldsymbol{\theta}_{c}\right)
-\end{aligned}$$
-由西瓜书上下文可知,此时假设概率密度函数$p(\boldsymbol{x} | c) \sim \mathcal{N}\left(\boldsymbol{\mu}_{c}, \boldsymbol{\sigma}_{c}^{2}\right)$,其等价于假设
-$$P\left(\boldsymbol{x} | \boldsymbol{\theta}_{c}\right)=P\left(\boldsymbol{x} | \boldsymbol{\mu}_{c}, \boldsymbol{\sigma}_{c}^{2}\right)=\frac{1}{\sqrt{(2 \pi)^{d}|\boldsymbol{\Sigma}_c|}} \exp \left(-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_c)\right)$$
-其中,$d$表示$\boldsymbol{x}$的维数,$\boldsymbol{\Sigma}_c=\boldsymbol{\sigma}_{c}^{2}$为对称正定协方差矩阵,$|\boldsymbol{\Sigma}_c|$表示$\boldsymbol{\Sigma}_c$的行列式。将其代入参数求解公式可得
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+
+由"西瓜书"上下文可知,此时假设概率密度函数$p(\boldsymbol{x} | c) \sim \mathcal{N}\left(\boldsymbol{\mu}_{c}, \boldsymbol{\sigma}_{c}^{2}\right)$,其等价于假设
+
+
+$$
+
+P\left(\boldsymbol{x} | \boldsymbol{\theta}_{c}\right)=P\left(\boldsymbol{x} | \boldsymbol{\mu}_{c}, \boldsymbol{\sigma}_{c}^{2}\right)=\frac{1}{\sqrt{(2 \pi)^{d}|\boldsymbol{\Sigma}_c|}} \exp \left(-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_c)\right)
+
+$$
+
+
+其中,$d$表示$\boldsymbol{x}$的维数,$\boldsymbol{\Sigma}_c=\boldsymbol{\sigma}_{c}^{2}$为对称正定协方差矩阵,$|\boldsymbol{\Sigma}_c|$表示$\boldsymbol{\Sigma}_c$的行列式。将其代入参数求解式可得
+
+
+$$
+
+\begin{aligned}
 (\hat{\boldsymbol{\mu}}_{c}, \hat{\boldsymbol{\Sigma}}_{c})&= \underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }-\sum_{\boldsymbol{x} \in D_{c}} \log\left[\frac{1}{\sqrt{(2 \pi)^{d}|\boldsymbol{\Sigma}_c|}} \exp \left(-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_c)\right)\right] \\
 &= \underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }-\sum_{\boldsymbol{x} \in D_{c}} \left[-\frac{d}{2}\log(2 \pi)-\frac{1}{2}\log|\boldsymbol{\Sigma}_c|-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_c)\right] \\
 &= \underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }\sum_{\boldsymbol{x} \in D_{c}} \left[\frac{d}{2}\log(2 \pi)+\frac{1}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_c)\right] \\
 &= \underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }\sum_{\boldsymbol{x} \in D_{c}} \left[\frac{1}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_c)\right] \\
-\end{aligned}$$
-假设此时数据集$D_c$中的样本个数为$n$,也即$|D_c|=n$,则上式可以改写为
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+
+假设此时数据集$D_c$中的样本个数为$n$,即$|D_c|=n$,则上式可以改写为
+
+
+$$
+
+\begin{aligned}
 (\hat{\boldsymbol{\mu}}_{c}, \hat{\boldsymbol{\Sigma}}_{c})&=\underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }\sum_{i=1}^{n} \left[\frac{1}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}(\boldsymbol{x}_{i}-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}_{i}-\boldsymbol{\mu}_c)\right]\\
 &=\underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }\frac{n}{2}\log|\boldsymbol{\Sigma}_c|+\sum_{i=1}^{n}\frac{1}{2}(\boldsymbol{x}_i-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}_i-\boldsymbol{\mu}_c)\\
-\end{aligned}$$
-为了便于分别求解$\hat{\boldsymbol{\mu}}_{c}$和$\hat{\boldsymbol{\Sigma}}_{c}$,在这里我们根据公式$\boldsymbol{x}^{\mathrm{T}}\mathbf{A}\boldsymbol{x}=\operatorname{tr}(\mathbf{A}\boldsymbol{x}\boldsymbol{x}^{\mathrm{T}}),\bar{\boldsymbol{x}}=\frac{1}{n}\sum_{i=1}^{n}\boldsymbol{x}_i$将上式中的最后一项作如下恒等变形
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+
+为了便于分别求解$\hat{\boldsymbol{\mu}}_{c}$和$\hat{\boldsymbol{\Sigma}}_{c}$,在这里我们根据式$\boldsymbol{x}^{\mathrm{T}}\mathbf{A}\boldsymbol{x}=\operatorname{tr}(\mathbf{A}\boldsymbol{x}\boldsymbol{x}^{\mathrm{T}}),\bar{\boldsymbol{x}}=\frac{1}{n}\sum_{i=1}^{n}\boldsymbol{x}_i$将上式中的最后一项作如下恒等变形:
+
+
+$$
+
+\begin{aligned}
 &\sum_{i=1}^{n}\frac{1}{2}(\boldsymbol{x}_i-\boldsymbol{\mu}_c)^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{x}_i-\boldsymbol{\mu}_c)\\
 =&\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_c^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\boldsymbol{\mu}_c)(\boldsymbol{x}_i-\boldsymbol{\mu}_c)^{\mathrm{T}}\right]\\
 =&\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_c^{-1}\sum_{i=1}^{n}\left(\boldsymbol{x}_i\boldsymbol{x}_i^{\mathrm{T}}-\boldsymbol{x}_i\boldsymbol{\mu}_c^{\mathrm{T}}-\boldsymbol{\mu}_c\boldsymbol{x}_i^{\mathrm{T}}+\boldsymbol{\mu}_c\boldsymbol{\mu}_c^{\mathrm{T}}\right)\right]\\
@@ -49,123 +115,864 @@ $$\begin{aligned}
 =&\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_c^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]+\frac{1}{2}\operatorname{tr}\left[n\cdot\boldsymbol{\Sigma}_c^{-1}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]\\
 =&\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_c^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]+\frac{n}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_c^{-1}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]\\
 =&\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_c^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]+\frac{n}{2}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})
-\end{aligned}$$
-所以
-$$(\hat{\boldsymbol{\mu}}_{c}, \hat{\boldsymbol{\Sigma}}_{c})=\underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }\frac{n}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_{c}^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]+\frac{n}{2}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})$$
-观察上式可知,由于此时$\boldsymbol{\Sigma}_c^{-1}$和$\boldsymbol{\Sigma}_c$一样均为正定矩阵,所以当$\boldsymbol{\mu}_c-\bar{\boldsymbol{x}}\neq\boldsymbol{0}$时,上式最后一项为正定二次型。根据正定二次型的性质可知,上式最后一项取值的大小此时仅与$\boldsymbol{\mu}_c-\bar{\boldsymbol{x}}$相关,而且当且仅当$\boldsymbol{\mu}_c-\bar{\boldsymbol{x}}=\boldsymbol{0}$时,上式最后一项取到最小值0,此时可以解得
-$$\hat{\boldsymbol{\mu}}_{c}=\bar{\boldsymbol{x}}=\frac{1}{n}\sum_{i=1}^{n}\boldsymbol{x}_i$$
-将求解出来的$\hat{\boldsymbol{\mu}}_{c}$代回参数求解公式可得新的参数求解公式为
-$$\hat{\boldsymbol{\Sigma}}_{c}=\underset{\boldsymbol{\Sigma}_c}{\arg \min }\frac{n}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_{c}^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]$$
-此时的参数求解公式是仅与$\boldsymbol{\Sigma}_c$相关的函数。为了求解$\hat{\boldsymbol{\Sigma}}_{c}$,在这里我们不加证明地给出一个引理(具体证明参见参考文献[8]):设$\mathbf{B}$为$p$阶正定矩阵,$n>0$为实数,在对所有$p$阶正定矩阵$\boldsymbol{\Sigma}$有
-$$\frac{n}{2}\log|\boldsymbol{\Sigma}|+\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}^{-1}\mathbf{B}\right]\geq\frac{n}{2}\log|\mathbf{B}|+\frac{pn}{2}(1-\log n)$$
-当且仅当$\boldsymbol{\Sigma}=\frac{1}{n}\mathbf{B}$时等号成立。所以根据此引理可知,当且仅当$\boldsymbol{\Sigma}_c=\frac{1}{n}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}$
-时,上述参数求解公式中$\arg \min$后面的式子取到最小值,那么此时的$\boldsymbol{\Sigma}_c$即为我们想要求解的$\hat{\boldsymbol{\Sigma}}_{c}$。
-
-## 7.19
-$$\hat{P}(c)=\frac{\left|D_{c}\right|+1}{|D|+N}$$
-[推导]:从贝叶斯估计(参见附录①)的角度来说,拉普拉斯修正就等价于先验概率为Dirichlet分布(参见附录③)的后验期望值估计。为了接下来的叙述方便,我们重新定义一下相关数学符号。设包含$m$个独立同分布样本的训练集为$D$,$D$中可能的类别数为$k$,其类别的具体取值范围为$\{c_1,c_2,...,c_k\}$。若令随机变量$C$表示样本所属的类别,且$C$取到每个值的概率分别为$P(C=c_1)=\theta_1,P(C=c_2)=\theta_2,...,P(C=c_k)=\theta_k$,那么显然$C$服从参数为$\boldsymbol{\theta}=(\theta_1,\theta_2,...,\theta_k)\in\mathbb{R}^{k}$的Categorical分布(参见附录②),其概率质量函数为
-$$P(C=c_i)=P(c_i)=\theta_i$$
-其中$P(c_i)=\theta_i$就是公式(7.9)所要求解的$\hat{P}(c)$,下面我们用贝叶斯估计中的后验期望值估计来估计$\theta_i$。根据贝叶斯估计的原理可知,在进行参数估计之前,需要先主观预设一个先验概率$P(\boldsymbol{\theta})$,通常为了方便计算<sup>[7]</sup>后验概率$P(\boldsymbol{\theta}|D)$,我们会用似然函数$P(D|\boldsymbol{\theta})$的共轭先验<sup>[6]</sup>作为我们的先验概率。显然,此时的似然函数$P(D|\boldsymbol{\theta})$是一个基于Categorical分布的似然函数,而Categorical分布的共轭先验为Dirichlet分布,所以此时只需要预设先验概率$P(\boldsymbol{\theta})$为Dirichlet分布,然后使用后验期望值估计就能估计出$\theta_i$。具体地,记$D$中样本类别取值为$c_i$的样本个数为$y_i$,则似然函数$P(D|\boldsymbol{\theta})$可展开为
-$$P(D|\boldsymbol{\theta})=\theta_1^{y_1}\ldots\theta_k^{y_k}=\prod_{i=1}^{k}\theta_i^{y_i}$$
-那么后验概率$P(D|\boldsymbol{\theta})$为
-$$\begin{aligned}
+\end{aligned}
+
+$$
+
+ 所以
+
+
+$$
+
+(\hat{\boldsymbol{\mu}}_{c}, \hat{\boldsymbol{\Sigma}}_{c})=\underset{(\boldsymbol{\mu}_{c},\boldsymbol{\Sigma}_c)}{\arg \min }\frac{n}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_{c}^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]+\frac{n}{2}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})^{\mathrm{T}} \boldsymbol{\Sigma}_c^{-1}(\boldsymbol{\mu}_c-\bar{\boldsymbol{x}})
+
+$$
+
+
+观察上式可知,由于此时$\boldsymbol{\Sigma}_c^{-1}$和$\boldsymbol{\Sigma}_c$一样均为正定矩阵,所以当$\boldsymbol{\mu}_c-\bar{\boldsymbol{x}}\neq\boldsymbol{0}$时,上式最后一项为正定二次型。根据正定二次型的性质可知,此时上式最后一项的取值仅与$\boldsymbol{\mu}_c-\bar{\boldsymbol{x}}$相关,并有当且仅当$\boldsymbol{\mu}_c-\bar{\boldsymbol{x}}=\boldsymbol{0}$时,上式最后一项取最小值0,此时可以解得
+
+
+$$
+
+\hat{\boldsymbol{\mu}}_{c}=\bar{\boldsymbol{x}}=\frac{1}{n}\sum_{i=1}^{n}\boldsymbol{x}_i
+
+$$
+
+
+将求解出来的$\hat{\boldsymbol{\mu}}_{c}$代回参数求解式可得新的参数求解式,有
+
+
+$$
+
+\hat{\boldsymbol{\Sigma}}_{c}=\underset{\boldsymbol{\Sigma}_c}{\arg \min }\frac{n}{2}\log|\boldsymbol{\Sigma}_c|+\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}_{c}^{-1}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}\right]
+
+$$
+
+
+此时的参数求解式是仅与$\boldsymbol{\Sigma}_c$相关的函数。
+
+为了求解$\hat{\boldsymbol{\Sigma}}_{c}$,在这里我们不加证明地给出一个引理:设$\mathbf{B}$为$p$阶正定矩阵,$n>0$为实数,在对所有$p$阶正定矩阵$\boldsymbol{\Sigma}$有
+
+
+$$
+
+\frac{n}{2}\log|\boldsymbol{\Sigma}|+\frac{1}{2}\operatorname{tr}\left[\boldsymbol{\Sigma}^{-1}\mathbf{B}\right]\geq\frac{n}{2}\log|\mathbf{B}|+\frac{pn}{2}(1-\log n)
+
+$$
+
+
+当且仅当$\boldsymbol{\Sigma}=\frac{1}{n}\mathbf{B}$时等号成立。**(引理的证明可搜索张伟平老师的"多元正态分布参数的估计和数据的清洁与变换"课件)**
+
+根据此引理可知,当且仅当$\boldsymbol{\Sigma}_c=\frac{1}{n}\sum_{i=1}^{n}(\boldsymbol{x}_i-\bar{\boldsymbol{x}})(\boldsymbol{x}_i-\bar{\boldsymbol{x}})^{\mathrm{T}}$
+时,上述参数求解式中$\arg \min$后面的式子取到最小值,那么此时的$\boldsymbol{\Sigma}_c$即我们想要求解的$\hat{\boldsymbol{\Sigma}}_{c}$。
+
+## 7.3 朴素贝叶斯分类器
+
+### 7.3.1 式(7.16)和式(7.17)的解释
+
+该式是基于大数定律的频率近似概率的思路,而该思路的本质仍然是极大似然估计,下面举例说明。以掷硬币为例,假设投掷硬币5次,结果依次是正面、正面、反面、正面、反面,试基于此观察结果估计硬币正面朝上的概率。
+
+设硬币正面朝上的概率为$\theta$,其服从伯努利分布,因此反面朝上的概率为$1-\theta$,同时设每次投掷结果相互独立,即独立同分布,则似然为
+
+
+$$
+
+\begin{aligned}
+L(\theta)&=\theta\cdot\theta\cdot(1-\theta)\cdot\theta\cdot(1-\theta)\\
+&=\theta^{3}(1-\theta)^2
+\end{aligned}
+
+$$
+
+ 对数似然为
+
+
+$$
+
+LL(\theta)=\ln L(\theta)=3\ln\theta+2\ln (1-\theta)
+
+$$
+
+
+易证$LL(\theta)$是关于$\theta$的凹函数,因此对其求一阶导并令导数等于零即可求出最大值点,具体地
+
+
+$$
+
+\begin{aligned}
+    \frac{\partial LL(\theta)}{\partial\theta}&=\frac{\partial\left(3\ln\theta+2\ln (1-\theta)\right)}{\partial\theta}\\
+    &=\frac{3}{\theta}-\frac{2}{1-\theta}\\
+    &=\frac{3-5\theta}{\theta(1-\theta)}
+\end{aligned}
+
+$$
+
+
+令上式等于0可解得$\theta=\frac{3}{5}$,显然$\frac{3}{5}$也是正面出现的频率。
+
+### 7.3.2 式(7.18)的解释
+
+该式所表示的正态分布并不一定是标准正态分布,因此$p(x_i|c)$的取值并不一定在$(0,1)$之间,但是仍然不妨碍其用作"概率",因为根据朴素贝叶斯的算法原理可知,只需$p(x_i|c)$的值仅仅是用来比大小,因此只关心相对值而不关心绝对值。
+
+### 7.3.3 贝叶斯估计
+
+贝叶斯学派视角下的一类点估计法称为贝叶斯估计[1],常用的贝叶斯估计有最大后验估计(Maximum
+A Posteriori
+Estimation,简称MAP)、后验中位数估计和后验期望值估计这3种参数估计方法,下面给出这3种方法的具体定义。
+
+设总体的概率质量函数(若总体的分布为连续型时则改为概率密度函数,此处以离散型为例)
+为$P(x|\theta)$,从该总体中抽取出的$n$个独立同分布的样本构成样本集
+$D=\{x_1,x_2,\cdots,x_n\}$,则根据贝叶斯式可得,在给定样本集$D$的条件下,$\theta$的条件概率为
+
+
+$$
+
+P(\theta|D)=\frac{P(D|\theta)P(\theta)}{P(D)}=\frac{P(D|\theta)P(\theta)}
+{\sum_{\theta}P(D|\theta)P(\theta)}
+
+$$
+
+
+其中$P(D|\theta)$为似然函数,由于样本集$D$中的样本是独立同分布的,所以似然函数可以进一步展开,有
+
+
+$$
+
+P(\theta|D)=\frac{P(D|\theta)P(\theta)}
+{\sum_{\theta}P(D|\theta)P(\theta)}=\frac{\prod_{i=1}^{n}P(x_i|\theta)
+P(\theta)}{\sum_{\theta}\prod_{i=1}^{n}P(x_i|\theta)P(\theta)}
+
+$$
+
+
+
+根据贝叶斯学派的观点,此条件概率代表了我们在已知样本集$D$后对$\theta$产生的新的认识,它综合了我们对$\theta$主观预设的先验概率$P(\theta)$和样本集$D$带来的信息,通常称其为$\theta$的后验概率。
+
+贝叶斯学派认为,在得到$P(\theta|D)$以后,对参数$\theta$的任何统计推断,都只能基于$P(\theta|D)$。至于具体如何去使用它,可以结合某种准则一起去进行,统计学家也有一定的自由度。
+对于点估计来说,
+求使得$P(\theta|D)$达到最大值的$\hat{\theta}_{\mathrm{MAP}}$作为$\theta$的估计称为最大后验估计,求$P(\theta|D)$的中位数$\hat{\theta}_{\mathrm{Median}}$作为$\theta$的估计称为后验中位数估计,求$P(\theta|D)$的期望值(均值)$\hat{\theta}_{\mathrm{
+Mean}}$作为$\theta$的估计称为后验期望值估计。
+
+### 7.3.4 Categorical分布
+
+Categorical分布又称为广义伯努利分布,是将伯努利分布中的随机变量可取值个数由两个泛化为多个得到的分布。具体地,设离散型随机变量$X$共有$k$种可能的取值$\{x_1,x_2,\cdots,x_k\}$,且$X$取到每个值的概率分别为$P(X=x_1)=\theta_1,P(X=x_2)=\theta_2,\cdots,P(X=x_k)=\theta_k$,则称随机变量$X$服从参数为$\theta_1,\theta_2,\cdots,\theta_k$的Categorical分布,其概率质量函数为
+
+
+$$
+
+P(X=x_i)=p(x_i)=\theta_i
+
+$$
+
+
+
+### 7.3.5 Dirichlet分布
+
+类似于Categorical分布是伯努利分布的泛化形式,Dirichlet分布是Beta分布的泛化形式。对于一个$k$维随机变量$\boldsymbol{x}=(x_1,x_2,\cdots,x_k)\in
+\mathbb{R}^{k}$,其中$x_i(i=1,2,\cdots,k)$满足$0\leqslant x_i
+\leqslant
+1,\sum_{i=1}^{k}x_i=1$,若$\boldsymbol{x}$服从参数为$\boldsymbol{\alpha}=(\alpha_1,\alpha_2,\cdots,\alpha_k)\in
+\mathbb{R}^{k}$的Dirichlet分布,则其概率密度函数为
+
+
+$$
+
+p(\boldsymbol{x};\boldsymbol{\alpha})=\frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}
+{\prod _{i=1}^{k}\Gamma (\alpha _{i})}\prod
+_{i=1}^{k}x_{i}^{\alpha _{i}-1}
+
+$$
+
+ 其中$\Gamma (z)=\int
+_{0}^{\infty }x^{z-1}e^{-x}{\rm
+d}x$为Gamma函数,当$\boldsymbol{\alpha}=(1,1,\cdots,1)$时,Dirichlet分布等价于均匀分布。
+
+### 7.3.6 式(7.19)和式(7.20)的推导
+
+从贝叶斯估计的角度来说,拉普拉斯修正就等价于先验概率为Dirichlet分布的后验期望值估计。为了接下来的叙述方便,我们重新定义一下相关数学符号。
+
+设有包含$m$个独立同分布样本的训练集$D$,$D$中可能的类别数为$k$,其类别的具体取值范围为$\{c_1,c_2,...,c_k\}$。若令随机变量$C$表示样本所属的类别,且$C$取到每个值的概率分别为$P(C=c_1)=\theta_1,P(C=c_2)=\theta_2,...,P(C=c_k)=\theta_k$,那么显然$C$服从参数为$\boldsymbol{\theta}=(\theta_1,\theta_2,...,\theta_k)\in\mathbb{R}^{k}$的Categorical分布,其概率质量函数为
+
+
+$$
+
+P(C=c_i)=P(c_i)=\theta_i
+
+$$
+
+
+
+其中$P(c_i)=\theta_i$就是式(7.9)所要求解的$\hat{P}(c)$,下面我们用贝叶斯估计中的后验期望值估计来估计$\theta_i$。根据贝叶斯估计的原理可知,在进行参数估计之前,需要先主观预设一个先验概率$P(\boldsymbol{\theta})$,通常为了方便计算后验概率$P(\boldsymbol{\theta}|D)$,我们会用似然函数$P(D|\boldsymbol{\theta})$的共轭先验作为我们的先验概率。显然,此时的似然函数$P(D|\boldsymbol{\theta})$是一个基于Categorical分布的似然函数,而Categorical分布的共轭先验为Dirichlet分布,所以只需要预设先验概率$P(\boldsymbol{\theta})$为Dirichlet分布,然后使用后验期望值估计就能估计出$\theta_i$。
+
+具体地,记$D$中样本类别取值为$c_i$的样本个数为$y_i$,则似然函数$P(D|\boldsymbol{\theta})$可展开为
+
+
+$$
+
+P(D|\boldsymbol{\theta})=\theta_1^{y_1}...\theta_k^{y_k}=\prod_{i=1}^{k}\theta_i^{y_i}
+
+$$
+
+
+则有后验概率 
+
+$$
+
+\begin{aligned}
 P(\boldsymbol{\theta}|D)&=\frac{P(D|\boldsymbol{\theta})P(\boldsymbol{\theta})}{P(D)}\\
-&=\frac{P(D|\boldsymbol{\theta})P(\boldsymbol{\theta})}{\sum_{\boldsymbol{\theta}}P(D|\boldsymbol{\theta})P(\boldsymbol{\theta})}\\
-&=\frac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot P(\boldsymbol{\theta})}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot P(\boldsymbol{\theta})\right]}
-\end{aligned}$$
-假设此时先验概率$P(\boldsymbol{\theta})$是参数为$\boldsymbol{\alpha}=(\alpha_1,\alpha_2,...,\alpha_k)\in \mathbb{R}^{k}$的Dirichlet分布,则$P(\boldsymbol{\theta})$可写为
-$$P(\boldsymbol{\boldsymbol{\theta}};\boldsymbol{\alpha})=\frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod _{i=1}^{k}\Gamma (\alpha _{i})}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}$$
-将其代入$P(D|\boldsymbol{\theta})$可得
-$$\begin{aligned}
-P(\boldsymbol{\theta}|D)&=\frac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot P(\boldsymbol{\theta})}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot P(\boldsymbol{\theta})\right]} \\
-&=\frac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot \frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod _{i=1}^{k}\Gamma (\alpha _{i})}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot \frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod _{i=1}^{k}\Gamma (\alpha _{i})}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}\right]} \\
-&=\frac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot \frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod _{i=1}^{k}\Gamma (\alpha _{i})}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot \prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}\right]\cdot \frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod _{i=1}^{k}\Gamma (\alpha _{i})}} \\
-&=\frac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot \prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot \prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}\right]} \\
-&=\frac{\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}\right]}
-\end{aligned}$$
-此时若设$\boldsymbol{\alpha}+\boldsymbol{y}=(\alpha_1+y_1,\alpha_2+y_2,...,\alpha_k+y_k)\in \mathbb{R}^{k}$,则根据Dirichlet分布的定义可知
-$$\begin{aligned}
-P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})&=\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1} \\
-\sum_{\boldsymbol{\theta}}P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})&=\sum_{\boldsymbol{\theta}}\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1}\\
-1&=\sum_{\boldsymbol{\theta}}\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1} \\
-1&=\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\sum_{\boldsymbol{\theta}}\left[\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1}\right] \\
+&=\frac{P(D|\boldsymbol{\theta})P(\boldsymbol{\theta})}{\sum_{\boldsymbol{\theta}}
+P(D|\boldsymbol{\theta})P(\boldsymbol{\theta})}\\
+&=\frac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot
+P(\boldsymbol{\theta})}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot
+P(\boldsymbol{\theta})\right]}
+\end{aligned}
+
+$$
+
+
+假设此时先验概率$P(\boldsymbol{\theta})$是参数为$\boldsymbol{\alpha}=(\alpha_1,\alpha_2,...,\alpha_k)\in\mathbb{R}^{k}$的Dirichlet分布,则$P(\boldsymbol{\theta})$可写为
+
+
+$$
+
+P(\boldsymbol{\boldsymbol{\theta}};\boldsymbol{\alpha})=\frac{\Gamma \left(\sum_{i=1}^{k}\alpha_{i}\right)}{\prod_{i=1}^{k}\Gamma (\alpha_{i})}\prod_{i=1}^{k}\theta_{i}^{\alpha_{i}-1}
+
+$$
+
+
+将其代入$P(D|\boldsymbol{\theta})$可得 
+
+$$
+
+\begin{aligned}
+P(\boldsymbol{\theta}|D)&=\dfrac{\prod_{i=1}^{k}\theta_i^{y_i}
+\cdot P(\boldsymbol{\theta})}{\sum_{\boldsymbol{\theta}}
+\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot
+P(\boldsymbol{\theta})\right]} \\
+&=\dfrac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot \dfrac{\Gamma
+\left(\sum _{i=1}^{k}\alpha _{i}\right)} {\prod _{i=1}^{k}\Gamma
+(\alpha _{i})}\prod _{i=1}^{k} \theta_{i}^{\alpha
+_{i}-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}
+\cdot \dfrac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod
+_{i=1}^{k}
+\Gamma (\alpha _{i})}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}\right]}
+\\
+&=\dfrac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot \dfrac{\Gamma
+\left(\sum _{i=1}^{k}\alpha _{i}\right)} {\prod _{i=1}^{k}\Gamma
+(\alpha _{i})}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}}
+{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot
+\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}\right]\cdot
+\dfrac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod
+_{i=1}^{k}\Gamma (\alpha _{i})}} \\
+&=\dfrac{\prod_{i=1}^{k}\theta_i^{y_i}\cdot \prod
+_{i=1}^{k}\theta_{i}^{\alpha _{i}-1}}
+{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{y_i}\cdot
+\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}-1}\right]} \\
+&=\dfrac{\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}}{\sum_{\boldsymbol{\theta}}
+\left[\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}\right]}
+\end{aligned}
+
+$$
+
+
+此时若设$\boldsymbol{\alpha}+\boldsymbol{y}=(\alpha_1+y_1,\alpha_2+y_2,...,\alpha_k+y_k)\in
+\mathbb{R}^{k}$,则根据Dirichlet分布的定义可知 
+
+$$
+
+\begin{aligned}
+P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})&=
+\dfrac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1} \\
+\sum_{\boldsymbol{\theta}}P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})&=\sum_{\boldsymbol{\theta}}\frac{\Gamma
+\left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod
+_{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\prod
+_{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1}\\
+1&=\sum_{\boldsymbol{\theta}}\frac{\Gamma \left(\sum
+_{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma
+(\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1}
+\\
+1&=\frac{\Gamma \left(\sum
+_{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma
+(\alpha_{i}+y_i)}\sum_{\boldsymbol{\theta}}\left[\prod
+_{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1}\right] \\
 \frac{1}{\sum_{\boldsymbol{\theta}}\left[\prod _{i=1}^{k}\theta_{i}^{\alpha_{i}+y_i-1}\right]}&=\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)} \\
-\end{aligned}$$
-将此结论代入$P(D|\boldsymbol{\theta})$可得
-$$\begin{aligned}
-P(\boldsymbol{\theta}|D)&=\frac{\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}\right]} \\
-&=\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod _{i=1}^{k}\Gamma (\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}+y_i-1} \\
+\end{aligned}
+
+$$
+
+ 将此结论代入$P(D|\boldsymbol{\theta})$可得
+
+
+$$
+
+\begin{aligned}
+P(\boldsymbol{\theta}|D)&=\frac{\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}}{\sum_{\boldsymbol{\theta}}\left[\prod_{i=1}^{k}\theta_i^{\alpha_{i}+y_i-1}\right]}\\
+&=\frac{\Gamma \left(\sum _{i=1}^{k}(\alpha_{i}+y_i)\right)}{\prod
+_{i=1}^{k}\Gamma
+(\alpha_{i}+y_i)}\prod _{i=1}^{k}\theta_{i}^{\alpha _{i}+y_i-1} \\
 &=P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})
-\end{aligned}$$
-综上可知,对于服从Categorical分布的$\boldsymbol{\theta}$来说,假设其先验概率$P(\boldsymbol{\theta})$是参数为$\boldsymbol{\alpha}$的Dirichlet分布时,得到的后验概率$P(\boldsymbol{\theta}|D)$是参数为$\boldsymbol{\alpha}+\boldsymbol{y}$的Dirichlet分布,通常我们称这种先验概率分布和后验概率分布形式相同的这对分布为共轭分布<sup>[6]</sup>。在推得后验概率$P(\boldsymbol{\theta}|D)$的具体形式以后,根据后验期望值估计可得$\theta_i$的估计值为
-$$\begin{aligned}
-\theta_i&=E_{P(\boldsymbol{\theta}|D)}[\theta_i]\\
-&=E_{P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})}[\theta_i]\\
+\end{aligned}
+
+$$
+
+
+综上可知,对于服从Categorical分布的$\boldsymbol{\theta}$来说,假设其先验概率$P(\boldsymbol{\theta})$是参数为$\boldsymbol{\alpha}$的Dirichlet分布时,得到的后验概率$P(\boldsymbol{\theta}|D)$是参数为$\boldsymbol{\alpha}+\boldsymbol{y}$的Dirichlet分布,通常我们称这种先验概率分布和后验概率分布形式相同的这对分布为共轭分布。在推得后验概率$P(\boldsymbol{\theta}|D)$的具体形式以后,根据后验期望值估计可得$\theta_i$的估计值为
+
+
+$$
+
+\begin{aligned}
+\theta_i&=\mathbb E_{P(\boldsymbol{\theta}|D)}[\theta_i]\\
+&=\mathbb E_{P(\boldsymbol{\theta};\boldsymbol{\alpha}+\boldsymbol{y})}[\theta_i]\\
 &=\frac{\alpha_i+y_i}{\sum_{j=1}^k(\alpha_j+y_j)}\\
 &=\frac{\alpha_i+y_i}{\sum_{j=1}^k\alpha_j+\sum_{j=1}^ky_j}\\
 &=\frac{\alpha_i+y_i}{\sum_{j=1}^k\alpha_j+m}\\
-\end{aligned}$$
-显然,公式(7.9)是当$\boldsymbol{\alpha}=(1,1,...,1)$时推得的具体结果,此时等价于我们主观预设的先验概率$P(\boldsymbol{\theta})$服从均匀分布,此即为拉普拉斯修正。同理,当我们调整$\boldsymbol{\alpha}$的取值后,即可推得其他数据平滑的公式。
-
-## 7.20
-$$\hat{P}\left(x_{i} | c\right)=\frac{\left|D_{c, x_{i}}\right|+1}{\left|D_{c}\right|+N_{i}}$$
-[推导]:参见公式(7.19)
-
-## 7.24
-$$\hat{P}\left(c, x_{i}\right)=\frac{\left|D_{c, x_{i}}\right|+1}{|D|+N_{i}}$$
-[推导]:参见公式(7.19)
-
-## 7.25
-$$\hat{P}\left(x_{j} | c, x_{i}\right)=\frac{\left|D_{c, x_{i}, x_{j}}\right|+1}{\left|D_{c, x_{i}}\right|+N_{j}}$$
-[推导]:参见公式(7.20)
-
-## 7.27
-$$\begin{aligned} 
-P\left(x_{1}, x_{2}\right) &=\sum_{x_{4}} P\left(x_{1}, x_{2}, x_{4}\right) \\ 
-&=\sum_{x_{4}} P\left(x_{4} | x_{1}, x_{2}\right) P\left(x_{1}\right) P\left(x_{2}\right) \\ 
-&=P\left(x_{1}\right) P\left(x_{2}\right) 
-\end{aligned}$$
-[解析]:在这里补充一下同父结构和顺序结构的推导。同父结构:在给定父节点$x_1$的条件下$x_3,x_4$独立
-$$\begin{aligned} 
+\end{aligned}
+
+$$
+
+
+显然,式(7.9)是当$\boldsymbol{\alpha}=(1,1,...,1)$时推得的具体结果,此时等价于我们主观预设的先验概率$P(\boldsymbol{\theta})$服从均匀分布,此即拉普拉斯修正。同理,当我们调整$\boldsymbol{\alpha}$的取值后,即可推得其他数据平滑的公式。
+
+## 7.4 半朴素贝叶斯分类器
+
+### 7.4.1 式(7.21)的解释
+
+在朴素贝叶斯中求解$P(x_i|c)$时,先挑出类别为$c$的样本,若是离散属性则按大数定律估计$P(x_i|c)$,若是连续属性则求这些样本的均值和方差,接着按正态分布估计$P(x_i|c)$。现在估计$P(x_i|c,pa_i)$,则是先挑出类别为$c$且属性$x_i$所依赖的属性为$pa_i$的样本,剩下步骤与估计$P(x_i|c)$时相同。
+
+### 7.4.2 式(7.22)的解释
+
+该式写为如下形式可能更容易理解:
+
+
+$$
+
+I(x_i,x_j|y)=\sum_{n=1}^{N}P(x_i,x_j|c_n)\log\frac{P(x_i,x_j|c_n)}{P(x_i|c_n)P(x_j|c_n)}
+
+$$
+
+
+其中$i,j=1,2,...,d$且$i\neq j$,$N$为类别个数。该式共可得到$\frac{d(d-1)}{2}$个$I(x_i,x_j|y)$,即每对$(x_i,x_j)$均有一个条件互信息$I(x_i,x_j|y)$。
+
+### 7.4.3 式(7.23)的推导
+
+基于贝叶斯定理,式(7.8)将联合概率$P(\boldsymbol{x},c)$写为等价形式$P(\boldsymbol{x}|c)P(c)$,实际上,也可将向量$\boldsymbol{x}$拆开,把$P(\boldsymbol{x},c)$写为$P(x_1,x_2,...,x_d,c)$形式,然后利用概率公式$P(A,B)=P(A|B)P(B)$对其恒等变形
+
+
+$$
+
+\begin{aligned}
+P(\boldsymbol{x}, c) & =P\left(x_1, x_2, \ldots, x_d, c\right) \\
+& =P\left(x_1, x_2, \ldots, x_d \mid c\right) P(c) \\
+& =P\left(x_1, \ldots, x_{i-1}, x_{i+1}, \ldots, x_d \mid c, x_i\right) P\left(c, x_i\right)
+\end{aligned}
+
+$$
+
+
+
+类似式(7.14)采用属性条件独立性假设,则
+
+
+$$
+
+P(x_1,...,x_{i-1},x_{i+1},...,x_d|c,x_i)=\prod_{j=1\\j\neq i}^{d}P(x_j|c,x_i)
+
+$$
+
+
+根据式(7.25)可知,当$j=i$时,$|D_{c,x_i}|=|D_{c,x_i,x_j}|$,若不考虑平滑项,则此时$P(x_j|c,x_i)=1$,因此在上式的连乘项中可放开$j\neq i$的约束,即
+
+
+$$
+
+P(x_1,...,x_{i-1},x_{i+1},...,x_d|c,x_i)=\prod_{j=1}^{d}P(x_j|c,x_i)
+
+$$
+
+
+综上可得: 
+
+$$
+
+\begin{aligned}
+P(c|\boldsymbol{x})&=\frac{P(\boldsymbol{x},c)}{P(\boldsymbol{x})}\\ 
+&=\frac{P\left(c, x_i\right)P\left(x_1, \ldots, x_{i-1}, x_{i+1}, \ldots, x_d \mid c, x_i\right)}{P(\boldsymbol{x})}\\
+&\propto P\left(c, x_i\right)P\left(x_1, \ldots, x_{i-1}, x_{i+1}, \ldots, x_d \mid c, x_i\right) \\
+&=P\left(c, x_i\right)\prod_{j=1}^{d}P(x_j|c,x_i)
+\end{aligned}
+
+$$
+
+
+
+上式是将属性$x_i$作为超父属性的,AODE尝试将每个属性作为超父来构建SPODE,然后将那些具有足够训练数据支撑的SPODE集成起来作为最终结果。具体来说,对于总共$d$个属性来说,共有$d$个不同的上式,集成直接求和即可,因为对于不同的类别标记$c$均有$d$个不同的上式,至于如何满足"足够训练数据支撑的SPODE"这个条件,注意式(7.24)和式(7.25)均使用到了$|D_{c,x_i}|$和$|D_{c,x_i,x_j}|$,若集合$D_{x_i}$中样本数量过少,则$|D_{c,x_i}|$和$|D_{c,x_i,x_j}|$将会更小,因此在式(7.23)中要求集合$D_{x_i}$中样本数量不少于$m^{\prime}$。
+
+### 7.4.4 式(7.24)和式(7.25)的推导
+
+类比式(7.19)和式(7.20)的推导。
+
+## 7.5 贝叶斯网
+
+### 7.5.1 式(7.27)的解释
+
+在这里补充一下同父结构和顺序结构的推导。同父结构:在给定父节点$x_1$的条件下$x_3,x_4$独立
+
+
+$$
+
+\begin{aligned} 
 P(x_3,x_4|x_1)&=\frac{P(x_1,x_3,x_4)}{P(x_1)} \\
 &=\frac{P(x_1)P(x_3|x_1)P(x_4|x_1)}{P(x_1)} \\
 &=P(x_3|x_1)P(x_4|x_1) \\
-\end{aligned}$$
-顺序结构:在给定节点$x$的条件下$y,z$独立
-$$\begin{aligned} 
+\end{aligned}
+
+$$
+
+ 顺序结构:在给定节点$x$的条件下$y,z$独立
+
+
+$$
+
+\begin{aligned} 
 P(y,z|x)&=\frac{P(x,y,z)}{P(x)} \\
 &=\frac{P(z)P(x|z)P(y|x)}{P(x)} \\
 &=\frac{P(z,x)P(y|x)}{P(x)} \\
 &=P(z|x)P(y|x) \\
-\end{aligned}$$
+\end{aligned}
+
+$$
+
+
+
+## 7.6 EM算法
+
+"西瓜书"中仅给出了EM算法的运算步骤,其原理并未展开讲解,下面补充EM算法的推导原理,以及所用到的相关数学知识。
+
+### 7.6.1 Jensen不等式
+
+若$f$是凸函数,则下式恒成立
+
+
+$$
+
+f\left(t x_1 + (1-t)x_2\right)\leqslant tf(x_1)+(1-t)f(x_2)
+
+$$
+
+
+其中$t\in [0,1]$,若将$x$推广到$n$个时同样成立,即
+
+
+$$
+
+f(t_1 x_1 + t_2x_2+...+t_nx_n)\leqslant t_1f(x_1)+t_2f(x_2)+...+t_nf(t_n)
+
+$$
+
+
+其中$t_1,t_2,...,t_n\in[0,1],\sum_{i=1}^{n}t_i=1$。此不等式在概率论中通常以如下形式出现
+
+
+$$
+
+\varphi(\mathbb{E}[X])\leqslant \mathbb{E}[\varphi(X)]
+
+$$
+
+
+其中$X$是随机变量,$\varphi$为凸函数,$\mathbb{E}[X]$为随机变量$X$的期望。显然,若$f$和$\varphi$是凹函数,则上述不等式中的$\leqslant$换成$\geqslant$也恒成立。
+
+### 7.6.2 EM算法的推导
+
+假设现有一批独立同分布的样本$\{x_1,x_2,...,x_m\}$,它们是由某个含有隐变量的概率分布$p(x,z;\theta)$生成,现尝试用极大似然估计法估计此概率分布的参数。为了便于讨论,此处假设$z$为离散型随机变量,则对数似然函数为
+
+
+$$
+
+\begin{aligned} 
+LL(\theta) &=\sum_{i=1}^{m} \ln p(x_i; \theta) \\ 
+&=\sum_{i=1}^{m} \ln \sum_{z_i} p(x_i, z_i; \theta) 
+\end{aligned}
+
+$$
+
+
+显然,此时$LL(\theta)$里含有未知的隐变量$z$以及求和项的对数,相比于不含隐变量的对数似然函数,显然该似然函数的极大值点较难求解,而EM算法则给出了一种迭代的方法来完成对$LL(\theta)$的极大化。
+
+下面给出两种推导方法,一个是出自李航老师的《统计学习方法》[2],一个是出自吴恩达老师的CS229,两种推导方式虽然形式上有差异,但最终的$Q$函数相等,接下来先讲述两种推导方法,最后会给出$Q$函数是相等的证明。
+
+首先给出《统计学习方法》中的推导方法,设$X=\{x_1,x_2,...,x_m\},Z=\{z_1,z_2,...,z_m\}$,则对数似然函数可以改写为
+
+
+$$
+
+\begin{aligned} 
+LL(\theta)&=\ln P(X\vert \theta)\\
+&=\ln \sum_Z P(X,Z\vert\theta)\\
+&=\ln \left(\sum_Z P(X\vert Z,\theta)P(Z\vert \theta)\right)
+\end{aligned}
+
+$$
+
+
+EM算法采用的是通过迭代逐步近似极大化$L(\theta)$:假设第$t$次迭代时$\theta$的估计值是$\theta^{(t)}$,我们希望第$t+1$次迭代时的$\theta$能使$LL(\theta)$增大,即$LL(\theta)>LL(\theta^{(t)})$。为此,考虑两者的差
+
+
+$$
+
+\begin{aligned}
+LL(\theta)-LL(\theta^{(t)})&=\ln \left(\sum_Z P(X\vert Z,\theta)P(Z\vert \theta)\right)-\ln P(X\vert\theta^{(t)}) \\
+&=\ln \left(\sum_Z P(Z\vert X,\theta^{(t)}) \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})}\right)-\ln P(X\vert\theta^{(t)})
+\end{aligned}
+
+$$
+
+ 由上述Jensen不等式可得 
+
+$$
+
+\begin{aligned}
+LL(\theta)-LL(\theta^{(t)})
+&\geqslant \sum_Z P(Z\vert X,\theta^{(t)})\ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})}-\ln P(X\vert\theta^{(t)}) \\
+&= \sum_Z P(Z\vert X,\theta^{(t)})\ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})}-1\cdot \ln P(X\vert\theta^{(t)}) \\
+&= \sum_Z P(Z\vert X,\theta^{(t)})\ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})}-\sum_Z P(Z\vert X,\theta^{(t)})\cdot \ln P(X\vert\theta^{(t)}) \\
+&=\sum_Z P(Z\vert X,\theta^{(t)}) \left( \ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})} - \ln P(X\vert\theta^{(t)}) \right)\\
+&= \sum_Z P(Z\vert X,\theta^{(t)})\ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})P(X\vert\theta^{(t)})}
+\end{aligned}
+
+$$
+
+ 令
+
+
+$$
+
+B(\theta,\theta^{(t)})=LL(\theta^{(t)})+\sum_Z P(Z\vert X,\theta^{(t)})\ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})P(X\vert\theta^{(t)})}
+
+$$
+
+
+则 
+
+$$
+
+LL(\theta)\geqslant B(\theta,\theta^{(t)})
+
+$$
+
+
+即$B(\theta,\theta^{(t)})$是$LL(\theta)$的下界,此时若设$\theta^{(t+1)}$能使得$B(\theta,\theta^{(t)})$达到极大,即
+
+
+$$
+
+B(\theta^{(t+1)},\theta^{(t)}) \geqslant B(\theta,\theta^{(t)})
+
+$$
+
+
+由于$LL(\theta^{(t)})=B(\theta^{(t)},\theta^{(t)})$,那么可以进一步推得
+
+
+$$
+
+LL(\theta^{(t+1)})\geqslant B(\theta^{(t+1)},\theta^{(t)})\geqslant B(\theta^{(t)},\theta^{(t)})=LL(\theta^{(t)})
+
+$$
+
+
+
+
+$$
+
+LL(\theta^{(t+1)})\geqslant LL(\theta^{(t)})
+
+$$
+
+
+因此,任何能使得$B(\theta,\theta^{(t)})$增大的$\theta$,也可以使得$LL(\theta)$增大,于是问题就转化为了求解能使得$B(\theta,\theta^{(t)})$达到极大的$\theta^{(t+1)}$,即
+
+
+$$
+
+\begin{aligned}
+\theta^{(t+1)}&=\mathop{\arg\max}_{\theta}B(\theta,\theta^{(t)}) \\
+&=\mathop{\arg\max}_{\theta}\left( LL(\theta^{(t)})+\sum_Z P(Z\vert X,\theta^{(t)})\ln \cfrac{P(X\vert Z,\theta)P(Z\vert \theta)}{P(Z\vert X,\theta^{(t)})P(X\vert\theta^{(t)})}\right)
+\end{aligned}
+
+$$
+
+ 略去对$\theta$极大化而言是常数的项 
+
+$$
+
+\begin{aligned}
+\theta^{(t+1)}&=\mathop{\arg\max}_{\theta}\left(\sum_Z P(Z\vert X,\theta^{(t)})\ln\left( P(X\vert Z,\theta)P(Z\vert \theta)\right)\right) \\
+&=\mathop{\arg\max}_{\theta}\left(\sum_Z P(Z\vert X,\theta^{(t)})\ln P(X,Z\vert \theta)\right) \\
+&=\mathop{\arg\max}_{\theta}Q(\theta,\theta^{(t)})
+\end{aligned}
+
+$$
+
+
+到此即完成了EM算法的一次迭代,求出的$\theta^{(t+1)}$作为下一次迭代的初始$\theta^{(t)}$。综上,EM算法的"E步"和"M步"可总结为以下两步。
+
+E步:计算完全数据的对数似然函数$\ln P(X,Z\vert \theta)$关于在给定观测数据$X$和当前参数$\theta^{(t)}$下对未观测数据$Z$的条件概率分布$P(Z\vert X,\theta^{(t)})$的期望$Q(\theta,\theta^{(t)})$:
+
+
+$$
+
+Q(\theta,\theta^{(t)})=\mathbb{E}_Z[\ln P(X,Z\vert \theta)\vert X,\theta^{(t)}]=\sum_Z P(Z\vert X,\theta^{(t)})\ln P(X,Z\vert \theta)
+
+$$
+
+
+
+M步:求使得$Q(\theta,\theta^{(t)})$达到极大的$\theta^{(t+1)}$。
+
+接下来给出CS229中的推导方法,设$z_i$的概率质量函数为$Q_i(z_i)$,则$LL(\theta)$可以作如下恒等变形
+
+
+$$
+
+\begin{aligned} 
+LL(\theta) &=\sum_{i=1}^{m} \ln p(x_i; \theta) \\ 
+&=\sum_{i=1}^{m} \ln \sum_{z_i} p(x_i, z_i; \theta) \\
+&=\sum_{i=1}^{m} \ln \sum_{z_i} Q_i(z_i)\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)} \\
+\end{aligned}
 
-## 7.34
-$$LL(\mathbf{\Theta}|\mathbf{X},\mathbf{Z})=\ln P(\mathbf{X},\mathbf{Z}|\mathbf{\Theta})$$
-[解析]:EM算法这一节建议以李航老师的《统计学习方法》为主,西瓜书为辅进行学习。
+$$
 
-## 附录
-### ①贝叶斯估计<sup>[1]</sup>
-贝叶斯学派视角下的一类点估计法称为贝叶斯估计,常用的贝叶斯估计有最大后验估计(Maximum A Posteriori Estimation,简称MAP)、后验中位数估计和后验期望值估计这3种参数估计方法,下面给出这3种方法的具体定义。设总体的概率质量函数(若总体的分布为连续型时则改为概率密度函数,此处以离散型为例)为$P(x|\theta)$,从该总体中抽取出的$n$个独立同分布的样本构成的样本集为$D=\{x_1,x_2,...,x_n\}$,则根据贝叶斯公式可得在给定样本集$D$的条件下,$\theta$的条件概率为
-$$P(\theta|D)=\frac{P(D|\theta)P(\theta)}{P(D)}=\frac{P(D|\theta)P(\theta)}{\sum_{\theta}P(D|\theta)P(\theta)}$$
-其中$P(D|\theta)$为似然函数,由于样本集$D$中的样本是独立同分布的,所以似然函数可以进一步展开
-$$P(\theta|D)=\frac{P(D|\theta)P(\theta)}{\sum_{\theta}P(D|\theta)P(\theta)}=\frac{\prod_{i=1}^{n}P(x_i|\theta) P(\theta)}{\sum_{\theta}\prod_{i=1}^{n}P(x_i|\theta)P(\theta)}$$
-根据贝叶斯学派的观点,此条件概率代表了我们在已知样本集$D$后对$\theta$产生的新的认识,它综合了我们对$\theta$主观预设的先验概率$P(\theta)$和样本集$D$带来的信息,通常称其为$\theta$的后验概率。贝叶斯学派认为,在得到$P(\theta|D)$以后,对参数$\theta$的任何统计推断,都只能基于$P(\theta|D)$。至于具体如何去使用它,可以结合某种准则一起去进行,统计学家也有一定的自由度。对于点估计来说,求使得$P(\theta|D)$达到最大值的$\hat{\theta}_{MAP}$作为$\theta$的估计称为最大后验估计;求$P(\theta|D)$的中位数$\hat{\theta}_{Median}$作为$\theta$的估计称为后验中位数估计;求$P(\theta|D)$的期望值(均值)$\hat{\theta}_{Mean}$作为$\theta$的估计称为后验期望值估计。
 
-### ②Categorical分布<sup>[2]</sup>
-Categorical分布又称为广义伯努利分布,是将伯努利分布中的随机变量可取值个数由两个泛化为多个得到的分布。具体地,设离散型随机变量$X$共有$k$种可能的取值$\{x_1,x_2,...,x_k\}$,且$X$取到每个值的概率分别为$P(X=x_1)=\theta_1,P(X=x_2)=\theta_2,...,P(X=x_k)=\theta_k$,则称随机变量$X$服从参数为$\theta_1,\theta_2,...,\theta_k$的Categorical分布,其概率质量函数为
-$$P(X=x_i)=P(x_i)=\theta_i$$
+其中$\sum_{z_i} Q_i(z_i)\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}$可以看做是对$\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}$关于$z_i$求期望,即
+
+
+$$
+
+\sum_{z_i} Q_i(z_i)\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}=\mathbb{E}_{z_i}\left[\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}\right]
+
+$$
+
+
+由Jensen不等式可得
+
+
+$$
+
+\ln\left(\mathbb{E}_{z_i}\left[\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}\right]\right)\geqslant \mathbb{E}_{z_i}\left[\ln\left(\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}\right)\right]
+
+$$
+
+
+
+
+$$
+
+\ln\sum_{z_i} Q_i(z_i)\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}\geqslant \sum_{z_i} Q_i(z_i)\ln\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}
+
+$$
+
+
+将此式代入$LL(\theta)$可得 
+
+$$
+
+\begin{aligned} 
+LL(\theta) &=\sum_{i=1}^{m} \ln \sum_{z_i} Q_i(z_i)\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}\geqslant \sum_{i=1}^{m}\sum_{z_i} Q_i(z_i)\ln\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)} \quad \textcircled{1}
+\end{aligned}
+
+$$
+
+
+若令$B(\theta)=\sum\limits_{i=1}^{m}\sum\limits_{z_i} Q_i(z_i)\ln\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}$,则此时$B(\theta)$为$LL(\theta)$的下界函数,那么这个下界函数所能构成的最优下界是多少?即$B(\theta)$的最大值是多少?显然,$B(\theta)$是$LL(\theta)$的下界函数,反过来$LL(\theta)$是其上界函数,所以如果能使得$B(\theta)=LL(\theta)$,则此时的$B(\theta)$就取到了最大值。根据Jensen不等式的性质可知,如果能使得$\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}$恒等于某个常量$c$,大于等于号便可以取到等号。因此,只需任意选取满足$\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}=c$的$Q_i(z_i)$就能使得$B(\theta)$达到最大值。由于$Q_i(z_i)$是$z_i$的概率质量函数,所以$Q_i(z_i)$同时也满足约束$0\leqslant Q_i(z_i)\leqslant 1,\sum_{z_i} Q_i(z_i)=1$,结合$Q_i(z_i)$的所有约束可以推得
+
+
+$$
+
+\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}=c
+
+$$
+
+
+
+
+$$
+
+p(x_i, z_i; \theta)=c\cdot Q_i(z_i)
+
+$$
+
+
+
+
+$$
+
+\sum_{z_i}p(x_i, z_i; \theta)=c\cdot \sum_{z_i}Q_i(z_i)
+
+$$
+
+
+
+
+$$
+
+\sum_{z_i}p(x_i, z_i; \theta)=c
+
+$$
+
+
+
+
+$$
+
+\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)}=\sum_{z_i}p(x_i, z_i; \theta)
+
+$$
+
+
+
+
+$$
+
+Q_i(z_i)=\cfrac{p(x_i, z_i; \theta)}{\sum\limits_{z_i}p(x_i, z_i; \theta)}=\cfrac{p(x_i, z_i; \theta)}{p(x_i; \theta)}=p(z_i|x_i; \theta)
+
+$$
+
+
+所以,当且仅当$Q_i(z_i)=p(z_i|x_i; \theta)$时$B(\theta)$取到最大值,将$Q_i(z_i)=p(z_i|x_i; \theta)$代回$LL(\theta)$和$B(\theta)$可以推得
+
+
+$$
+
+\begin{aligned} 
+LL(\theta) &=\sum_{i=1}^{m} \ln \sum_{z_i} Q_i(z_i)\cfrac{p(x_i, z_i; \theta)}{Q_i(z_i)} & \quad \textcircled{2}\\
+&=\sum_{i=1}^{m} \ln \sum_{z_i}p(z_i|x_i; \theta)\cfrac{p(x_i, z_i; \theta)}{p(z_i|x_i; \theta)} & \quad \textcircled{3}\\
+&=\sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i; \theta)\ln\cfrac{p(x_i, z_i; \theta)}{p(z_i|x_i; \theta)} & \quad \textcircled{4}\\
+&=\max\{B(\theta)\} & \quad \textcircled{5} \\
+\end{aligned}
+
+$$
+
+
+其中式$\textcircled{4}$是式$\textcircled{1}$中不等式取等号时的情形。由以上推导可知,此时对数似然函数$LL(\theta)$等价于其下界函数的最大值$\max\{B(\theta)\}$,所以要想极大化$LL(\theta)$可以通过极大化$\max\{B(\theta)\}$来间接极大化$LL(\theta)$,因此,下面考虑如何极大化$\max\{B(\theta)\}$。假设已知第$t$次迭代的参数为$\theta^{(t)}$,而第$t+1$次迭代的参数$\theta^{(t+1)}$可通过如下方式求得
+
+
+$$
+
+\begin{aligned} 
+\theta^{(t+1)}&=\arg\max_{\theta}\max\{B(\theta)\}  & \quad \textcircled{6}\\
+&=\arg\max_{\theta}\sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i;\theta^{(t)})\ln\cfrac{p(x_i, z_i; \theta)}{p(z_i|x_i; \theta^{(t)})}  & \quad \textcircled{7}\\
+&=\arg\max_{\theta}\sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i;\theta^{(t)})\ln p(x_i, z_i; \theta) & \quad \textcircled{8}
+\end{aligned}
+
+$$
+
+ 此时将$\theta^{(t+1)}$代入$LL(\theta)$可推得
+
+
+$$
+
+\begin{aligned} 
+LL(\theta^{(t+1)}) &=\max\{B(\theta^{(t+1)})\} &\quad\textcircled{9} \\
+&=\sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i; \theta^{(t+1)})\ln\cfrac{p(x_i, z_i; \theta^{(t+1)})}{p(z_i|x_i; \theta^{(t+1)})} &\quad\textcircled{10}\\
+&\geqslant \sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i; \theta^{(t)})\ln\cfrac{p(x_i, z_i; \theta^{(t+1)})}{p(z_i|x_i; \theta^{(t)})} &\quad\textcircled{11}\\
+&\geqslant \sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i; \theta^{(t)})\ln\cfrac{p(x_i, z_i; \theta^{(t)})}{p(z_i|x_i; \theta^{(t)})} &\quad\textcircled{12}\\
+&=\max\{B(\theta^{(t)})\} &\quad\textcircled{13} \\
+&=LL(\theta^{(t)})&\quad\textcircled{14}
+\end{aligned}
+
+$$
+
+
+其中,式$\textcircled{9}$和式$\textcircled{10}$分别由式$\textcircled{5}$和式$\textcircled{4}$推得,式$\textcircled{11}$由式$\textcircled{1}$推得,式$\textcircled{12}$由式$\textcircled{7}$推得,式$\textcircled{13}$和式$\textcircled{14}$由式$\textcircled{2}$至式$\textcircled{5}$推得。此时若令
+
+
+$$
+
+Q(\theta,\theta^{(t)})=\sum_{i=1}^{m}\sum_{z_i} p(z_i|x_i; \theta^{(t)})\ln p(x_i, z_i; \theta)
+
+$$
+
+
+由式$\textcircled{9}$至式$\textcircled{14}$可知,凡是能使得$Q(\theta,\theta^{(t)})$达到极大的$\theta^{(t+1)}$一定能使得$LL(\theta^{(t+1)})\geqslant LL(\theta^{(t)})$。综上,EM算法的"E步"和"M步"可总结为以下两步。
+
+E步:令$Q_i(z_i)=p(z_i|x_i; \theta)$并写出$Q(\theta,\theta^{(t)})$;
+
+M步:求使得$Q(\theta,\theta^{(t)})$到达极大的$\theta^{(t+1)}$。
+
+以上便是EM算法的两种推导方法,下面证明两种推导方法中的$Q$函数相等。
+
+
+$$
+
+\begin{aligned} Q(\theta|\theta^{(t)})&=\sum_Z P(Z|X,\theta^{(t)})\ln P(X,Z|\theta) \\
+&=\sum_{z_1,z_2,...,z_m}\left\{\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\ln\left[ \prod_{i=1}^m P(x_i,z_i|\theta) \right] \right\} \\
+&=\sum_{z_1,z_2,...,z_m}\left\{\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\left[ \sum_{i=1}^m\ln P(x_i,z_i|\theta) \right] \right\} \\
+&=\sum_{z_1,z_2,...,z_m}\left\{\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\left[\ln P(x_1,z_1|\theta) + \ln P(x_2,z_2|\theta) +...+ \ln P(x_m,z_m|\theta)\right] \right\} \\
+&=\sum_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right]+...+\sum_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_m,z_m|\theta) \right]  \\
+\end{aligned}
+
+$$
+
+
+其中$\sum\limits_{z_1,z_2,...,z_m}\left[\prod\limits_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right]$可作如下恒等变形:
+
+
+$$
+
+\begin{aligned} 
+&\sum\limits_{z_1,z_2,...,z_m}\left[\prod\limits_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right] \\
+=&\sum\limits_{z_1,z_2,...,z_m}\left[\prod_{i=2}^mP(z_i|x_i,\theta^{(t)})\cdot P(z_1|x_1,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right] \\
+=&\sum_{z_1}\sum\limits_{z_2,...,z_m}\left[\prod_{i=2}^mP(z_i|x_i,\theta^{(t)})\cdot P(z_1|x_1,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right] \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta) \sum\limits_{z_2,...,z_m}\left[\prod_{i=2}^mP(z_i|x_i,\theta^{(t)}) \right] \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta)\sum\limits_{z_2,...,z_m}\left[\prod_{i=3}^mP(z_i|x_i,\theta^{(t)})\cdot P(z_2|x_2,\theta^{(t)}) \right] \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta) \left\{\sum\limits_{z_2}\sum\limits_{z_3,...,z_m}\left[\prod_{i=3}^mP(z_i|x_i,\theta^{(t)})\cdot P(z_2|x_2,\theta^{(t)}) \right]\right\} \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta) \left\{\sum_{z_2}P(z_2|x_2,\theta^{(t)}) \sum\limits_{z_3,...,z_m}\left[\prod_{i=3}^mP(z_i|x_i,\theta^{(t)})\right]\right\} \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta) \left\{\sum_{z_2}P(z_2|x_2,\theta^{(t)})\times\sum_{z_3}P(z_3|x_3,\theta^{(t)})\times...\times\sum_{z_m}P(z_m|x_m,\theta^{(t)})\right\} \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta)\times \left\{1\times1\times...\times1\right\} \\
+=&\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta)  \\
+\end{aligned}
+
+$$
+
+ 所以
+
+
+$$
+
+\sum\limits_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right]=\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta)
+
+$$
+
+
+同理可得 
+
+$$
+
+\begin{aligned} 
+\sum\limits_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_2,z_2|\theta) \right] &=\sum_{z_2}P(z_2|x_2,\theta^{(t)})\ln P(x_2,z_2|\theta) \\
+&\vdots\\
+\sum\limits_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_m,z_m|\theta) \right] &=\sum_{z_m}P(z_m|x_m,\theta^{(t)})\ln P(x_m,z_m|\theta)
+\end{aligned}
+
+$$
+
+ 将上式代入$Q(\theta|\theta^{(t)})$可得
+
+
+$$
+
+\begin{aligned} 
+Q(\theta|\theta^{(t)})&=\sum_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_1,z_1|\theta) \right]+...+\sum_{z_1,z_2,...,z_m}\left[\prod_{i=1}^mP(z_i|x_i,\theta^{(t)})\cdot\ln P(x_m,z_m|\theta) \right]  \\
+&=\sum_{z_1}P(z_1|x_1,\theta^{(t)})\ln P(x_1,z_1|\theta) +...+\sum_{z_m}P(z_m|x_m,\theta^{(t)})\ln P(x_m,z_m|\theta) \\
+&=\sum_{i=1}^m\sum_{z_i}P(z_i|x_i,\theta^{(t)})\ln P(x_i,z_i|\theta)\\
+\end{aligned}
+
+$$
 
-### ③Dirichlet分布<sup>[3]</sup>
-类似于Categorical分布是伯努利分布的泛化形式,Dirichlet分布是Beta分布<sup>[4]</sup>的泛化形式。对于一个$k$维随机变量$\boldsymbol{x}=(x_1,x_2,...,x_k)\in \mathbb{R}^{k}$,其中$x_i(i=1,2,...,k)$满足$0\leqslant x_i \leqslant 1,\sum_{i=1}^{k}x_i=1$,若$\boldsymbol{x}$服从参数为$\boldsymbol{\alpha}=(\alpha_1,\alpha_2,...,\alpha_k)\in \mathbb{R}^{k}$的Dirichlet分布,则其概率密度函数为
-$$p(\boldsymbol{x};\boldsymbol{\alpha})=\frac{\Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}{\prod _{i=1}^{k}\Gamma (\alpha _{i})}\prod _{i=1}^{k}x_{i}^{\alpha _{i}-1}$$
-其中$\Gamma (z)=\int _{0}^{\infty }x^{z-1}e^{-x}dx$为Gamma函数<sup>[5]</sup>,当$\boldsymbol{\alpha}=(1,1,...,1)$时,Dirichlet分布等价于均匀分布。
 
 ## 参考文献
-[1]陈希孺编著.概率论与数理统计[M].中国科学技术大学出版社,2009. <br>
-[2]https://en.wikipedia.org/wiki/Categorical_distribution <br>
-[3]https://en.wikipedia.org/wiki/Dirichlet_distribution <br>
-[4]https://en.wikipedia.org/wiki/Beta_distribution <br>
-[5]https://en.wikipedia.org/wiki/Gamma_function <br>
-[6]https://en.wikipedia.org/wiki/Conjugate_prior <br>
-[7]https://baike.baidu.com/item/%E5%85%B1%E8%BD%AD%E5%85%88%E9%AA%8C%E5%88%86%E5%B8%83 <br>
-[8]http://staff.ustc.edu.cn/~zwp/teach/MVA/Lec5_slides.pdf <br>
+[1] 陈希孺. 概率论与数理统计. 中国科学技术大学出版社, 2009.
+
+[2] 李航. 统计学习方法. 清华大学出版社, 2012.

+ 1562 - 172
docs/chapter8/chapter8.md

@@ -1,34 +1,58 @@
-## 8.1
+# 第8章 集成学习
 
-$$
-P\left(h_{i}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)=\epsilon
-$$
+集成学习(ensemble
+learning)描述的是组合多个基础的学习器(模型)的结果以达到更加鲁棒、效果更好的学习器。在"西瓜书"作者周志华教授的谷歌学术主页的top引用文章(图8-1)中,很大一部分都和集成学习有关。
 
-[解析]:$h_{i}(\boldsymbol{x})$是编号为$i$的基分类器给$x$的预测标记,$f(\boldsymbol{x})$是$x$的真实标记,它们之间不一致的概率记为$\epsilon$。
+![图8-1 周志华教授谷歌学术top10引用文章(截止到2023-02-19)](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/35577be0-f0ae-4875-9251-35eaa0c731b2-zhou_citation.svg)
 
-## 8.2
+在引用次数前10的文章中,第1名"Top 10 algorithms in data
+mining"是在ICDM'06中投票选出的数据挖掘十大算法,每个提名算法均由业内专家代表去阐述,然后进行投票,其中最终得票排名第7位的"Adaboost"即由周志华教授作为代表进行阐述;第2名"Isolation
+forest"是通过集成学习的技术用来做异常检测。第3名的"Ensemble Methods:
+Foundations and
+Algorithms"则是周志华教授所著的集成学习专著。第6名"Ensembing neural
+networks: many could be better than
+all"催生了基于优化的集成修剪(ensemble pruning)技术;第7名的"Exploratory
+undersampling for class-imbalance
+learning"是以集成学习技术解决类别不平衡问题。
 
-$$
-H(\boldsymbol{x})=\operatorname{sign}\left(\sum_{i=1}^{T} h_{i}(\boldsymbol{x})\right)
-$$
+毫不夸张的说,周志华教授在集成学习领域深耕了很多年,是绝对的权威。而集成学习也是经受了时间考验的非常有效的算法,常常被各位竞赛同学作为涨点提分的致胜法宝。下面,让我们一起认真享受"西瓜书"作者最拿手的集成学习章节吧。
 
-[解析]:$h_i(\boldsymbol{x})$当把$\boldsymbol{x}$分成1时,$h_i(\boldsymbol{x})=1$,否则$h_i(\boldsymbol{x})=-1$。各个基分类器$h_i$的分类结果求和之后数字的正、负或0,代表投票法产生的结果,即“少数服从多数”,符号函数$\operatorname{sign}$,将正数变成1,负数变成-1,0仍然是0,所以$H(\boldsymbol{x})$是由投票法产生的分类结果。
+## 8.1 个体与集成
 
-## 8.3
+基学习器(base
+learner)的概念在论文中经常出现,可留意一下;另外,本节提到的投票法有两种,除了本节的多数投票(majority
+voting),还有概率投票(probability
+voting),这两点在8.4节中均会提及,即硬投票和软投票。
+
+### 8.1.1 式(8.1)的解释
+
+$h_{i}(\boldsymbol{x})$是编号为$i$的基分类器给$x$的预测标记,$f(\boldsymbol{x})$是$x$的真实标记,它们之间不一致的概率记为$\epsilon$。
+
+### 8.1.2 式(8.2)的解释
+
+注意到当前仅针对二分类问题 $y \in\{-1,+1\}$, 即预测标记
+$h_i(\boldsymbol{x}) \in\{-1,+1\}$
+。各个基分类器$h_i$的分类结果求和之后结果的正、负或0,代表投票法产生的结果,即"少数服从多数",符号函数$\operatorname{sign}$,将正数变成1,负数变成-1,0仍然是0,所以$H(\boldsymbol{x})$是由投票法产生的分类结果。
+
+### 8.1.3 式(8.3)的推导
+
+由基分类器相互独立,假设随机变量$X$为$T$个基分类器分类正确的次数,因此随机变量$\mathrm{X}$服从二项分布:$\mathrm{X} \sim \mathcal{B}(\mathrm{T}, 1-\mathrm{\epsilon})$,设$x_i$为每一个分类器分类正确的次数,则$x_i\sim \mathcal{B}(1, 1-\mathrm{\epsilon})(i=1,2,3,...,\mathrm{T})$,那么有
 
-$$
-\begin{aligned} P(H(\boldsymbol{x}) \neq f(\boldsymbol{x})) &=\sum_{k=0}^{\lfloor T / 2\rfloor} \left( \begin{array}{c}{T} \\ {k}\end{array}\right)(1-\epsilon)^{k} \epsilon^{T-k} \\ & \leqslant \exp \left(-\frac{1}{2} T(1-2 \epsilon)^{2}\right) \end{aligned}
-$$
 
-[推导]:由基分类器相互独立,假设随机变量$X$为$T$个基分类器分类正确的次数,因此随机变量$\mathrm{X}$服从二项分布:$\mathrm{X} \sim \mathcal{B}(\mathrm{T}, 1-\mathrm{\epsilon})$,设$x_i$为每一个分类器分类正确的次数,则$x_i\sim \mathcal{B}(1, 1-\mathrm{\epsilon})(i=1,2,3,...,\mathrm{T})$,那么有
 $$
+
 \begin{aligned}
 \mathrm{X}&=\sum_{i=1}^{\mathrm{T}} x_i\\
 \mathbb{E}(X)&=\sum_{i=1}^{\mathrm{T}}\mathbb{E}(x_i)=(1-\epsilon)T
 \end{aligned}
+
 $$
-则:
+
+ 证明过程如下:
+
+
 $$
+
 \begin{aligned} P(H(x) \neq f(x))=& P(X \leq\lfloor T / 2\rfloor) \\ & \leqslant P(X \leq T / 2)
 \\ & =P\left[X-(1-\epsilon) T \leqslant \frac{T}{2}-(1-\epsilon) T\right] 
 \\ & =P\left[X-
@@ -38,63 +62,87 @@ $$
 \\ &=P\left[\frac{1}{\mathrm{T}}\sum_{i=1}^{\mathrm{T}} x_i-\frac{1}{\mathrm{T}}
 \sum_{i=1}^{\mathrm{T}}\mathbb{E}(x_i) \leqslant -\frac{1}{2}\left(1-2\epsilon\right)]\right]
  \end{aligned}
+
 $$
-根据Hoeffding不等式知
+
+ 根据Hoeffding不等式知
+
+
 $$
+
 P\left(\frac{1}{m} \sum_{i=1}^{m} x_{i}-\frac{1}{m} \sum_{i=1}^{m} \mathbb{E}\left(x_{i}\right) \leqslant -\delta\right) \leqslant  \exp \left(-2 m \delta^{2}\right)
+
 $$
+
+
 令$\delta=\frac {(1-2\epsilon)}{2},m=T$得
+
+
 $$
+
 \begin{aligned} P(H(\boldsymbol{x}) \neq f(\boldsymbol{x})) &=\sum_{k=0}^{\lfloor T / 2\rfloor} \left( \begin{array}{c}{T} \\ {k}\end{array}\right)(1-\epsilon)^{k} \epsilon^{T-k} \\ & \leqslant \exp \left(-\frac{1}{2} T(1-2 \epsilon)^{2}\right) \end{aligned}
+
 $$
 
-## 8.4
 
-$$
-H(\boldsymbol{x})=\sum_{t=1}^{T} \alpha_{t} h_{t}(\boldsymbol{x})
-$$
 
+## 8.2 Boosting
 
+注意8.1节最后一段提到:根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类,即个体学习器间存在强依赖关系、必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系、可同时生成的并行化方法。
 
-[解析]:这个式子是集成学习的加性模型,加性模型不采用梯度下降的思想,而是$H(\boldsymbol{x})=\sum_{t=1}^{T-1} \alpha_{t} h_{t}(\boldsymbol{x})+\alpha_{T}h_{T}(\boldsymbol{x})$每次更新求解一个理论上最优的$h_T$(见式8.18)和$\alpha_T$(见式8.11)
+本节Boosting为前者的代表,Adaboost又是Boosting族算法的代表。
 
-## 8.5
+### 8.2.1 式(8.4)的解释
 
-$$
-\ell_{\mathrm{exp}}(H | \mathcal{D})=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}\right]
-$$
+这个式子是集成学习的加性模型,加性模型不采用梯度下降的思想,而是$H(\boldsymbol{x})=\sum_{t=1}^{T-1} \alpha_{t} h_{t}(\boldsymbol{x})+\alpha_{T}h_{T}(\boldsymbol{x})$,共迭代$T$次,每次更新求解一个理论上最优的$h_T$和$\alpha_T$。**($h_T$和$\alpha_T$的定义参见式(8.18)和式(8.11))**
 
-[解析]:由式(8.4)知
-$$
-H(\boldsymbol{x})=\sum_{t=1}^{T} \alpha_{t} h_{t}(\boldsymbol{x})
-$$
-又由式(8.11)可知
-$$
-\alpha_{t}=\frac{1}{2} \ln \left(\frac{1-\epsilon_{t}}{\epsilon_{t}}\right)
-$$
-由$\ln$函数的单调性可知,该分类器的权重只与分类器的错误率负相关(即错误率越大,权重越低),下面解释指数损失函数的意义:
+### 8.2.2 式(8.5)的解释
+
+先考虑指数损失函数$e^{-f(x) H(x)}$的含义 **(参见"西瓜书"图6.5)**:$f$为真实函数,对于样本$x$来说,$f(\boldsymbol{x}) \in\{+1,-1\}$只能取$+1$和$-1$,而$H(\boldsymbol{x})$是一个实数。
+
+当$H(\boldsymbol{x})$的符号与$f(x)$一致时,$f(\boldsymbol{x}) H(\boldsymbol{x})>0$,因此$e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}=e^{-|H(\boldsymbol{x})|}<1$,且$|H(\boldsymbol{x})|$越大指数损失函数$e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}$越小。这很合理:此时$|H(\boldsymbol{x})|$越大意味着分类器本身对预测结果的信心越大,损失应该越小;若$|H(\boldsymbol{x})|$在零附近,虽然预测正确,但表示分类器本身对预测结果信心很小,损失应该较大;
+
+当$H(\boldsymbol{x})$的符号与$f(\boldsymbol{x})$不一致时,$f(\boldsymbol{x}) H(\boldsymbol{x})<0$,因此$e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}=e^{|H(\boldsymbol{x})|}>1$,且$| H(\boldsymbol{x}) |$越大指数损失函数越大。这很合理:此时$| H(\boldsymbol{x}) |$越大意味着分类器本身对预测结果的信心越大,但预测结果是错的,因此损失应该越大;若$| H(\boldsymbol{x}) |$在零附近,虽然预测错误,但表示分类器本身对预测结果信心很小,虽然错了,损失应该较小。
+
+再解释符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\cdot]$的含义:$\mathcal{D}$为概率分布,可简单理解为在数据集$D$中进行一次随机抽样,每个样本被取到的概率;$\mathbb{E}[\cdot]$为经典的期望,则综合起来$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\cdot]$表示在概率分布$\mathcal{D}$上的期望,可简单理解为对数据集$D$以概率$\mathcal{D}$进行加权后的期望。
+
+综上所述, 若数据集 $D$ 中样本 $\boldsymbol{x}$ 的权值分布为
+$\mathcal{D}(\boldsymbol{x})$, 则式(8.5)可写为: 
 
-1. 先考虑指数损失函数$e^{-f(x) H(x)}$的含义:$f$为真实函数,对于样本$x$来说,$f(\boldsymbol{x}) \in\{+1,-1\}$只能取$+1$和$-1$,而$H(\boldsymbol{x})$是一个实数;
-   当$H(\boldsymbol{x})$的符号与$f(x)$一致时,$f(\boldsymbol{x}) H(\boldsymbol{x})>0$,因此$e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}=e^{-|H(\boldsymbol{x})|}<1$,且$|H(\boldsymbol{x})|$越大指数损失函数$e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}$越小(这很合理:此时$|H(\boldsymbol{x})|$越大意味着分类器本身对预测结果的信心越大,损失应该越小;若$|H(\boldsymbol{x})|$在零附近,虽然预测正确,但表示分类器本身对预测结果信心很小,损失应该较大);
-   当$H(\boldsymbol{x})$的符号与$f(\boldsymbol{x})$不一致时,$f(\boldsymbol{x}) H(\boldsymbol{x})<0$,因此$e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}=e^{|H(\boldsymbol{x})|}>1$,且$| H(\boldsymbol{x}) |$越大指数损失函数越大(这很合理:此时$| H(\boldsymbol{x}) |$越大意味着分类器本身对预测结果的信心越大,但预测结果是错的,因此损失应该越大;若$| H(\boldsymbol{x}) |$在零附近,虽然预测错误,但表示分类器本身对预测结果信心很小,虽然错了,损失应该较小);
-   
-2. 符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\cdot]$的含义:$\mathcal{D}$为概率分布,可简单理解为在数据集$D$中进行一次随机抽样,每个样本被取到的概率;$\mathbb{E}[\cdot]$为经典的期望,则综合起来$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\cdot]$表示在概率分布$\mathcal{D}$上的期望,可简单理解为对数据集$D$以概率$\mathcal{D}$进行加权后的期望。即
 $$
-  \begin{aligned}
-  \ell_{\exp }(H | \mathcal{D}) &=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}\right] \\
-  &=\sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}
-  \end{aligned}
+
+\begin{aligned}
+\ell_{\exp }(H \mid \mathcal{D}) & =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}\right] \\
+& =\sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H(\boldsymbol{x})} \\
+& =\sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x})\left(e^{-H(\boldsymbol{x})} \mathbb{I}(f(\boldsymbol{x})=1)+e^{H(\boldsymbol{x})} \mathbb{I}(f(\boldsymbol{x})=-1)\right)
+\end{aligned}
+
 $$
 
 
-## 8.6
+
+特别地, 若针对任意样本 $\boldsymbol{x}$, 若分布
+$\mathcal{D}(\boldsymbol{x})=\frac{1}{|D|}$, 其中 $|D|$ 为数据集 $D$
+样本个数, 则
+
 
 $$
-\frac{\partial \ell_{\exp }(H | \mathcal{D})}{\partial H(\boldsymbol{x})}=-e^{-H(\boldsymbol{x})} P(f(\boldsymbol{x})=1 | \boldsymbol{x})+e^{H(\boldsymbol{x})} P(f(\boldsymbol{x})=-1 | \boldsymbol{x})
+
+\ell_{\exp }(H \mid \mathcal{D})=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}\right]=\frac{1}{|D|} \sum_{\boldsymbol{x} \in D} e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}
+
 $$
 
-[解析]:由公式(8.5)中对于符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\cdot]$的解释可知
+
+
+而这就是在求传统平均值。
+
+### 8.2.3 式(8.6)的推导
+
+由式(8.5)中对于符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\cdot]$的解释可知
+
+
 $$
+
 \begin{aligned}
 \ell_{\exp }(H | \mathcal{D}) &=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}\right] \\
 &=\sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H(\boldsymbol{x})} \\
@@ -102,327 +150,1669 @@ $$
 &=\sum_{i=1}^{|D|} \left(e^{-H\left(\boldsymbol{x}_{i}\right)} \mathcal{D}\left(\boldsymbol{x}_{i}\right)\mathbb{I}\left(f\left(\boldsymbol{x}_{i}\right)=1\right)+e^{H\left(\boldsymbol{x}_{i}\right)} \mathcal{D}\left(\boldsymbol{x}_{i}\right)\mathbb{I}\left(f\left(\boldsymbol{x}_{i}\right)=-1\right)\right)\\
 &=\sum_{i=1}^{|D|} \left(e^{-H\left(\boldsymbol{x}_{i}\right)} P\left(f\left(\boldsymbol{x}_{i}\right)=1 \mid \boldsymbol{x}_{i}\right)+e^{H\left(\boldsymbol{x}_{i}\right)} P\left(f\left(\boldsymbol{x}_{i}\right)=-1 \mid \boldsymbol{x}_{i}\right)\right)
 \end{aligned}
+
 $$
 
-其中$\mathcal{D}\left(\boldsymbol{x}_{i}\right)\mathbb{I}\left(f\left(\boldsymbol{x}_{i}\right)=1\right)=P\left(f\left(\boldsymbol{x}_{i}\right)=1 \mid \boldsymbol{x}_{i}\right)$可以这样理解:
 
+其中$\mathcal{D}\left(\boldsymbol{x}_{i}\right)\mathbb{I}\left(f\left(\boldsymbol{x}_{i}\right)=1\right)=P\left(f\left(\boldsymbol{x}_{i}\right)=1 \mid \boldsymbol{x}_{i}\right)$可以这样理解:
 $\mathcal{D}(x_i)$表示在数据集$D$中进行一次随机抽样,样本$x_i$被取到的概率,$\mathcal{D}\left(\boldsymbol{x}_{i}\right)\mathbb{I}\left(f\left(\boldsymbol{x}_{i}\right)=1\right)$表示在数据集$D$中进行一次随机抽样,使得$f(x_i)=1$的样本$x_i$被抽到的概率,即为$P\left(f\left(\boldsymbol{x}_{i}\right)=1 \mid \boldsymbol{x}_{i}\right)$。
 
 当对$H(x_i)$求导时,求和号中只有含$x_i$项不为0,由求导公式
+
+
 $$
+
 \frac{\partial e^{-H(\boldsymbol{x})}}{\partial H(\boldsymbol{x})}=-e^{-H(\boldsymbol{x})}\qquad \frac{\partial e^{H(\boldsymbol{x})}}{\partial H(\boldsymbol{x})}=e^{H(\boldsymbol{x})}
+
 $$
+
+
+
+
 $$
+
 \frac{\partial \ell_{\exp }(H | \mathcal{D})}{\partial H(\boldsymbol{x})}=-e^{-H(\boldsymbol{x})} P(f(\boldsymbol{x})=1 | \boldsymbol{x})+e^{H(\boldsymbol{x})} P(f(\boldsymbol{x})=-1 | \boldsymbol{x})
+
 $$
 
-## 8.7
+
+
+### 8.2.4 式(8.7)的推导
+
+令式(8.6)等于零:
+
 
 $$
-H(\boldsymbol{x})=\frac{1}{2} \ln \frac{P(f(x)=1 | \boldsymbol{x})}{P(f(x)=-1 | \boldsymbol{x})}
+
+\quad-e^{-H(\boldsymbol{x})} P(f(\boldsymbol{x})=1 \mid \boldsymbol{x})+e^{H(\boldsymbol{x})} P(f(\boldsymbol{x})=-1 \mid \boldsymbol{x})=0
+
 $$
 
-[解析]:令式(8.6)等于0,移项并分离$H(\boldsymbol{x})$,即可得到式(8.7)。
 
-## 8.8
+移项:
+
 
 $$
-\begin{aligned}
-\operatorname{sign}(H(\boldsymbol{x}))&=\operatorname{sign}\left(\frac{1}{2} \ln \frac{P(f(x)=1 | \boldsymbol{x})}{P(f(x)=-1 | \boldsymbol{x})}\right)
-\\ & =\left\{\begin{array}{ll}{1,} & {P(f(x)=1 | \boldsymbol{x})>P(f(x)=-1 | \boldsymbol{x})} \\ {-1,} & {P(f(x)=1 | \boldsymbol{x})<P(f(x)=-1 | \boldsymbol{x})}\end{array}\right.
-\\ & =\underset{y \in\{-1,1\}}{\arg \max } P(f(x)=y | \boldsymbol{x})
-\end{aligned}
+
+\quad e^{H(\boldsymbol{x})} P(f(\boldsymbol{x})=-1 \mid \boldsymbol{x})=e^{-H(\boldsymbol{x})} P(f(\boldsymbol{x})=1 \mid \boldsymbol{x})
+
 $$
 
-[解析]:第一行到第二行显然成立,第二行到第三行是利用了$\arg\max$函数的定义。$\underset{y \in\{-1,1\}}{\arg \max } P(f(x)=y | \boldsymbol{x})$表示使得函数$P(f(x)=y | \boldsymbol{x})$取得最大值的$y$的值,展开刚好是第二行的式子。
 
-## 8.9
+两边同乘
+$\frac{e^{H(\boldsymbol{x})}}{P(f(\boldsymbol{x})=-1 \mid \boldsymbol{x})}$:
+
 
 $$
-\begin{aligned}
-\ell_{\exp }\left(\alpha_{t} h_{t} | \mathcal{D}_{t}\right) &=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left[e^{-f(\boldsymbol{x}) \alpha_{t} h_{t}(\boldsymbol{x})}\right] \\
-&=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left[e^{-\alpha_{t}} \mathbb{I}\left(f(\boldsymbol{x})=h_{t}(\boldsymbol{x})\right)+e^{\alpha_{t}} \mathbb{I}\left(f(\boldsymbol{x}) \neq h_{t}(\boldsymbol{x})\right)\right] \\
-&=e^{-\alpha_{t}} P_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left(f(\boldsymbol{x})=h_{t}(\boldsymbol{x})\right)+e^{\alpha_{t}} P_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left(f(\boldsymbol{x}) \neq h_{t}(\boldsymbol{x})\right) \\
-&=e^{-\alpha_{t}}\left(1-\epsilon_{t}\right)+e^{\alpha_{t}} \epsilon_{t}
-\end{aligned}
+
+\quad e^{2 H(\boldsymbol{x})}=\frac{P(f(\boldsymbol{x})=1 \mid \boldsymbol{x})}{P(f(\boldsymbol{x})=-1 \mid \boldsymbol{x})}
+
 $$
 
-[解析]:$\epsilon_t$与式(8.1)一致,表示$h_t(\boldsymbol{x})$分类错误的概率。
 
-## 8.10
+取 $\ln (\cdot)$:
+
 
 $$
-\frac{\partial \ell_{\exp }\left(\alpha_{t} h_{t} | \mathcal{D}_{t}\right)}{\partial \alpha_{t}}=-e^{-\alpha_{t}}\left(1-\epsilon_{t}\right)+e^{\alpha_{t}} \epsilon_{t}
+
+\quad 2 H(\boldsymbol{x})=\ln \frac{P(f(\boldsymbol{x})=1 \mid \boldsymbol{x})}{P(f(\boldsymbol{x})=-1 \mid \boldsymbol{x})}
+
 $$
 
-[解析]:指数损失函数对$\alpha_t$求偏导,为了得到使得损失函数取最小值时$\alpha_t$的值。
 
-## 8.11
+两边同乘 $\frac{1}{2}$ 即得式(8.7)。
+
+### 8.2.5 式(8.8)的推导
+
+
 
 $$
-\alpha_{t}=\frac{1}{2} \ln \left(\frac{1-\epsilon_{t}}{\epsilon_{t}}\right)
+
+\begin{aligned}
+\operatorname{sign}(H(\boldsymbol{x}))&=\operatorname{sign}\left(\frac{1}{2} \ln \frac{P(f(x)=1 | \boldsymbol{x})}{P(f(x)=-1 | \boldsymbol{x})}\right)
+\\ & =\left\{\begin{array}{ll}{1,} & {P(f(x)=1 | \boldsymbol{x})>P(f(x)=-1 | \boldsymbol{x})} \\ {-1,} & {P(f(x)=1 | \boldsymbol{x})<P(f(x)=-1 | \boldsymbol{x})}\end{array}\right.
+\\ & =\underset{y \in\{-1,1\}}{\arg \max } P(f(x)=y | \boldsymbol{x})
+\end{aligned}
+
 $$
 
-[解析]:令公式(8.10)等于0移项即得到的该式。此时$\alpha_t$的取值使得该基分类器经$\alpha_t$加权后的损失函数最小。
 
-## 8.12
+第一行到第二行显然成立,第二行到第三行是利用了$\arg\max$函数的定义。$\underset{y \in\{-1,1\}}{\arg \max } P(f(x)=y | \boldsymbol{x})$表示使得函数$P(f(x)=y | \boldsymbol{x}$)取得最大值的$y$的值,展开刚好是第二行的式子。
+
+这里解释一下贝叶斯错误率的概念。这来源于"西瓜书"P148的式(7.6)表示的贝叶斯最优分类器,可以发现式(8.8)的最终结果是式(7.6)的二分类特殊形式。
+
+到此为止,本节证明了指数损失函数是分类任务原本0/1损失函数的一致的替代损失函数,而指数损失函数有更好的数学性质,例如它是连续可微函数,因此接下来的式(8.9)至式(8.19)基于指数损失函数推导AdaBoost的理论细节。**(替代损失函数参见"西瓜书"P131图6.5)**
+
+### 8.2.6 式(8.9)的推导
+
+
 
 $$
+
 \begin{aligned}
-\ell_{\exp }\left(H_{t-1}+h_{t} | \mathcal{D}\right) &=\mathbb{E}_{x \sim \mathcal{D}}\left[e^{-f(x)\left(H_{t-1}(x)+h_{t}(x)\right)}\right] \\
-&=\mathbb{E}_{x \sim \mathcal{D}}\left[e^{-f(x) H_{t-1}(x)} e^{-f(x) h_{t}(x)}\right]
+\ell_{\exp }\left(\alpha_{t} h_{t} | \mathcal{D}_{t}\right) &=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left[e^{-f(\boldsymbol{x}) \alpha_{t} h_{t}(\boldsymbol{x})}\right] &\textcircled{1}\\
+&=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left[e^{-\alpha_{t}} \mathbb{I}\left(f(\boldsymbol{x})=h_{t}(\boldsymbol{x})\right)+e^{\alpha_{t}} \mathbb{I}\left(f(\boldsymbol{x}) \neq h_{t}(\boldsymbol{x})\right)\right] &\textcircled{2}\\
+&=e^{-\alpha_{t}} P_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left(f(\boldsymbol{x})=h_{t}(\boldsymbol{x})\right)+e^{\alpha_{t}} P_{\boldsymbol{x} \sim \mathcal{D}_{t}}\left(f(\boldsymbol{x}) \neq h_{t}(\boldsymbol{x})\right) &\textcircled{3}\\
+&=e^{-\alpha_{t}}\left(1-\epsilon_{t}\right)+e^{\alpha_{t}} \epsilon_{t} &\textcircled{4}
 \end{aligned}
+
 $$
 
-[解析]:将$H_{t}(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})+h_{t}(\boldsymbol{x})$代入公式(8.5)即可,因为理想的$h_t$可以纠正$H_{t-1}$的全部错误,所以这里指定其权重系数为1。如果权重系数$\alpha_t$是个常数的话,对后续结果也没有影响。
 
-## 8.13
+
+乍一看本式有些问题, 为什么要最小化
+$\ell_{\exp }\left(\alpha_t h_t \mid \mathcal{D}_t\right)$ ?
+"西瓜书"图8.3中的第 3 行的 表达式
+$h_t=\mathfrak{L}\left(D, \mathcal{D}_t\right)$ 不是代表着应该最小化
+$\ell_{\exp }\left(h_t \mid \mathcal{D}_t\right)$ 么? 或者从整体来看, 第
+$t$ 轮迭代 也应该最小化
+$\ell_{\exp }\left(H_t \mid \mathcal{D}\right)=\ell_{\exp }\left(H_{t-1}+\alpha_t h_t \mid \mathcal{D}\right)$,
+这样最终 $T$ 轮迭代结束后得到的式 (8.4)就可以最小化
+$\ell_{\exp }(H \mid \mathcal{D})$ 了。实际上, 理解了 AdaBoost
+之后就会发现, $\ell_{\exp }\left(\alpha_t h_t \mid \mathcal{D}_t\right)$
+与 $\ell_{\exp }\left(H_t \mid \mathcal{D}\right)$ 是等价的, 详见后面的
+"AdaBoost 的个人推导"。另外,
+$h_t=\mathfrak{L}\left(D, \mathcal{D}_t\right)$ 也 是推导的结论之一,
+即式(8.18), 而不是无缘无故靠直觉用
+$\mathfrak{L}\left(D, \mathcal{D}_t\right)$ 得到 $h_t$ 。
+
+暂且不管以上疑问, 权且按作者思路推导一下:
+
+$\textcircled{1}$与式(8.5)的区别仅在于到底针对
+$\alpha_t h_t(\boldsymbol{x})$ 还是 $H(\boldsymbol{x})$, 代入即可;
+
+$\textcircled{2}$是考虑到 $h_t(\boldsymbol{x})$ 和 $f(\boldsymbol{x})$
+均只能取 $-1$ 和 $+1$ 两个值, 其中 $\mathbb{I}(\cdot)$ 为指示函数;
+
+$\textcircled{3}$对中括号的两项分别求
+$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[\cdot]$, 而
+$e^{\alpha_t}$ 和 $e^{-\alpha_t}$ 与 $\boldsymbol{x}$ 无关,
+可以作为常数项拿到 $\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[$.$]$
+外面, 而
+$\mathbb{E}_{\boldsymbol{x}\sim\mathcal{D}_t}\left[\mathbb{I}\left(f(\boldsymbol{x})=h_t(\boldsymbol{x})\right)\right]$
+表示在数据集 $D$ 上、样本权值分布为 $\mathcal{D}_t$ 时
+$f(\boldsymbol{x})$ 和 $h_t(\boldsymbol{x})$ 相等次数的期望, 即
+$P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(f(\boldsymbol{x})=h_t(\boldsymbol{x})\right)$,
+也就是正确率, 即 $\left(1-\epsilon_t\right)$; 同理,
+$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}\left[\mathbb{I}\left(f(\boldsymbol{x}) \neq h_t(\boldsymbol{x})\right)\right]$
+表示在数据集 $D$ 上、样本权值分布为 $\mathcal{D}_t$ 时
+$f(\boldsymbol{x})$ 和 $h_t(\boldsymbol{x})$ 不相等次 数的期望, 即
+$P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(f(\boldsymbol{x}) \neq h_t(\boldsymbol{x})\right)$,
+也就是错误率 $\epsilon_t$;
+
+$\textcircled{4}$即为将
+$P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(f(\boldsymbol{x})=h_t(\boldsymbol{x})\right)$
+替换为 $\left(1-\epsilon_t\right)$ 、将
+$P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(f(\boldsymbol{x}) \neq h_t(\boldsymbol{x})\right)$
+替 换为 $\epsilon_t$ 的结果。
+
+注意本节符号略有混乱, 如前所述式(8.4)的 $H(\boldsymbol{x})$
+是连续实值函数, 但在"西瓜书"图8.3最后 一行的输出 $H(\boldsymbol{x})$
+明显只能取 $-1$ 和 $+1$ 两个值 (与式(8.2)相同),
+本节除了"西瓜书"图8.3最后一行的 输出之外, $H(\boldsymbol{x})$
+均以式(8.4)的连续实值函数为准。
+
+### 8.2.7 式(8.10)的解释
+
+指数损失函数对$\alpha_t$求偏导,为了得到使得损失函数取最小值时$\alpha_t$的值。
+
+### 8.2.8 式(8.11)的推导
+
+令公式(8.10)等于0移项即得到的该式。此时$\alpha_t$的取值使得该基分类器经$\alpha_t$加权后的损失函数最小。
+
+### 8.2.9 式(8.12)的解释
+
+本式的推导和原始论文[1]的推导略有差异,虽然并不影响后面式(8.18)以及式(8.19)的推导结果。AdaBoost
+第 $t$ 轮 迭代应该求解如下优化问题从而得到 $\alpha_t$ 和
+$h_t(\boldsymbol{x})$ :
+
 
 $$
-\ell_{\exp }\left(H_{t-1}+h_{t} | \mathcal{D}\right)=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(1-f(\boldsymbol{x}) h_{t}(\boldsymbol{x})+\frac{1}{2}\right)\right]
+
+\left(\alpha_t, h_t(\boldsymbol{x})\right)=\underset{\alpha, h}{\arg \min } \ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)
+
 $$
 
-[推导]:由$e^x$的二阶泰勒展开为$1+x+\frac{x^2}{2}+o(x^2)$得:
+
+对于该问题, 先对于固定的任意 $\alpha>0$, 求解 $h_t(\boldsymbol{x})$;
+得到 $h_t(\boldsymbol{x})$ 后再求 $\alpha_{t^{\circ}}$。
+
+在原始论文的第346页,对式(8.12)的推导如图8-2所示,可以发现原文献中保留了参数 $c$
+(即 $\alpha$ )。当然, 对于任意 $\alpha>0$, 并不影响推导结果。
+
+![图8-2 原始论文对式(8.12)的相关推导](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/c43a3a78-5e8c-4c90-bc61-00aa0a0f55b1-adaboost_proof_1.svg)
+
+如果暂且不管以上的差异,我们按照作者的思路推导的话,将$H_{t}(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})+h_{t}(\boldsymbol{x})$带入公式(8.5)即可,因为理想的$h_t$可以纠正$H_{t-1}$的全部错误,所以这里指定$h_t$其权重系数$\alpha_t$为1。如果权重系数$\alpha_t$是个常数的话,对后续结果也没有影响。
+
+### 8.2.10 式(8.13)的推导
+
+由$e^x$的二阶泰勒展开为$1+x+\frac{x^2}{2}+o(x^2)$得: 
+
 $$
+
 \begin{aligned}
 \ell_{\exp }\left(H_{t-1}+h_{t} | \mathcal{D}\right) &=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} e^{-f(\boldsymbol{x}) h_{t}(\boldsymbol{x})}\right]
 \\ & \simeq \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(1-f(\boldsymbol{x}) h_{t}(\boldsymbol{x})+\frac{f^{2}(\boldsymbol{x}) h_{t}^{2}(\boldsymbol{x})}{2}\right)\right]
 \end{aligned}
+
 $$
+
+
 因为$f(\boldsymbol{x})$与$h_t(\boldsymbol{x})$取值都为1或-1,所以$f^2(\boldsymbol{x})=h_t^2(\boldsymbol{x})=1$,所以得:
+
+
 $$
+
 \ell_{\exp }\left(H_{t-1}+h_{t} | \mathcal{D}\right)= \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(1-f(\boldsymbol{x}) h_{t}(\boldsymbol{x})+\frac{1}{2}\right)\right]
+
+$$
+
+
+
+实际上,此处保留一阶泰勒展开项即可,后面提到的Gradient
+Boosting理论框架就是只使用了一阶泰勒展开;当然二阶项为常数,也并不影响推导结果,原文献[1]中也保留了二阶项。
+
+### 8.2.11 式(8.14)的推导
+
+
+
+$$
+
+\begin{aligned}
+h_{t}(\boldsymbol{x})&=\underset{h}{\arg \min } \ell_{\exp }\left(H_{t-1}+h | \mathcal{D}\right)&\textcircled{1}\\
+&=\underset{h}{\arg \min } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(1-f(\boldsymbol{x}) h(\boldsymbol{x})+\frac{1}{2}\right)\right]&\textcircled{2}\\
+&=\underset{h}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right]&\textcircled{3}\\
+&=\underset{h}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]} f(\boldsymbol{x}) h(\boldsymbol{x})\right]&\textcircled{4}
+\end{aligned}
+
 $$
 
-## 8.14
+
+理想的$h_t(\boldsymbol{x})$是使得$H_{t}(\boldsymbol{x})$的指数损失函数取得最小值时的$h_t(\boldsymbol{x})$,该式将此转化成某个期望的最大值,其中:
+
+$\textcircled{2}$是将式(8.13)代入;
+
+$\textcircled{3}$是因为 
 
 $$
+
 \begin{aligned}
-h_{t}(\boldsymbol{x})&=\underset{h}{\arg \min } \ell_{\exp }\left(H_{t-1}+h | \mathcal{D}\right)\\
-&=\underset{h}{\arg \min } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(1-f(\boldsymbol{x}) h(\boldsymbol{x})+\frac{1}{2}\right)\right]\\
-&=\underset{h}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right]\\
-&=\underset{h}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]} f(\boldsymbol{x}) h(\boldsymbol{x})\right]
+& \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(1-f(\boldsymbol{x}) h(\boldsymbol{x})+\frac{1}{2}\right)\right] \\
+= & \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{3}{2} e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}-e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right] \\
+= & \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{3}{2} e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]-\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right]
 \end{aligned}
+
+$$
+
+ 本式自变量为 $h(\boldsymbol{x})$, 而
+$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{3}{2} e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]$
+与 $h(\boldsymbol{x})$ 无关, 也就是一个常数,因此只需最小大化第二项
+
+
+$$
+
+-\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right]
+
 $$
 
-[解析]:理想的$h_t(\boldsymbol{x})$是使得$H_{t}(\boldsymbol{x})$的指数损失函数取得最小值时的$h_t(\boldsymbol{x})$,该式将此转化成某个期望的最大值。第二个式子到第三个式子是因为$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{3}{2} e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]$与$h(\boldsymbol{x})$无关,是一个常数。第三个式子到最后一个式子是因为$\frac{1}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{3}{2} e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]}$与$h(\boldsymbol{x})$无关因此可以引入进来。
 
-## 8.16
+将负号去掉, 原最小化问题变为最大化问题;
+
+$\textcircled{4}$是因为
+$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]$
+是与自变量 $h(\boldsymbol{x})$ 无关的正常数 (因为指数函
+数与原问题等价,例如 $\arg \max _x\left(1-x^2\right)$ 与
+$\arg \max _x 2\left(1-x^2\right)$ 的结果均为 $\left.x=0\right)$。
+
+### 8.2.12 式(8.16)的推导
+
+首先解释下符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}$的含义,注意在本章中有两个符号$D$和$\mathcal{D}$,其中$D$表示数据集,而$\mathcal{D}$表示数据集$D$的样本分布,可以理解为在数据集$D$上进行一次随机采样,样本$x$被抽到的概率是$\mathcal{D}(x)$,那么符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}$表示的是在概率分布$\mathcal{D}$上的期望,可以简单地理解为对数据及$D$以概率$\mathcal{D}$加权之后的期望,因此有:
+
 
 $$
-\begin{aligned} h_{t}(\boldsymbol{x}) &=\underset{h}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]} f(\boldsymbol{x}) h(\boldsymbol{x})\right] \\ &=\underset{\boldsymbol{h}}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[f(\boldsymbol{x}) h(\boldsymbol{x})] \end{aligned}
+
+\mathbb{E}(g(\boldsymbol{x}))=\sum_{i=1}^{|D|}f(\boldsymbol{x}_i)g(\boldsymbol{x}_i)
+
 $$
 
-[推导]:首先解释下符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}$的含义,注意在本章中有两个符号$D$和$\mathcal{D}$,其中$D$表示数据集,而$\mathcal{D}$表示数据集$D$的样本分布,可以理解为在数据集$D$上进行一次随机采样,样本$x$被抽到的概率是$\mathcal{D}(x)$,那么符号$\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}$表示的是在概率分布$\mathcal{D}$上的期望,可以简单地理解为对数据及$D$以概率$\mathcal{D}$加权之后的期望,因此有:
+
+故可得
+
+
 $$
+
 \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H(\boldsymbol{x})}\right]=\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_{i}\right) e^{-f\left(\boldsymbol{x}_{i}\right) H\left(\boldsymbol{x}_{i}\right)}
+
 $$
+
+
 由式(8.15)可知
+
+
 $$
+
 \mathcal{D}_{t}\left(\boldsymbol{x}_{i}\right)=\mathcal{D}\left(\boldsymbol{x}_{i}\right) \frac{e^{-f\left(\boldsymbol{x}_{i}\right) H_{t-1}\left(\boldsymbol{x}_{i}\right)}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]}
+
 $$
 
+
 所以式(8.16)可以表示为
+
+
 $$
+
 \begin{aligned} & \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\frac{e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]} f(\boldsymbol{x}) h(\boldsymbol{x})\right] \\=& \sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_{i}\right) \frac{e^{-f\left(\boldsymbol{x}_{i}\right) H_{t-1}\left(\boldsymbol{x}_{i}\right)}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x}) }]  \right.}f(x_i)h(x_i) \\=& \sum_{i=1}^{|D|} \mathcal{D}_{t}\left(\boldsymbol{x}_{i}\right) f\left(\boldsymbol{x}_{i}\right) h\left(\boldsymbol{x}_{i}\right) \\=& \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[f(\boldsymbol{x}) h(\boldsymbol{x})] \end{aligned}
+
 $$
 
-## 8.17
 
-$$
-f(\boldsymbol{x}) h(\boldsymbol{x})=1-2 \mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))
-$$
 
-[解析]:当$f(\boldsymbol{x})=h(\boldsymbol{x})$时,$\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))=0$,$f(\boldsymbol{x}) h(\boldsymbol{x})=1$,当$f(\boldsymbol{x})\neq h(\boldsymbol{x})$时,$\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))=1$,$f(\boldsymbol{x}) h(\boldsymbol{x})=-1$。
+### 8.2.13 式(8.17)的推导
+
+当$f(\boldsymbol{x})=h(\boldsymbol{x})$时,$\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))=0$,$f(\boldsymbol{x}) h(\boldsymbol{x})=1$,$1-2\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))=1$;
+
+当$f(\boldsymbol{x})\neq h(\boldsymbol{x})$时,$\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))=1$,$f(\boldsymbol{x}) h(\boldsymbol{x})=-1$,$1-2\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))=-1$。
+
+综上,左右两式相等。
+
+### 8.2.14 式(8.18)的推导
+
+本式基于式(8.17)的恒等关系,由式(8.16)推导而来。
 
-## 8.18
 
 $$
-h_{t}(\boldsymbol{x})=\underset{h}{\arg \min } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))]
+
+\begin{aligned} \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[f(\boldsymbol{x}) h(\boldsymbol{x})] & =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[1-2 \mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))] \\ & =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[1]-2 \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))] \\ & =1-2 \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))]\end{aligned}
+
 $$
 
-[解析]:由公式(8.16) 和公式(8.17)有:
+
+
+类似于式(8.14)的第3个和第4个等号,由式(8.16)的结果开始推导:
+
+
 $$
+
 \begin{aligned}
 h_{t}(\boldsymbol{x}) &=\arg \max _{h} \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[f(\boldsymbol{x}) h(\boldsymbol{x})] \\
 &=\arg \max _{h}\left(1-2 \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))]\right) \\
 &=\underset{h}{\arg \max }\left(-2 \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))]\right) \\
 &=\arg \min \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t}}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))]
 \end{aligned}
+
 $$
 
-## 8.19
+
+
+此式表示理想的 $h_t(\boldsymbol{x})$ 在分布 $\mathcal{D}_t$
+下最小化分类误差, 因此有"西瓜书"图 8.3第 3 行
+$h_t(\boldsymbol{x})=\mathfrak{L}\left(D, \mathcal{D}_t\right)$,
+即分类器 $h_t(\boldsymbol{x})$ 可以基于分布 $\mathcal{D}_t$ 从数据集 $D$
+中训练而得, 而我们在训练分类器时, 一般来说最小化的损失函数就是分类误差。
+
+### 8.2.15 式(8.19)的推导
+
+
 
 $$
+
 \begin{aligned}
 \mathcal{D}_{t+1}(\boldsymbol{x}) &=\frac{\mathcal{D}(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H_{t}(\boldsymbol{x})}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t}(\boldsymbol{x})}\right]} \\
 &=\frac{\mathcal{D}(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} e^{-f(\boldsymbol{x}) \alpha_{t} h_{t}(\boldsymbol{x})}}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t}(\boldsymbol{x})}\right]} \\
 &=\mathcal{D}_{t}(\boldsymbol{x}) \cdot e^{-f(\boldsymbol{x}) \alpha_{t} h_{t}(\boldsymbol{x})} \frac{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t}(\boldsymbol{x})}\right]}
 \end{aligned}
+
 $$
 
-[解析]:boosting算法是根据调整后的样本再去训练下一个基分类器,这就是“重赋权法”的样本分布的调整公式。
 
 
-## 8.20
+第 1 个等号是将式(8.15)中的 $t$ 换为 $t+1$ (同时 $t-1$ 换为 $t)$;
 
-$$
-H^{\mathrm{oob}}(\boldsymbol{x})=\underset{y \in \mathcal{Y}}{\arg \max } \sum_{t=1}^{\mathrm{T}} \mathbb{I}\left(h_{t}(\boldsymbol{x})=y\right) \cdot \mathbb{I}\left(\boldsymbol{x} \notin D_{t}\right)
-$$
+第 2 个等号是将
+$H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})+\alpha_t h_t(\boldsymbol{x})$
+代入分子即可;
 
-[解析]:$\mathbb{I}\left(h_{t}(\boldsymbol{x})=y\right)$表示对$\mathrm{T}$个基学习器,每一个都判断结果是否与$y$一致,$y$的取值一般是$-1$和$1$,如果基学习器结果与$y$一致,则$\mathbb{I}\left(h_{t}(\boldsymbol{x})=y\right)=1$,如果样本不在训练集内,则$\mathbb{I}\left(\boldsymbol{x} \notin D_{t}\right)=1$,综合起来看就是,对包外的数据,用“投票法”选择包外估计的结果,即1或-1。
+第 3 个等号是乘以
+$\frac{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]}{\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\right]}$
+后, 凑出式(8.15)的 $\mathcal{D}_t(\boldsymbol{x})$ 表达式, 以符号
+$\mathcal{D}_t(\boldsymbol{x})$ 替 换即得。到此之后, 得到
+$\mathcal{D}_{t+1}(\boldsymbol{x})$ 与 $\mathcal{D}_t(\boldsymbol{x})$
+的关系, 但为了确保 $\mathcal{D}_{t+1}(\boldsymbol{x})$ 是一个分布, 需要
+对得到的 $\mathcal{D}_{t+1}(\boldsymbol{x})$ 进行规范化,
+即"西瓜书"图8.3第 7 行的 $Z_t$ 。式(8.19)第 3 行最后一个分式将在规
+范化过程被吸收。
 
-## 8.21
+boosting算法是根据调整后的样本再去训练下一个基分类器,这就是"重赋权法"的样本分布的调整公式。
 
-$$
-\epsilon^{\mathrm{oob}}=\frac{1}{|D|} \sum_{(\boldsymbol{x}, y) \in D} \mathbb{I}\left(H^{\mathrm{oob}}(\boldsymbol{x}) \neq y\right)
-$$
+### 8.2.16 AdaBoost的个人推导
 
-[解析]:由8.20知,$H^{\mathrm{oob}}(\boldsymbol{x})$是对包外的估计,该式表示估计错误的个数除以总的个数,得到泛化误差的包外估计。
+西瓜书中对AdaBoost的推导和原论文[1]上有些地方有差异,综合原论文和一些参考资料,这里给出一版更易于理解的推导,亦可参见我们的视频教程。
 
-## 8.22
+AdaBoost 的目标是学得 $T$ 个 $h_t(\boldsymbol{x})$ 和相应的 $T$ 个
+$\alpha_t$, 得到式(8.4)的 $H(\boldsymbol{x})$, 使式(8.5)指数 损失函数
+$\ell_{\exp }(H \mid \mathcal{D})$ 最小, 这就是求解所谓的
+"加性模型"。特别强调一下, 分类器 $h_t(\boldsymbol{x})$
+如何得到及其相应的权重 $\alpha_t$ 等于多少都是需要求解的
+$\left(h_t(\boldsymbol{x})=\mathfrak{L}\left(D, \mathcal{D}_t\right)\right.$,
+即基于分布 $\mathcal{D}_t$ 从数据集 $D$ 中经过最小化训练误差训练出分类器
+$h_t$, 也就是式(8.18), $\alpha_t$ 参见式(8.11)。
 
-$$
-H(\boldsymbol{x})=\frac{1}{T} \sum_{i=1}^{T} h_{i}(\boldsymbol{x})
-$$
+"通常这是一个复杂的优化问题(同时学得 $T$ 个 $h_t(\boldsymbol{x})$
+和相应的 $T$ 个 $\alpha_t$ 很困难)。前向分
+步算法求解这一优化问题的想法是:因为学习的是加法模型, 如果能够从前向后,
+每一步只 学习一个基函数 $h_t(\boldsymbol{x})$ 及其系数 $\alpha_t$,
+逐步逼近最小化指数损失函数 $\ell_{\exp }(H \mid \mathcal{D})$,
+那么就可以简化优化的复杂度。" **(摘自李航 《统计学习方法》[2] 第 144
+页,略有改动)**
 
-[解析]:对基分类器的结果进行简单的平均。
+因此, AdaBoost 每轮迭代只需要得到一个基分类器和其投票权重, 设第 $t$
+轮迭代需得到 基分类器 $h_t(\boldsymbol{x})$, 对应的投票权重为
+$\alpha_t$, 则集成分类器
+$H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})+\alpha_t h_t(\boldsymbol{x})$,
+其中 $H_0(\boldsymbol{x})=0$ 。为表达式简洁, 常常将
+$h_t(\boldsymbol{x})$ 简写为 $h_t, H_t(\boldsymbol{x})$ 简写为 $H_t$
+。则第 $t$
+轮实际为如下优化问题(本节式(8.4)到式(8.8)已经证明了指数损失函数是分类任务原本
+$0 / 1$ 损失函数的 一致替代损失函数):
 
-## 8.23
 
 $$
-H(\boldsymbol{x})=\sum_{i=1}^{T} w_{i} h_{i}(\boldsymbol{x})
-$$
-
-[解析]:对基分类器的结果进行加权平均。
 
-## 8.24
+\left(\alpha_t, h_t\right)=\underset{\alpha, h}{\arg \min } \ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)
 
-$$
-H(\boldsymbol{x})=\left\{\begin{array}{ll}
-{c_{j},} & {\text { if } \sum_{i=1}^{T} h_{i}^{j}(\boldsymbol{x})>0.5 \sum_{k=1}^{N} \sum_{i=1}^{T} h_{i}^{k}(\boldsymbol{x})} \\
-{\text { reject, }} & {\text { otherwise. }}
-\end{array}\right.
 $$
 
-[解析]:当某一个类别$j$的基分类器的结果之和,大于所有结果之和的$\frac {1}{2}$,则选择该类别$j$为最终结果。
 
-## 8.25
+表示每轮得到的基分类器 $h_t(\boldsymbol{x})$ 和对应的权重 $\alpha_t$
+是最小化集成分类器 $H_t=H_{t-1}+\alpha_t h_t$ 在 数据集 $D$
+上、样本权值分布为 $\mathcal{D}$ (即初始化样本权值分布, 也就是
+$\mathcal{D}_1$ ) 时的指数损失函数
+$\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)$
+的结果。这就是前向分步算法求解加性模型的思路。
+根据式(8.5)将指数损失函数表达式代入, 则 
 
 $$
-H(\boldsymbol{x})=c_{\underset{j}{ \arg \max} \sum_{i=1}^{T} h_{i}^{j}(\boldsymbol{x})}
+
+\begin{aligned}
+\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right) & =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x})\left(H_{t-1}(\boldsymbol{x})+\alpha h(\boldsymbol{x})\right)}\right] \\
+& =\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right)\left(H_{t-1}\left(\boldsymbol{x}_i\right)+\alpha h\left(\boldsymbol{x}_i\right)\right)} \\
+& =\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)} e^{-f\left(\boldsymbol{x}_i\right) \alpha h\left(\boldsymbol{x}_i\right)} \\
+& =\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)}\left(e^{-\alpha} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right)=h\left(\boldsymbol{x}_i\right)\right)+e^\alpha \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right)
+\end{aligned}
+
 $$
 
-[解析]:相比于其他类别,该类别$j$的基分类器的结果之和最大,则选择类别$j$为最终结果。
+ 上式推导中, 由于 $f\left(\boldsymbol{x}_i\right)$ 和
+$h\left(\boldsymbol{x}_i\right)$ 均只能取 $-1,+1$ 两个值, 因此当
+$f\left(\boldsymbol{x}_i\right)=h\left(\boldsymbol{x}_i\right)$ 时,
+$f\left(\boldsymbol{x}_i\right) h\left(\boldsymbol{x}_i\right)=1$, 当
+$f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)$ 时,
+$f\left(\boldsymbol{x}_i\right) h\left(\boldsymbol{x}_i\right)=-1$
+。另外, $f\left(\boldsymbol{x}_i\right)$ 和
+$h\left(\boldsymbol{x}_i\right)$ 要么相 等, 要么不相等,
+二者只能有一个为真, 因此以下等式恒成立:
 
-## 8.26
 
 $$
-H(\boldsymbol{x})=c_{\underset{j}{ \arg \max} \sum_{i=1}^{T} w_i h_{i}^{j}(\boldsymbol{x})}
+
+\mathbb{I}\left(f\left(\boldsymbol{x}_i\right)=h\left(\boldsymbol{x}_i\right)\right)+\mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)=1
+
 $$
 
-[解析]:相比于其他类别,该类别$j$的基分类器的结果之和最大,则选择类别$j$为最终结果,与式(8.25)不同的是,该式在基分类器前面乘上一个权重系数,该系数大于等于0,且T个权重之和为1。
 
-## 8.27
+所以 
 
 $$
-A\left(h_{i} | \boldsymbol{x}\right)=\left(h_{i}(\boldsymbol{x})-H(\boldsymbol{x})\right)^{2}
-$$
 
-[解析]:该式表示个体学习器结果与预测结果的差值的平方,即为个体学习器的“分歧”。
+\begin{aligned}
+& e^{-\alpha} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right)=h\left(\boldsymbol{x}_i\right)\right)+e^\alpha \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right) \\
+= & e^{-\alpha} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right)=h\left(\boldsymbol{x}_i\right)\right)+e^{-\alpha} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)-e^{-\alpha} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)+e^\alpha \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right) \\
+= & e^{-\alpha}\left(\mathbb{I}\left(f\left(\boldsymbol{x}_i\right)=h\left(\boldsymbol{x}_i\right)\right)+\mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right)+\left(e^\alpha-e^{-\alpha}\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right) \\
+= & e^{-\alpha}+\left(e^\alpha-e^{-\alpha}\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)
+\end{aligned}
+
+$$
 
-## 8.28
+ 将此结果代入
+$\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)$, 得 **(注:
+以下表达式后面求解权重 $\alpha_t$
+时仍会使用)**
 
 $$
+
 \begin{aligned}
-\bar{A}(h | \boldsymbol{x}) &=\sum_{i=1}^{T} w_{i} A\left(h_{i} | \boldsymbol{x}\right) \\
-&=\sum_{i=1}^{T} w_{i}\left(h_{i}(\boldsymbol{x})-H(\boldsymbol{x})\right)^{2}
+\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right) & =\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)}\left(e^{-\alpha}+\left(e^\alpha-e^{-\alpha}\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right) \\
+& =\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)} e^{-\alpha}+\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)}\left(e^\alpha-e^{-\alpha}\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right) \\
+& =e^{-\alpha} \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)+\left(e^\alpha-e^{-\alpha}\right) \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)
 \end{aligned}
+
 $$
 
-[解析]:该式表示对各个个体学习器的“分歧”加权平均的结果,即集成的“分歧”。
+ 外面; 第一项
+$e^{-\alpha} \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)$
+与 $h(\boldsymbol{x})$ 无关, 因此对于任意 $\alpha>0$, 使
+$\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)$ 最小的
+$h(\boldsymbol{x})$ 只需要使第二项最小即可, 即
 
-## 8.29
 
 $$
-E\left(h_{i} | \boldsymbol{x}\right)=\left(f(\boldsymbol{x})-h_{i}(\boldsymbol{x})\right)^{2}
+
+h_t=\underset{h}{\arg \min }\left(e^\alpha-e^{-\alpha}\right) \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)
+
 $$
 
-[解析]:该式表示个体学习器与真实值之间差值的平方,即个体学习器的平方误差。
 
-## 8.30
+对于任意 $\alpha>0$, 有 $e^\alpha-e^{-\alpha}>0$, 所以上式中与
+$h(\boldsymbol{x})$ 无关的正系数可以省略:
+
 
 $$
-E(H | \boldsymbol{x})=(f(\boldsymbol{x})-H(\boldsymbol{x}))^{2}
+
+h_t=\underset{h}{\arg \min } \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)
+
 $$
 
-[解析]:该式表示集成与真实值之间差值的平方,即集成的平方误差。
 
-## 8.31
+此即式(8.18)另一种表达形式。注意, 为了确保
+$\mathcal{D}_t^{\prime}(\boldsymbol{x})$ 是一个分布, 需要对其进行规范化,
+即
+$\mathcal{D}_t(\boldsymbol{x})=\frac{\mathcal{D}_t^{\prime}(\boldsymbol{x})}{Z_t}$,
+然而规范化因子
+$Z_t=\sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)$
+为常数, 并不影响最小化的求解。 正是基于此结论, AdaBoost 通过
+$h_t=\mathfrak{L}\left(D, \mathcal{D}_t\right.$ )得到第 $t$
+轮的基分类器。 **("西瓜书"图 8.3 的第 3
+行)**
 
-$$
-\bar{A}(h | \boldsymbol{x}) =\sum_{i=1}^{T} w_{i} E\left(h_{i} | \boldsymbol{x}\right)-E(H | \boldsymbol{x})
 $$
 
-[推导]:由(8.28)知
-$$
 \begin{aligned}
-\bar{A}(h | \boldsymbol{x})&=\sum_{i=1}^{T} w_{i}\left(h_{i}(\boldsymbol{x})-H(\boldsymbol{x})\right)^{2}\\
+\mathcal{D}_{t+1}\left(\boldsymbol{x}_i\right) & =\mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_t\left(\boldsymbol{x}_i\right)} \\
+& =\mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right)\left(H_{t-1}\left(\boldsymbol{x}_i\right)+\alpha_t h_t\left(\boldsymbol{x}_i\right)\right)} \\
+& =\mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)} e^{-f\left(\boldsymbol{x}_i\right) \alpha_t h_t\left(\boldsymbol{x}_i\right)} \\
+& =\mathcal{D}_t\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) \alpha_t h_t\left(\boldsymbol{x}_i\right)}
+\end{aligned}
+
+$$
+
+ 此即类似式(8.19)的分布权重更新公式。
+
+现在只差权重 $\alpha_t$ 表达式待求。对指数损失函数
+$\ell_{\exp }\left(H_{t-1}+\alpha h_t \mid \mathcal{D}\right)$ 求导, 得
+
+
+$$
+
+\begin{aligned}
+\frac{\partial \ell_{\exp }\left(H_{t-1}+\alpha h_t \mid \mathcal{D}\right)}{\partial \alpha} & =\frac{\partial\left(e^{-\alpha} \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)+\left(e^\alpha-e^{-\alpha}\right) \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right)}{\partial \alpha} \\
+& =-e^{-\alpha} \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)+\left(e^\alpha+e^{-\alpha}\right) \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)
+\end{aligned}
+
+$$
+
+ 令导数等于零, 得 
+
+$$
+
+\begin{aligned}
+\frac{e^{-\alpha}}{e^\alpha+e^{-\alpha}} & =\frac{\sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)}{\sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)}=\sum_{i=1}^{|D|} \frac{\mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)}{Z_t} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right) \\
+& =\sum_{i=1}^{|D|} \mathcal{D}_t\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}\left[\mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right] \\
+& =\epsilon_t
+\end{aligned}
+
+$$
+
+ 对上述等式化简, 得 
+
+$$
+
+\begin{aligned}
+\frac{e^{-\alpha}}{e^\alpha+e^{-\alpha}}=\frac{1}{e^{2 \alpha}+1} & \Rightarrow e^{2 \alpha}+1=\frac{1}{\epsilon_t} \Rightarrow e^{2 \alpha}=\frac{1-\epsilon_t}{\epsilon_t} \Rightarrow 2 \alpha=\ln \left(\frac{1-\epsilon_t}{\epsilon_t}\right) \\
+& \Rightarrow \alpha_t=\frac{1}{2} \ln \left(\frac{1-\epsilon_t}{\epsilon_t}\right)
+\end{aligned}
+
+$$
+
+ 即式(8.11)。 从该式可以发现, 当 $\epsilon_t=1$ 时,
+$\alpha_t \rightarrow \infty$, 此时集成分类器将由基分类器 $h_t$ 决定,
+而这很可能是由于过拟合产生的结果, 例如不前枝决策树, 如果一直分下去,
+一般情况下总 能得到在训练集上分类误差很小甚至为 0 的分类器,
+但这并没有什么意义。所以一般在 AdaBoost 中使用弱分类器, 如决策树桩
+(即单层决策树)。
+
+另外, 由以上指数损失函数
+$\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)$
+的推导可以发现 
+
+$$
+
+\begin{aligned}
+\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right) & =\sum_{i=1}^{|D|} \mathcal{D}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) H_{t-1}\left(\boldsymbol{x}_i\right)} e^{-f\left(\boldsymbol{x}_i\right) \alpha h\left(\boldsymbol{x}_i\right)} \\
+& =\sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) \alpha h\left(\boldsymbol{x}_i\right)}
+\end{aligned}
+
+$$
+
+ 这与指数损失函数
+$\ell_{\exp }\left(\alpha_t h_t \mid \mathcal{D}_t\right)$
+的表达式基本一致: 
+
+$$
+
+\begin{aligned}
+\ell_{\exp }\left(\alpha_t h_t \mid \mathcal{D}_t\right) & =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}\left[e^{-f(\boldsymbol{x}) \alpha_t h_t(\boldsymbol{x})}\right] \\
+& =\sum_{i=1}^{|D|} \mathcal{D}_t\left(\boldsymbol{x}_i\right) e^{-f\left(\boldsymbol{x}_i\right) \alpha_t h_t\left(\boldsymbol{x}_t\right)}
+\end{aligned}
+
+$$
+
+ 而 $\mathcal{D}_t^{\prime}(\boldsymbol{x})$
+的规范化过程并不影响对
+$\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)$
+求最小化操作, 因此最小化式(8.9) 等价于最小化
+$\ell_{\exp }\left(H_{t-1}+\alpha h \mid \mathcal{D}\right)$,
+这就是式(8.9)的来历,故并无问题。
+
+到此为止, 就逐一完成了"西瓜书"图8.3中第 3 行的 $h_t$ 的训练
+(并计算训练误差)、第 6 行的权 重 $\alpha_t$ 计算公式以及第 7 行的分布
+$\mathcal{D}_t$ 更新公式来历的理论推导。
+
+### 8.2.17 进一步理解权重更新公式
+
+Adaboost原始文献[1]第 12 页(pdf显示第348页)有如下推论,如图8-3所示:
+
+![图8-3 Adaboost原始文献推论2](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/c4f146c8-cf68-4469-bfc0-94f9361acd09-adaboost_corollary_2.svg)
+
+即
+$P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)=0.5$
+。用通俗的话来说就是, $h_{t-1}$ 在数据集 $D$ 上、 分布为 $\mathcal{D}_t$
+时 的分类误差为 $0.5$, 即相当于随机猜测 (最糟糕的二分类器是分类误差为
+$0.5$, 当二分类器分 类误差为 1 时相当于分类误差为 0 ,
+因为将预测结果反过来用就是了)。而 $h_t$ 由式(8.18)得到
+
+
+$$
+
+h_t=\underset{h}{\arg \min } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}[\mathbb{I}(f(\boldsymbol{x}) \neq h(\boldsymbol{x}))]=\underset{h}{\arg \min } P_{\boldsymbol{x} \sim \mathcal{D}_t}(h(\boldsymbol{x}) \neq f(\boldsymbol{x}))
+
+$$
+
+
+即 $h_t$ 是在数据集 $D$ 上、分布为 $\mathcal{D}_t$
+时分类误差最小的分类器, 因此在数据集 $D$ 上、分布为 $\mathcal{D}_t$ 时,
+$h_t$ 是最好的分类器, 而 $h_{t-1}$ 是最差的分类器,
+故二者差别最大。"西瓜书"第8.1节的图8.2形象的说 明了 "集成个体应
+'好而不同'", 此时可以说 $h_{t-1}$ 和 $h_t$ 非常 "不同"。证明如下:
+
+对于 $h_{t-1}$ 来说, 分类误差 $\epsilon_{t-1}$ 为 
+
+$$
+
+\begin{aligned}
+\epsilon_{t-1} & =P_{\boldsymbol{x} \sim \mathcal{D}_{t-1}}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_{t-1}}\left[\mathbb{I}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)\right] \\
+& =\sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right) \\
+& =\frac{\sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)}{\sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}(\boldsymbol{x})=f(\boldsymbol{x})\right)+\sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)}
+\end{aligned}
+
+$$
+
+ 在第 $t$ 轮, 根据分布更新公式(8.19)或"西瓜书"图8.3第7行
+(规范化因子 $Z_{t-1}$ 为常量):
+
+
+$$
+
+\mathcal{D}_t=\frac{\mathcal{D}_{t-1}}{Z_{t-1}} e^{-f(\boldsymbol{x}) \alpha_{t-1} h_{t-1}(\boldsymbol{x})}
+
+$$
+
+
+其中根据式(8.11), 第 $t-1$ 轮的权重
+
+
+$$
+
+\alpha_{t-1}=\frac{1}{2} \ln \frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}=\ln \sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}}
+
+$$
+
+
+代入 $\mathcal{D}_t$ 的表达式, 则
+
+
+$$
+
+\mathcal{D}_t= \begin{cases}\frac{\mathcal{D}_{t-1}}{Z_{t-1}} \cdot \sqrt{\frac{\epsilon_{t-1}}{1-\epsilon_{t-1}}} & \text {, if } h_{t-1}(\boldsymbol{x})=f(\boldsymbol{x}) \\ \frac{\mathcal{D}_{t-1}}{Z_{t-1}} \cdot \sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} & \text {, if } h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\end{cases}
+
+$$
+
+
+那么 $h_{t-1}$ 在数据集 $D$ 上、分布为 $\mathcal{D}_t$ 时的分类误差
+$P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right.$
+)为 (注意, 下式 第二行的分母等于 1, 因为
+$\mathbb{I}\left(h_{t-1}(\boldsymbol{x})=f(\boldsymbol{x})\right)+\mathbb{I}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)=1$
+) 
+
+$$
+
+\begin{aligned}
+& P_{\boldsymbol{x} \sim \mathcal{D}_t}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}\left[\mathbb{I}\left(h_{t-1}(\boldsymbol{x}) \neq f(\boldsymbol{x})\right)\right] \\
+& =\frac{\sum_{i=1}^{|D|} \mathcal{D}_t\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right) \neq f\left(\boldsymbol{x}_i\right)\right)}{\sum_{i=1}^{|D|} \mathcal{D}_t\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right)=f\left(\boldsymbol{x}_i\right)\right)+\sum_{i=1}^{|D|} \mathcal{D}_t\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right) \neq f\left(\boldsymbol{x}_i\right)\right)} \\
+& =\frac{\sum_{i=1}^{|D|} \frac{\mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right)}{Z_{t-1}} \cdot \sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right) \neq f\left(\boldsymbol{x}_i\right)\right)}{\sum_{i=1}^{|D|} \frac{\mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right)}{Z_{t-1}} \cdot \sqrt{\frac{\epsilon_{t-1}}{1-\epsilon_{t-1}}} \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right)=f\left(\boldsymbol{x}_i\right)\right)+\sum_{i=1}^{|D|} \frac{\mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right)}{Z_{t-1}} \cdot \sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right) \neq f\left(\boldsymbol{x}_i\right)\right)} \\
+& =\frac{\sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} \cdot \sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right) \neq f\left(\boldsymbol{x}_i\right)\right)}{\sqrt{\frac{\epsilon_{t-1}}{1-\epsilon_{t-1}}} \cdot \sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right)=f\left(\boldsymbol{x}_i\right)\right)+\sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} \cdot \sum_{i=1}^{|D|} \mathcal{D}_{t-1}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(h_{t-1}\left(\boldsymbol{x}_i\right) \neq f\left(\boldsymbol{x}_i\right)\right)} \\
+& =\frac{\sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} \cdot \epsilon_{t-1}}{\sqrt{\frac{\epsilon_{t-1}}{1-\epsilon_{t-1}}} \cdot\left(1-\epsilon_{t-1}\right)+\sqrt{\frac{1-\epsilon_{t-1}}{\epsilon_{t-1}}} \cdot \epsilon_{t-1}}=\frac{1}{2} \\
+&
+\end{aligned}
+
+$$
+
+
+
+### 8.2.18 能够接受带权样本的基学习算法
+
+在Adaboost算法的推导过程中,我们发现能够接受并利用带权样本的算法才能很好的嵌入到Adaboost的框架中作为基学习器。因此这里举一些能够接受带权样本的基学习算法的例子,分别是SVM和基于随机梯度下降(SGD)的对率回归:
+
+其实原理很简单: 对于 SVM 来说, 针对"西瓜书" P130
+页的优化目标式(6.29)来说, 第二项为损失项, 此时每个样本的损失
+$\ell_{0 / 1}\left(y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right)-1\right)$
+直接相加, 即样本权值分布为
+$\mathcal{D}\left(\boldsymbol{x}_i\right)=\frac{1}{m}$, 其中 $m$
+为数据集 $D$ 样本个数; 若样本权值更新为
+$\mathcal{D}_t\left(\boldsymbol{x}_i\right)$, 则此时损失求和项应该变为
+
+
+$$
+
+\sum_{i=1}^m m \mathcal{D}_t\left(\boldsymbol{x}_i\right) \cdot \ell_{0 / 1}\left(y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right)-1\right)
+
+$$
+
+
+若将 $\mathcal{D}\left(\boldsymbol{x}_i\right)=\frac{1}{m}$ 替换
+$\mathcal{D}_t\left(\boldsymbol{x}_i\right)$, 则就是每个样本的损失
+$\ell_{0 / 1}\left(y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right)-1\right)$
+直接相加。 如此更改后, 最后推导结果影响的是式(6.39), 将由
+$C=\alpha_i+\mu_i$ 变为
+
+
+$$
+
+C \cdot m \mathcal{D}_t\left(\boldsymbol{x}_i\right)=\alpha_i+\mu_i
+
+$$
+
+
+进而由 $\alpha_i, \mu_i \geq 0$ 导出
+$0 \leq \alpha_i \leq C \cdot m \mathcal{D}_t\left(\boldsymbol{x}_i\right)$
+。
+
+对于基于随机梯度下降(SGD)的对率回归, 每次随机选择一个样本进行梯度下降,
+总体 上的期望损失即为式(3.27), 此时每个样本被选到的概率相同, 相当于
+$\mathcal{D}\left(\boldsymbol{x}_i\right)=\frac{1}{m}$ 。若样本
+权值更新为 $\mathcal{D}_t\left(\boldsymbol{x}_i\right)$, 则类似于
+$\mathrm{SVM}$, 针对式 (3.27) 只需要给第 $i$ 项乘以
+$m \mathcal{D}_t\left(\boldsymbol{x}_i\right)$ 即可,
+相当于每次随机梯度下降选择样本时以概率
+$\mathcal{D}_t\left(\boldsymbol{x}_i\right)$ 选择样本 $\boldsymbol{x}_i$
+即可。
+
+注意, 这里总的损失中出现了样本个数 $m$ 。这是因为在定义损失时末求均值,
+若对式(6.29)的第二项和式(3.27)乘以 $\frac{1}{m}$ 则可以将 $m$
+抵消掉。然而常数项在最小化式(3.27)实际上并不影响什么,
+对于式(6.29)来说只要选择平衡参数 $C$ 时选为原来的 $m$ 倍即可。
+
+当然, 正如"西瓜书" P177 第三段中所说, "对无法接受带权样本的基学习算法,
+则可通过 "重采样法' 来处理, 即在每一轮学习中,
+根据样本分布对训练集重新进行采样,
+再用重采样而得的样本集对基学习器进行训练"。
+
+## 8.3 Bagging与随机森林
+
+### 8.3.1 式(8.20)的解释
+
+$\mathbb{I}\left(h_{t}(\boldsymbol{x})=y\right)$表示对$\mathrm{T}$个基学习器,每一个都判断结果是否与$y$一致,$y$的取值一般是$-1$和$1$,如果基学习器结果与$y$一致,则$\mathbb{I}\left(h_{t}(\boldsymbol{x})=y\right)=1$,如果样本不在训练集内,则$\mathbb{I}\left(\boldsymbol{x} \notin D_{t}\right)=1$,综合起来看就是,对包外的数据,用"投票法"选择包外估计的结果,即1或-1。
+
+### 8.3.2 式(8.21)的推导
+
+由式(8.20)知,$H^{\mathrm{oob}}(\boldsymbol{x})$是对包外的估计,该式表示估计错误的个数除以总的个数,得到泛化误差的包外估计。注意在本式直接除以
+$D \mid$ (训练集 $D$ 样本个数), 也就是说此处假设 $T$
+个基分类器的各自的包外样本的并集一定为训练集 $D$ 。实际上,
+这个事实成立的概率也是比较大的, 可以计算一下: 样本属于包内的概率为
+$0.632$, 那么 $T$ 次独立的 随机采样均属于包内的概率为 $0.632^T$, 当
+$T=5$ 时, $0.632^T \approx 0.1$, 当 $T=10$ 时, $0.632^T \approx 0.01$,
+这么来看的话 $T$ 个基分类器的各自的包外样本的并集为训练集 $D$
+的概率的确实比较大。
+
+### 8.3.3 随机森林的解释
+
+在8.3.2节开篇第一句话就解释了随机森林的概念:随机森林是Bagging的一个扩展变体,是以决策树为基学习器构建Bagging集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。
+
+完整版随机森林当然更复杂,这时只须知道两个重点:(1)
+以决策树为基学习器;(2)在基学习器训练过程中,选择划分属性时只使用当前结点属性集合的一个子集。
+
+## 8.4 结合策略
+
+### 8.4.1 式(8.22)的解释
+
+
+
+$$
+
+H(\boldsymbol{x})=\frac{1}{T} \sum_{i=1}^{T} h_{i}(\boldsymbol{x})
+
+$$
+
+
+对基分类器的结果进行简单的平均。
+
+### 8.4.2 式(8.23)的解释
+
+
+
+$$
+
+H(\boldsymbol{x})=\sum_{i=1}^{T} w_{i} h_{i}(\boldsymbol{x})
+
+$$
+
+
+对基分类器的结果进行加权平均。
+
+### 8.4.3 硬投票和软投票的解释
+
+"西瓜书"中第183页提到了硬投票(hard voting)和软投票(soft
+voting),本页左侧注释也提到多数投票法的英文术语使用不太一致,有文献称为majority
+voting。本人看到有些文献中,硬投票使用majority
+voting(多数投票),软投票使用probability
+voting(概率投票),所以还是具体问题具体分析比较稳妥。
+
+### 8.4.4 式(8.24)的解释
+
+
+
+$$
+
+H(\boldsymbol{x})=\left\{\begin{array}{ll}
+{c_{j},} & {\text { if } \sum_{i=1}^{T} h_{i}^{j}(\boldsymbol{x})>0.5 \sum_{k=1}^{N} \sum_{i=1}^{T} h_{i}^{k}(\boldsymbol{x})} \\
+{\text { reject, }} & {\text { otherwise. }}
+\end{array}\right.
+
+$$
+
+
+当某一个类别$j$的基分类器的结果之和,大于所有结果之和的$\frac {1}{2}$,则选择该类别$j$为最终结果。
+
+### 8.4.5 式(8.25)的解释
+
+
+
+$$
+
+H(\boldsymbol{x})=c_{\underset{j}{ \arg \max} \sum_{i=1}^{T} h_{i}^{j}(\boldsymbol{x})}
+
+$$
+
+
+相比于其他类别,该类别$j$的基分类器的结果之和最大,则选择类别$j$为最终结果。
+
+### 8.4.6 式(8.26)的解释
+
+
+
+$$
+
+H(\boldsymbol{x})=c_{\underset{j}{ \arg \max} \sum_{i=1}^{T} w_i h_{i}^{j}(\boldsymbol{x})}
+
+$$
+
+
+相比于其他类别,该类别$j$的基分类器的结果之和最大,则选择类别$j$为最终结果,与式(8.25)不同的是,该式在基分类器前面乘上一个权重系数,该系数大于等于0,且T个权重之和为1。
+
+### 8.4.7 元学习器(meta-learner)的解释
+
+书中第183页最后一行提到了元学习器(meta-learner),简单解释一下,因为理解meta的含义有时对于理解论文中的核心思想很有帮助。
+
+元(meta),非常抽象,例如此处的含义,即次级学习器,或者说基于学习器结果的学习器;另外还有元语言,就是描述计算机语言的语言,还有元数学,研究数学的数学等等;
+
+另外,论文中经常出现的还有meta-strategy,即元策略或元方法,比如说你的研究问题是多分类问题,那么你提出了一种方法,例如对输入特征进行变换(或对输出类别做某种变换),然后再基于普通的多分类方法进行预测,这时你的方法可以看成是一种通用的框架,它虽然针对多分类问题开发,但它需要某个具体多分类方法配合才能实现,那么这样的方法是一种更高层级的方法,可以称为是一种meta-strategy。
+
+### 8.4.8 Stacking算法的解释
+
+该算法其实非常简单,对于数据集,试想你现在有了
+个基分类器预测结果,也就是说数据集中的每个样本均有
+个预测结果,那么怎么结合这 个预测结果呢?
+
+本节名为"结合策略",告诉你各种结合方法,但其实最简单的方法就是基于这
+个预测结果再进行一次学习,即针对每个样本,将这
+个预测结果作为输入特征,类别仍为原来的类别,既然无法抉择如何将这些结果进行结合,那么就"学习"一下吧。
+
+"西瓜书"图8.9伪代码第9行中将第个样本进行变换,特征为个基学习器的输出,类别标记仍为原来的
+,将所有训练集中的样本进行转换得到新的数据集后,再基于进行一次学习即可,也就是Stacking算法。
+
+至于说"西瓜书"图8.9中伪代码第1行到第3行使用的数据集与第5行到第10行使用的数据集之间的关系,在"西瓜书"图8.9下方的一段话有详细的讨论,不再赘述。
+
+## 8.5 多样性
+
+### 8.5.1 式(8.27)的解释
+
+
+
+$$
+
+A\left(h_{i} | \boldsymbol{x}\right)=\left(h_{i}(\boldsymbol{x})-H(\boldsymbol{x})\right)^{2}
+
+$$
+
+
+该式表示个体学习器结果与预测结果的差值的平方,即为个体学习器的"分歧"。
+
+### 8.5.2 式(8.28)的解释
+
+
+
+$$
+
+\begin{aligned}
+\bar{A}(h | \boldsymbol{x}) &=\sum_{i=1}^{T} w_{i} A\left(h_{i} | \boldsymbol{x}\right) \\
+&=\sum_{i=1}^{T} w_{i}\left(h_{i}(\boldsymbol{x})-H(\boldsymbol{x})\right)^{2}
+\end{aligned}
+
+$$
+
+
+该式表示对各个个体学习器的"分歧"加权平均的结果,即集成的"分歧"。
+
+### 8.5.3 式(8.29)的解释
+
+
+
+$$
+
+E\left(h_{i} | \boldsymbol{x}\right)=\left(f(\boldsymbol{x})-h_{i}(\boldsymbol{x})\right)^{2}
+
+$$
+
+
+该式表示个体学习器与真实值之间差值的平方,即个体学习器的平方误差。
+
+### 8.5.4 式(8.30)的解释
+
+
+
+$$
+
+E(H | \boldsymbol{x})=(f(\boldsymbol{x})-H(\boldsymbol{x}))^{2}
+
+$$
+
+
+该式表示集成与真实值之间差值的平方,即集成的平方误差。
+
+### 8.5.5 式(8.31)的推导
+
+由(8.28)知 
+
+$$
+
+\begin{aligned}
+\bar{A}(h | \boldsymbol{x})&=\sum_{i=1}^{T} w_{i}\left(h_{i}(\boldsymbol{x})-H(\boldsymbol{x})\right)^{2}\\
 &=\sum_{i=1}^{T} w_{i}(h_i(\boldsymbol{x})^2-2h_i(\boldsymbol{x})H(\boldsymbol{x})+H(\boldsymbol{x})^2)\\
 &=\sum_{i=1}^{T} w_{i}h_i(\boldsymbol{x})^2-H(\boldsymbol{x})^2
 \end{aligned}
+
+$$
+
+ 又因为 
+
+$$
+
+\begin{aligned}
+& \sum_{i=1}^{T} w_{i} E\left(h_{i} | \boldsymbol{x}\right)-E(H | \boldsymbol{x})\\
+&=\sum_{i=1}^{T} w_{i}\left(f(\boldsymbol{x})-h_{i}(\boldsymbol{x})\right)^{2}-(f(\boldsymbol{x})-H(\boldsymbol{x}))^{2}\\
+&=\sum_{i=1}^{T} w_{i}h_i(\boldsymbol{x})^2-H(\boldsymbol{x})^{2}
+\end{aligned}
+
+$$
+
+ 所以
+
+
+$$
+
+\bar{A}(h | \boldsymbol{x}) =\sum_{i=1}^{T} w_{i} E\left(h_{i} | \boldsymbol{x}\right)-E(H | \boldsymbol{x})
+
+$$
+
+
+
+### 8.5.6 式(8.32)的解释
+
+
+
+$$
+
+\sum_{i=1}^{T} w_{i} \int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}=\sum_{i=1}^{T} w_{i} \int E\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}-\int E(H | \boldsymbol{x}) p(\boldsymbol{x}) d \boldsymbol{x}
+
+$$
+
+
+$\int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}$表示个体学习器在全样本上的"分歧",$\sum_{i=1}^{T} w_{i} \int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}$表示集成在全样本上的"分歧"。
+式(8.31)的意义在于, 对于示例 $\boldsymbol{x}$ 有
+$\bar{A}(h \mid \boldsymbol{x})=\bar{E}(h \mid \boldsymbol{x})-E(H \mid \boldsymbol{x})$
+成立, 即个体学习器分歧的加权均值等于个体学习器误差的加权均值减去集成
+$H(\boldsymbol{x})$ 的误差。
+
+将这个结论应用于全样本上, 即为式(8.32)。
+
+例如
+$A_i=\int A\left(h_i \mid \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}$,
+这是将 $\boldsymbol{x}$ 作为连续变量来处理的, 所以这里是概率密度
+$p(\boldsymbol{x})$ 和积分号; 若按离散变量来处理, 则变为
+$A_i=\sum_{\boldsymbol{x} \in D} A\left(h_i \mid \boldsymbol{x}\right) p_{\boldsymbol{x}}$;
+其实高等数学中讲过, 积分就是连续求和。
+
+### 8.5.7 式(8.33)的解释
+
+
+
+$$
+
+E_{i}=\int E\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}
+
+$$
+
+
+表示个体学习器在全样本上的泛化误差。
+
+### 8.5.8 式(8.34)的解释
+
+
+
+$$
+
+A_{i}=\int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}
+
+$$
+
+
+表示个体学习器在全样本上的分歧。
+
+### 8.5.9 式(8.35)的解释
+
+
+
+$$
+
+E=\int E(H | \boldsymbol{x}) p(\boldsymbol{x}) d \boldsymbol{x}
+
+$$
+
+
+表示集成在全样本上的泛化误差。
+
+### 8.5.10 式(8.36)的解释
+
+
+
+$$
+
+E=\bar{E}-\bar{A}
+
+$$
+
+
+$\bar{E}$表示个体学习器泛化误差的加权均值,$\bar{A}$表示个体学习器分歧项的加权均值,该式称为"误差-分歧分解"。
+
+### 8.5.11 式(8.40)的解释
+
+当 $p_1=p_2$ 时, $\kappa=0$; 当 $p_1=1$ 时, $\kappa=1$; 一般来说
+$p_1 \geqslant p_2$, 即 $\kappa \geqslant 0$, 但偶尔也 有 $p_1<p_2$
+的情况, 此时 $\kappa<0$ 。 有关 $p_1, p_2$
+的意义参见式(8.41)和式(8.42)的解释。
+
+### 8.5.12 式(8.41)的解释
+
+分子 $a+d$ 为分类器 $h_i$ 与 $h_j$ 在数据集 $D$
+上预测结果相同的样本数目, 分母为数据集 $D$ 总 样本数目, 因此 $p_1$
+为两个分类器 $h_i$ 与 $h_j$ 预测结果相同的概率。 若 $a+d=m$, 即分类器
+$h_i$ 与 $h_j$ 对数据集 $D$ 所有样本预测结果均相同, 此时 $p_1=1$ 。
+
+### 8.5.13 式(8.42)的解释
+
+将式(8.42)拆分为如下形式,将会很容易理解其含义:
+
+
+$$
+
+p_2=\frac{a+b}{m} \cdot \frac{a+c}{m}+\frac{c+d}{m} \cdot \frac{b+d}{m}
+
+$$
+
+
+其中 $\frac{a+b}{m}$ 为分类器 $h_i$ 将样本预测为 $+1$ 的概率,
+$\frac{a+c}{m}$ 为分类器 $h_j$ 将样本预测为 $+1$ 的概率, 二者 相乘
+$\frac{a+b}{m} \cdot \frac{a+c}{m}$ 可理解为分类器 $h_i$ 与 $h_j$
+将样本预测为 $+1$ 的概率; $\frac{c+d}{m}$ 为分类器 $h_i$ 将样本预测为
+$-1$ 的概率, $\frac{b+d}{m}$ 为分类器 $h_j$ 将样本预测为 $-1$ 的概率,
+二者相乘 $\frac{c+d}{m} \cdot \frac{b+d}{m}$ 可理解为分类器 $h_i$ 与
+$h_j$ 将样本预测为 $-1$ 的概率。
+
+注意 $\frac{a+b}{m} \cdot \frac{a+c}{m}$ 与 $\frac{a}{m}$ 的不同,
+$\frac{c+d}{m} \cdot \frac{b+d}{m}$ 与 $\frac{d}{m}$ 的不同:
+
+
+$$
+
+\begin{aligned}
+& \frac{a+b}{m} \cdot \frac{a+c}{m}=p\left(h_i=+1\right) p\left(h_j=+1\right), \frac{a}{m}=p\left(h_i=+1, h_j=+1\right) \\
+& \frac{c+d}{m} \cdot \frac{b+d}{m}=p\left(h_i=-1\right) p\left(h_j=-1\right), \frac{d}{m}=p\left(h_i=-1, h_j=-1\right)
+\end{aligned}
+
+$$
+
+ 即 $\frac{a+b}{m} \cdot \frac{a+c}{m}$ 和
+$\frac{c+d}{m} \cdot \frac{b+d}{m}$ 是分别考虑分类器 $h_i$ 与 $h_j$
+时的概率 ( $h_i$ 与 $h_j$ 独立), 而 $\frac{a}{m}$ 和 $\frac{d}{m}$
+是同时考 虑 $h_i$ 与 $h_j$ 时的概率 (联合概率)。
+
+### 8.5.14 多样性增强的解释
+
+在 8.5.3 节介绍了四种多样性增强的方法, 通俗易懂, 几乎不需要什么注解,
+仅强调几 个概念:
+
+(1)数据样本扰动中提到了 "不稳定基学习器" (例如决策树、神经网络等) 和
+"稳定基 学习器" (例如线性学习器、支持向量机、朴素贝叶斯、 $k$
+近邻学习器等), 对稳定基学习器
+进行集成时数据样本扰动技巧效果有限。这也就可以解释为什么随机森林和 GBDT
+等以决 策树为基分学习器的集成方法很成功吧, Gradient Boosting 和 Bagging
+都是以数据样本扰动 来增强多样性的; 而且,
+掌握这个经验后在实际工程应用中就可以排除一些候选基分类器,
+但论文中的确经常见到以支持向量机为基分类器 Bagging 实现, 这可能是由于
+LIBSVM 简单易用的原因吧。
+
+(2)"西瓜书"图8.11随机子空间算法, 针对每个基分类器 $h_t$
+在训练时使用了原数据集的部分输入属性(末必是初始属性, 详见第 189
+页左上注释), 因此在最终集成时 **("西瓜书"图 8.11
+最后一行)** 也要使用相同的部分属性。
+
+(3)输出表示扰动中提到了 "翻转法" (Flipping Output),
+看起来是一个并没有道理的技巧, 为什么要将训练样本的标记改变呢?
+若认为原训练样本标记是完全可靠的, 这不是人为地加入噪声么? 但西瓜书作者
+2017 年提出的深度森林[3]模型中也用到了该技巧,
+正如本小节名为"多样性增强", 虽然从局部来看引入了标记噪声,
+但从模型集成的角度来说却是有益的。
+
+## 8.6 Gradient Boosting/GBDT/XGBoost联系与区别
+
+在集成学习中,梯度提升(Gradient Boosting, GB)、梯度提升树(GB Decision
+Tree,
+GBDT)很常见,尤其是近几年非常流行的XGBoost很是耀眼,此处单独介绍对比这些概念。
+
+### 8.6.1 梯度下降法
+**(本部分内容参考了孙文瑜教授的最优化方法[4])**
+设目标函数 $f(\boldsymbol{x})$ 在 $\boldsymbol{x}_k$ 附近连续可微, 且
+$\nabla f\left(\boldsymbol{x}_k\right)=\left.\frac{\nabla f(\boldsymbol{x})}{\nabla \boldsymbol{x}}\right|_{\boldsymbol{x}=\boldsymbol{x}_k} \neq 0$
+。将 $f(\boldsymbol{x})$ 在 $\boldsymbol{x}_k$ 处进 行一阶 Taylor 展开
+
+
+$$
+
+f(\boldsymbol{x}) \approx f\left(\boldsymbol{x}_k\right)+\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}_k\right)
+
+$$
+
+
+记 $\boldsymbol{x}-\boldsymbol{x}_k=\Delta \boldsymbol{x}$, 则上式可写为
+
+
+$$
+
+f\left(\boldsymbol{x}_k+\Delta \boldsymbol{x}\right) \approx f\left(\boldsymbol{x}_k\right)+\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \Delta \boldsymbol{x}
+
+$$
+
+
+显然, 若
+$\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \Delta \boldsymbol{x}<0$
+则有
+$f\left(\boldsymbol{x}_k+\Delta \boldsymbol{x}\right)<f\left(\boldsymbol{x}_k\right)$,
+即相比于 $f\left(\boldsymbol{x}_k\right)$, 自变量增量
+$\Delta \boldsymbol{x}$ 会 使 $f(\boldsymbol{x})$ 函数值下降; 若要使
+$f(\boldsymbol{x})=f\left(\boldsymbol{x}_k+\Delta \boldsymbol{x}\right)$
+下降最快, 只要选择 $\Delta \boldsymbol{x}$ 使
+$\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \Delta \boldsymbol{x}$
+最 小即可, 而此时
+$\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \Delta \boldsymbol{x}<0$,
+因此使绝对值$| f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \Delta \boldsymbol{x}|$
+最大即可。将 $\Delta \boldsymbol{x}$ 分成两 部分:
+$\Delta \boldsymbol{x}=\alpha_k \boldsymbol{d}_k$, 其中
+$\boldsymbol{d}_k$ 为待求单位向量, $\alpha_k>0$ 为待解常量;
+$\boldsymbol{d}_k$ 表示往哪个方向改 变 $\boldsymbol{x}$ 函数值下降最快,
+而 $\alpha_k$ 表示沿这个方向的步长。因此, 求解 $\Delta \boldsymbol{x}$
+的问题变为
+
+
+$$
+
+\left(\alpha_k, \boldsymbol{d}_k\right)=\underset{\alpha, \boldsymbol{d}}{\arg \min } \nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \alpha \boldsymbol{d}
+
+$$
+
+
+将以上优化问题分为两步求解, 即 
+
+$$
+
+\begin{gathered}
+\boldsymbol{d}_k=\underset{\boldsymbol{d}}{\arg \min } \nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d} \quad \text { s.t. }\|\boldsymbol{d}\|_2=1 \\
+\alpha_k=\underset{\alpha}{\arg \min } \nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d}_k \alpha
+\end{gathered}
+
+$$
+
+ 以上求解 $\alpha_k$ 的优化问题明显有问题, 因为对于
+$\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d}_k<0$
+来说, 显然 $\alpha_k=+\infty$ 时取 的最小值, 求解 $\alpha_k$
+应该求解如下优化问题:
+
+
+$$
+
+\alpha_k=\underset{\alpha}{\arg \min } f\left(\boldsymbol{x}_k+\alpha \boldsymbol{d}_k\right)
+
+$$
+
+
+对于凸函数来说, 以上两步可以得到最优解; 但对于非凸函数来说, 联合求解得到
+$\boldsymbol{d}_k$ 和 $\alpha_k$, 与先求 $\boldsymbol{d}_k$
+然后基于此再求 $\alpha_k$ 的结果应该有时是不同的。 由 Cauchy-Schwartz
+不等式
+
+
+$$
+
+\left|\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d}_k\right| \leq\left\|\nabla f\left(\boldsymbol{x}_k\right)\right\|_2\left\|\boldsymbol{d}_k\right\|_2
+
+$$
+
+
+可知, 当且仅当
+$\boldsymbol{d}_k=-\frac{\nabla f\left(\boldsymbol{x}_k\right)}{\left\|\nabla f\left(\boldsymbol{x}_k\right)\right\|_2}$
+时,
+$\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d}_k$
+最小,
+$-\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d}_k$
+最大。 对于 $\alpha_k$, 若
+$f\left(\boldsymbol{x}_k+\alpha \boldsymbol{d}_k\right)$ 对 $\alpha$
+的导数存在, 则可简单求解如下单变量方程即可:
+
+
+$$
+
+\frac{\partial f\left(\boldsymbol{x}_k+\alpha \boldsymbol{d}_k\right)}{\partial \alpha}=0
+
+$$
+
+
+例 1: 试求 $f(x)=x^2$ 在 $x_k=2$ 处的梯度方向 $d_k$ 和步长 $\alpha_k$ 。
+解: 对 $f(x)$ 在 $x_k=2$ 处进行一阶 Taylor 展开: 
+
+$$
+
+\begin{aligned}
+f(x) & =f\left(x_k\right)+f^{\prime}\left(x_k\right)\left(x-x_k\right) \\
+& =x_k^2+2 x_k\left(x-x_k\right) \\
+& =x_k^2+2 x_k \alpha d
+\end{aligned}
+
+$$
+
+ 由于此时自变量为一维, 因此只有两个方向可选, 要么正方向,
+要么负方向。此时 $f^{\prime}\left(x_k\right)=4$, 因此
+$d_k=-\frac{f^{\prime}\left(x_k\right)}{\left|f^{\prime}\left(x_k\right)\right|}=-1$
+。接下来求 $\alpha_k$, 将 $x_k$ 和 $d_k$ 代入:
+
+
+$$
+
+f\left(x_k+\alpha d_k\right)=f(2-\alpha)=(2-\alpha)^2
+
+$$
+
+ 进而有
+
+
+$$
+
+\frac{\partial f\left(x_k+\alpha d_k\right)}{\partial \alpha}=-2(2-\alpha)
+
+$$
+
+
+令导数等于 0 , 得 $\alpha_k=2$ 。此时 
+
 $$
 
-又因为
+\Delta x=\alpha_k d_k=-2
+
+$$
+
+ 则
+$x_k+\Delta x=0$, 函数值 $f\left(x_k+\Delta x\right)=0$ 。 例 2: 试求
+$f(\boldsymbol{x})=\|\boldsymbol{x}\|_2^2=\boldsymbol{x}^{\mathrm{T}} \boldsymbol{x}$
+在
+$\boldsymbol{x}_k=\left[x_k^1, x_k^2\right]^{\mathrm{T}}=[3,4]^{\mathrm{T}}$
+处的梯度方向 $\boldsymbol{d}_k$ 和步长 $\alpha_k$ 。 解: 对
+$f(\boldsymbol{x})$ 在
+$\boldsymbol{x}_k=\left[x_k^1, x_k^2\right]^{\mathrm{T}}=[3,4]^{\mathrm{T}}$
+处进行一阶 Taylor 展开: 
+
 $$
+
 \begin{aligned}
-& \sum_{i=1}^{T} w_{i} E\left(h_{i} | \boldsymbol{x}\right)-E(H | \boldsymbol{x})\\
-&=\sum_{i=1}^{T} w_{i}\left(f(\boldsymbol{x})-h_{i}(\boldsymbol{x})\right)^{2}-(f(\boldsymbol{x})-H(\boldsymbol{x}))^{2}\\
-&=\sum_{i=1}^{T} w_{i}h_i(\boldsymbol{x})^2-H(\boldsymbol{x})^{2}
+f(\boldsymbol{x}) & =f\left(\boldsymbol{x}_k\right)+\nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}_k\right) \\
+& =\|\boldsymbol{x}\|_2^2+2 \boldsymbol{x}_k^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}_k\right) \\
+& =\|\boldsymbol{x}\|_2^2+2 \boldsymbol{x}_k^{\mathrm{T}} \alpha \boldsymbol{d}
 \end{aligned}
+
 $$
-所以
+
+ 此时
+$\nabla f\left(\boldsymbol{x}_k\right)=[6,8]^{\mathrm{T}}$, 因此
+$\boldsymbol{d}_k=-\frac{\nabla f\left(\boldsymbol{x}_k\right)}{\left\|\nabla f\left(\boldsymbol{x}_k\right)\right\|_2}=[-0.6,-0.8]^{\mathrm{T}}$
+。接下来求 $\alpha_k$, 将 $\boldsymbol{x}_k$ 和 $\boldsymbol{d}_k$ 代入:
+
+
 $$
-\bar{A}(h | \boldsymbol{x}) =\sum_{i=1}^{T} w_{i} E\left(h_{i} | \boldsymbol{x}\right)-E(H | \boldsymbol{x})
+
+\begin{aligned}
+f\left(\boldsymbol{x}_k+\alpha \boldsymbol{d}_k\right) & =(3-0.6 \alpha)^2+(4-0.8 \alpha)^2 \\
+& =\alpha^2-10 \alpha+25 \\
+& =(\alpha-5)^2
+\end{aligned}
+
 $$
 
-## 8.32
+ 因此可得 $\alpha_k=5$ (或对 $\alpha$ 求导, 再令导数等于
+0 )。此时
+
 
 $$
-\sum_{i=1}^{T} w_{i} \int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}=\sum_{i=1}^{T} w_{i} \int E\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}-\int E(H | \boldsymbol{x}) p(\boldsymbol{x}) d \boldsymbol{x}
+
+\Delta \boldsymbol{x}=\alpha_k \boldsymbol{d}_k=[-3,-4]^{\mathrm{T}}
+
 $$
 
-[解析]:$\int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}$表示个体学习器在全样本上的“分歧”,$\sum_{i=1}^{T} w_{i} \int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}$表示集成在全样本上的“分歧”,然后根据式(8.31)拆成误差的形式。
 
-## 8.33
+则 $\boldsymbol{x}_k+\Delta \boldsymbol{x}=[0,0]^{\mathrm{T}}$, 函数值
+$f\left(\boldsymbol{x}_k+\Delta \boldsymbol{x}\right)=0$ 。
+通过以上分析, 只想强调两点: (1)梯度下降法求解下降最快的方向
+$\boldsymbol{d}_k$ 时应该求解如下优化问题:
+
 
 $$
-E_{i}=\int E\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}
+
+\boldsymbol{d}_k=\underset{\boldsymbol{d}}{\arg \min } \nabla f\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \boldsymbol{d} \text { s.t. }\|\boldsymbol{d}\|_2=C
+
 $$
 
-[解析]:表示个体学习器在全样本上的泛化误差。
 
-## 8.34
+其中 $C$ 为常量, 即不必严格限定 $\left\|\boldsymbol{d}_k\right\|_2=1$,
+只要固定向量长度, 与 $\alpha_k$ 搭配即可。 (2)梯度下降法求解步长
+$\alpha_k$ 应该求解如下优化问题:
+
 
 $$
-A_{i}=\int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x}
+
+\alpha_k=\underset{\alpha}{\arg \min } f\left(\boldsymbol{x}_k+\alpha \boldsymbol{d}_k\right)
+
 $$
 
-[解析]:表示个体学习器在全样本上的分歧。
 
-## 8.35
+实际应用中, 很多时候不会去求最优的 $\alpha_k$, 而是靠经验设置一个步长。
+
+### 8.6.2 从梯度下降的角度解释AdaBoost
+
+AdaBoost 第 $t$ 轮迭代时最小化式(8.5)的指数损失函数
+
 
 $$
-E=\int E(H | \boldsymbol{x}) p(\boldsymbol{x}) d \boldsymbol{x}
+
+\ell_{\exp }\left(H_t \mid \mathcal{D}\right)=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_t(\boldsymbol{x})}\right]=\sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H_t(\boldsymbol{x})}
+
 $$
 
-[解析]:表示集成在全样本上的泛化误差。
 
-## 8.36
+对 $\ell_{\exp }\left(H_t \mid \mathcal{D}\right)$ 每一项在 $H_{t-1}$
+处泰勒展开 
 
 $$
-E=\bar{E}-\bar{A}
+
+\begin{aligned}
+\ell_{\exp }\left(H_t \mid \mathcal{D}\right) & \approx \sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x})\left(e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}-f(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}\left(H_t(\boldsymbol{x})-H_{t-1}(\boldsymbol{x})\right)\right) \\
+& =\sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x})\left(e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}-e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) \alpha_t h_t(\boldsymbol{x})\right) \\
+& =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}-e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) \alpha_t h_t(\boldsymbol{x})\right]
+\end{aligned}
+
 $$
 
-[解析]:$\bar{E}$表示个体学习器泛化误差的加权均值,$\bar{A}$表示个体学习器分歧项的加权均值,该式称为“误差-分歧分解”。
+ 其中 $H_t=H_{t-1}+\alpha_t h_t$ 。注意: $\alpha_t, h_t$
+是第 $t$ 轮待解的变量。 另外补充一下, 在上式展开中的变量为
+$H_t(\boldsymbol{x})$, 在 $H_{t-1}$ 处一阶导数为
+
+
+$$
+
+\left.\frac{\partial e^{-f(\boldsymbol{x}) H_t(\boldsymbol{x})}}{\partial H_t(\boldsymbol{x})}\right|_{H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})}=-f(\boldsymbol{x}) e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}
+
+$$
+
+
+如果看不习惯上述泰勒展开过程, 可令变量 $z=H_t(\boldsymbol{x})$ 和函数
+$g(z)=e^{-f(\boldsymbol{x}) z}$, 对 $g(z)$ 在
+$z_0=H_{t-1}(\boldsymbol{x})$ 处泰勒展开, 得 
+
+$$
+
+\begin{aligned}
+g(z) & \approx g\left(z_0\right)+g^{\prime}\left(z_0\right)\left(z-z_0\right) \\
+& =g\left(z_0\right)-f(\boldsymbol{x}) e^{-f(\boldsymbol{x}) z_0}\left(z-z_0\right) \\
+& =e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}-e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x})\left(H_t(\boldsymbol{x})-H_{t-1}(\boldsymbol{x})\right) \\
+& =e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})}-e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) \alpha_t h_t(\boldsymbol{x})
+\end{aligned}
+
+$$
+
+
+
+注意此处 $h_t(\boldsymbol{x}) \in\{-1,+1\}$,
+类似于3.3.2节梯度下降法中的约束 $\left\|\boldsymbol{d}^t\right\|=1$ 。
+类似于使用梯度下降法求解下降最快的方向$\boldsymbol{d}^t$, 此处先求 $h_t$
+(先不管 $\alpha_t$ ):
+
+
+$$
+
+h_t=\underset{h}{\arg \min } \sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x})\left(-e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right) \quad \text { s.t. } h(\boldsymbol{x}) \in\{-1,+1\}
+
+$$
+
+
+将负号去掉, 最小化变为最大化问题 
+
+$$
+
+\begin{aligned}
+h_t & =\underset{h}{\arg \max } \sum_{\boldsymbol{x} \in D} \mathcal{D}(\boldsymbol{x})\left(e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right) \\
+& =\underset{h}{\arg \max } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[e^{-f(\boldsymbol{x}) H_{t-1}(\boldsymbol{x})} f(\boldsymbol{x}) h(\boldsymbol{x})\right] \quad \text { s.t. } h(\boldsymbol{x}) \in\{-1,+1\}
+\end{aligned}
+
+$$
+
+ 这就是式(8.14)的第 3 个等号的结果,
+因此其余推导参见8.2.16节即可。 由于这里的 $h(\boldsymbol{x})$
+约束较强, 因此不能直接取负梯度方向, 书中经过推导得到了
+$h_t(\boldsymbol{x})$ 的 表达式, 即式(8.18)。实际上,
+可以将此结果理解为满足约束条件的最快下降方向。 求得
+$h_t(\boldsymbol{x})$ 之后再求 $\alpha_t$
+(8.2.16节 "AdaBoost的个人推导"
+注解中已经写过一遍, 此处仅粘贴至此,
+具体参见8.2.16节注解,尤其是
+$\ell_{\exp }\left(H_{t-1}+\alpha h_t \mid \mathcal{D}\right)$
+表达式的由来):
+
+
+$$
+
+\alpha_k=\underset{\alpha}{\arg \min } \ell_{\exp }\left(H_{t-1}+\alpha h_t \mid \mathcal{D}\right)
+
+$$
+
+
+对指数损失函数
+$\ell_{\exp }\left(H_{t-1}+\alpha h_t \mid \mathcal{D}\right)$ 求导, 得
+
+
+$$
+
+\begin{aligned}
+\frac{\partial \ell_{\exp }\left(H_{t-1}+\alpha h_t \mid \mathcal{D}\right)}{\partial \alpha} & =\frac{\partial\left(e^{-\alpha} \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)+\left(e^\alpha-e^{-\alpha}\right) \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right)}{\partial \alpha} \\
+& =-e^{-\alpha} \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)+\left(e^\alpha+e^{-\alpha}\right) \sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)
+\end{aligned}
+
+$$
+
+ 令导数等于零, 得 
+
+$$
+
+\begin{aligned}
+\frac{e^{-\alpha}}{e^\alpha+e^{-\alpha}} & =\frac{\sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)}{\sum_{i=1}^{|D|} \mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)}=\sum_{i=1}^{|D|} \frac{\mathcal{D}_t^{\prime}\left(\boldsymbol{x}_i\right)}{Z_t} \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right) \\
+& =\sum_{i=1}^{|D|} \mathcal{D}_t\left(\boldsymbol{x}_i\right) \mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)=\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}_t}\left[\mathbb{I}\left(f\left(\boldsymbol{x}_i\right) \neq h\left(\boldsymbol{x}_i\right)\right)\right] \\
+& =\epsilon_t
+\end{aligned}
+
+$$
+
+ 对上述等式化简, 得 
+
+$$
+
+\begin{aligned}
+\frac{e^{-\alpha}}{e^\alpha+e^{-\alpha}}=\frac{1}{e^{2 \alpha}+1} & \Rightarrow e^{2 \alpha}+1=\frac{1}{\epsilon_t} \Rightarrow e^{2 \alpha}=\frac{1-\epsilon_t}{\epsilon_t} \Rightarrow 2 \alpha=\ln \left(\frac{1-\epsilon_t}{\epsilon_t}\right) \\
+& \Rightarrow \alpha_t=\frac{1}{2} \ln \left(\frac{1-\epsilon_t}{\epsilon_t}\right)
+\end{aligned}
+
+$$
+
+ 即式(8.11)。 通过以上推导可以发现: AdaBoost
+每一轮的迭代就是基于梯度下降法求解损失函数为 指数损失函数的二分类问题。
+**(约束条件
+$h_t(\boldsymbol{x}) \in\{-1,+1\}$)**
+
+### 8.6.3 梯度提升(Gradient Boosting)
+
+将 AdaBoost 的问题一般化, 即不限定损失函数为指数损失函数,
+也不局限于二分类问 题, 则可以将式(8.5)写为更一般化的形式
+
+
+$$
+
+\begin{aligned}
+\ell\left(H_t \mid \mathcal{D}\right) & =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\operatorname{err}\left(H_t(\boldsymbol{x}), f(\boldsymbol{x})\right)\right] \\
+& =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\operatorname{err}\left(H_{t-1}(\boldsymbol{x})+\alpha_t h_t(\boldsymbol{x}), f(\boldsymbol{x})\right)\right]
+\end{aligned}
+
+$$
+
+ 问题时, $f(\boldsymbol{x}) \in \mathbb{R}$,
+损失函数可使用平方损失
+$\operatorname{err}\left(H_t(\boldsymbol{x}), f(\boldsymbol{x})\right)=\left(H_t(\boldsymbol{x})-f(\boldsymbol{x})\right)^2$
+。 针对该一般化的损失函数和一般的学习问题, 要通过 $T$ 轮迭代得到学习器
+
+
+$$
+
+H(\boldsymbol{x})=\sum_{t=1}^T \alpha_t h_t(\boldsymbol{x})
+
+$$
+
+ 类似于
+AdaBoost, 第 $t$ 轮得到 $\alpha_t, h_t(\boldsymbol{x})$,
+可先对损失函数在 $H_{t-1}(\boldsymbol{x})$ 处进行泰勒展开:
+
+
+$$
+
+\begin{aligned}
+\ell\left(H_t \mid \mathcal{D}\right) & \approx \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\operatorname{err}\left(H_{t-1}(\boldsymbol{x}), f(\boldsymbol{x})\right)+\left.\frac{\partial \operatorname{err}\left(H_t(\boldsymbol{x}), f(\boldsymbol{x})\right)}{\partial H_t(\boldsymbol{x})}\right|_{H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})}\left(H_t(\boldsymbol{x})-H_{t-1}(\boldsymbol{x})\right)\right] \\
+& =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\operatorname{err}\left(H_{t-1}(\boldsymbol{x}), f(\boldsymbol{x})\right)+\left.\frac{\partial \operatorname{err}\left(H_t(\boldsymbol{x}), f(\boldsymbol{x})\right)}{\partial H_t(\boldsymbol{x})}\right|_{H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})} \alpha_t h_t(\boldsymbol{x})\right] \\
+& =\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\operatorname{err}\left(H_{t-1}(\boldsymbol{x}), f(\boldsymbol{x})\right)\right]+\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\left.\frac{\partial \operatorname{err}\left(H_t(\boldsymbol{x}), f(\boldsymbol{x})\right)}{\partial H_t(\boldsymbol{x})}\right|_{H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})} \alpha_t h_t(\boldsymbol{x})\right]
+\end{aligned}
+
+$$
+
+ 注意, 在上式展开中的变量为 $H_t(\boldsymbol{x})$, 且有
+$H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})+\alpha_t h_t(\boldsymbol{x})$
+(类似于梯度下降法中
+$\left.\boldsymbol{x}=\boldsymbol{x}_k+\alpha_k \boldsymbol{d}_k\right)$
+。上式中括号内第 1 项为常量 $\ell\left(H_{t-1} \mid \mathcal{D}\right)$,
+最小化 $\ell\left(H_t \mid \mathcal{D}\right)$ 只须最小化第 2
+项即可。先不考虑权重 $\alpha_t$, 求解如下优化问题可得
+$h_t(\boldsymbol{x})$ :
+
+
+$$
+
+h_t(\boldsymbol{x})=\underset{h}{\arg \min } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\left.\frac{\partial \operatorname{err}\left(H_t(\boldsymbol{x}), f(\boldsymbol{x})\right)}{\partial H_t(\boldsymbol{x})}\right|_{H_t(\boldsymbol{x})=H_{t-1}(\boldsymbol{x})} h(\boldsymbol{x})\right] \quad \text { s.t. constraints for } h(\boldsymbol{x})
+
+$$
+
+
+解得 $h_t(\boldsymbol{x})$ 之后, 再求解如下优化问题可得权重 $\alpha_t$ :
+
+
+$$
+
+\alpha_t=\underset{\alpha}{\arg \min } \mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}\left[\operatorname{err}\left(H_{t-1}(\boldsymbol{x})+\alpha h_t(\boldsymbol{x}), f(\boldsymbol{x})\right)\right]
+
+$$
+
+
+以上就是梯度提升(Gradient Boosting)的理论框架,
+即每轮通过梯度(Gradient)下降的方式将 $T$
+个弱学习器提升(Boosting)为强学习器。可以看出 AdaBoost 是其特殊形式。
+
+Gradient Boosting 算法的官方版本参见[5]第 5-6 页,其中算法伪代码部分如下
+
+![gradient_boost](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/94043087-7ecb-4a1b-a06d-0a729c0989b3-gradient_boost.svg)
+
+感觉该伪代码针对的还是在任意损失函数
+$L\left(y_i, F\left(\boldsymbol{x}_i\right)\right)$
+下的回归问题。Algorithm 1 中第 3 步 和第 4 步意思是用
+$\beta h\left(\boldsymbol{x}_i, \boldsymbol{a}\right)$ 拟合
+$F(\boldsymbol{x})=F_{m-1}(\boldsymbol{x})$ 处负梯度, 但第 4
+步表示只求参数 $\boldsymbol{a}_m$, 第 5 步单独求解参数 $\rho_m$,
+这里的疑问是为什么第 4 步要用最小二乘法(即 $3.2$ 节的线性回
+归)去拟合负梯度(又称伪残差)?
+
+简单理解如下: 第 4 步要解的
+$h\left(\boldsymbol{x}_i, \boldsymbol{a}\right)$
+相当于梯度下降法中的待解的下降方向 $\boldsymbol{d}$,
+在梯度下降法中也已提到不必严格限制 $\|\boldsymbol{d}\|_2=1$,
+长度可以由步长 $\alpha$ 调节 (例如前面梯度下降方解释中的例 1 , 若直接取
+$d_k=-f^{\prime}\left(x_k\right)=-4$, 则可得 $\alpha_k=0.5$, 仍有
+$\left.\Delta x=\alpha_k d_k=-2\right)$, 因此第 4 步直接用
+$h\left(\boldsymbol{x}_i, \boldsymbol{a}\right)$ 拟合负梯度,
+与梯度下降中约束 $\|\boldsymbol{d}\|_2=1$ 的区别在于末对负梯度
+除以其模值进行归一化而已。
+
+那为什么不是直接令 $h\left(\boldsymbol{x}_i, \boldsymbol{a}\right)$
+等于负梯度呢? 因为这里实际是求假设函数 $h$, 将数据集 中所有的
+$\boldsymbol{x}_i$ 经假设函数 $h$ 映射到对应的伪残差 (负梯度)
+$\tilde{y}_i$, 所以只能做线性回归了。
+
+李航《统计学习方法》[2] 第 8.4.3 节中的算法 $8.4$ 并末显式体现参数
+$\rho_m$, 这应该是第 2 步 的(c)步完成的, 因为(b)步只是拟合一棵回归树
+(相当于 Algorithm 1 第 4 步解得
+$h\left(\boldsymbol{x}_i, \boldsymbol{a}\right)$ ), 而 (c)
+步才确定每个叶结点的取值 (相当于 Algorithm 1 第 5 步解得 $\rho_m$,
+只是每个叶结点均对应一个 $\left.\rho_m\right)$;
+而且回归问题中基函数为实值函数,可以将参数 $\rho_m$ 吸收到基函数中。
+
+### 8.6.4 梯度提升树(GBDT)
+
+本部分无实质GBDT内容,仅为梳理GBDT的概念,具体可参考给出的资源链接。
+
+对于GBDT,一般资料是按Gradient
+Boosting+CART处理回归问题讲解的,如林轩田《机器学习技法》课程第11讲。
+但是,分类问题也可以用回归来处理,例如3.3节的对数几率回归,只需将平方损失换为对率损失(参见式(3.27)和式(6.33),二者关系可参见第3章注解中有关式(3.27)的推导)即可。细节可以搜索林轩田老师的《机器学习基石》和《机器学习技法》两门课程以及配套的视频。
+
+### 8.6.5 XGBoost
+
+本部分无实质XGBoost内容,仅为梳理XGBoost的概念,具体可参考给出的资源链接。
+
+首先,XGBoost 是eXtreme Gradient Boosting的简称。
+其次,XGBoost与GBDT的关系,可大致类比为LIBSVM与SVM(或SMO算法)的关系。LIBSVM是SVM算法的一种高效实现软件包,XGBoost是GBDT的一种高效实现;在实现层面,LIBSVM对SMO算法进行了许多改进,XGBoost也对GBDT进行了许多改进;另外,LIBSVM扩展了许多SVM变体,XGBoost也不再仅仅是标准的GBDT,也扩展了一些其它功能。
+最后,XGBoost是由陈天奇开发的;XGBoost
+论文可以参考[6],XGBoost工具包、文档和源码等均可以在Github上搜索到。
+
+## 参考文献
+[1] Jerome Friedman, Trevor Hastie, and Robert Tibshirani. Additive logistic regression: a statistical view
+of boosting (with discussion and a rejoinder by the authors). The annals of statistics, 28(2):337–407,
+2000.
+
+[2] 李航. 统计学习方法. 清华大学出版社, 2012.
+
+[3] Zhi-Hua Zhou and Ji Feng. Deep forest: Towards an alternative to deep neural networks. In IJCAI,
+pages 3553–3559, 2017.
+
+[4] 朱德通孙文瑜, 徐成贤. 最优化方法. 最优化方法, 2010.
+
+[5] Jerome H Friedman. Greedy function approximation: a gradient boosting machine. Annals of statistics,
+pages 1189–1232, 2001.
+
+[6] Tianqi Chen and Carlos Guestrin. Xgboost: A scalable tree boosting system. In Proceedings of the
+22nd acm sigkdd international conference on knowledge discovery and data mining, pages 785–794,
+2016.

+ 651 - 92
docs/chapter9/chapter9.md

@@ -1,96 +1,380 @@
-## 9.5 
+# 第9章 聚类
 
-$$
-\mathrm{JC}=\frac{a}{a+b+c}
-$$
+到目前为止,前面章节介绍的方法都是针对监督学习(supervised
+learning)的,本章介绍的聚类(clustering)和下一章介绍的降维属于无监督学习(unsupervised
+learning)。
+
+## 9.1 聚类任务
+
+单词"cluster"既是动词也是名词,作为名词时翻译为"簇",即聚类得到的子集;一般谈到"聚类"这个概念时对应其动名词形式"clustering"。
+
+## 9.2 性能度量
+
+本节给出了聚类性能度量的三种外部指标和两种内部指标,其中式(9.5)
+\~式(9.7)是基于式(9.1)
+\~式(9.4)导出的三种外部指标,而式(9.12)和式(9.13)是基于式(9.8)
+\~式(9.11)导出的两种内部指标。读本节内容需要心里清楚的一点:本节给出的指标仅是该领域的前辈们定义的指标,在个人研究过程中可以根据需要自己定义,说不定就会被业内同行广泛使用。
+
+### 9.2.1 式(9.5)的解释
+
+给定两个集合$A$和$B$,则Jaccard系数定义为如下公式
 
-[解析]:给定两个集合$A$和$B$,则Jaccard系数定义为如下公式
 
 $$
-\mathrm{JC}=\frac{|A\bigcap B|}{|A\bigcup B|}=\frac{|A\bigcap B|}{|A|+|B|-|A\bigcap B|}
+
+JC=\frac{|A\bigcap B|}{|A\bigcup B|}=\frac{|A\bigcap B|}{|A|+|B|-|A\bigcap B|}
+
 $$
-Jaccard系数可以用来描述两个集合的相似程度。
 
+
+Jaccard系数可以用来描述两个集合的相似程度。
 推论:假设全集$U$共有$n$个元素,且$A\subseteq U$,$B\subseteq U$,则每一个元素的位置共有四种情况:
 
-1、元素同时在集合$A$和$B$中,这样的元素个数记为$M_{11}$;
+1.  元素同时在集合$A$和$B$中,这样的元素个数记为$M_{11}$;
 
-2、元素出现在集合$A$中,但没有出现在集合$B$中,这样的元素个数记为$M_{10}$;
+2.  元素出现在集合$A$中,但没有出现在集合$B$中,这样的元素个数记为$M_{10}$;
 
-3、元素没有出现在集合$A$中,但出现在集合$B$中,这样的元素个数记为$M_{01}$;
+3.  元素没有出现在集合$A$中,但出现在集合$B$中,这样的元素个数记为$M_{01}$;
 
-4元素既没有出现在集合$A$中,也没有出现在集合$B$中,这样的元素个数记为$M_{00}$。
+4.  元素既没有出现在集合$A$中,也没有出现在集合$B$中,这样的元素个数记为$M_{00}$。
 
 根据Jaccard系数的定义,此时的Jaccard系数为如下公式
+
+
 $$
+
 \mathrm{JC}=\frac{M_{11}}{M_{11}+M_{10}+M_{01}}
+
 $$
+
+
 由于聚类属于无监督学习,事先并不知道聚类后样本所属类别的类别标记所代表的意义,即便参考模型的类别标记意义是已知的,我们也无法知道聚类后的类别标记与参考模型的类别标记是如何对应的,况且聚类后的类别总数与参考模型的类别总数还可能不一样,因此只用单个样本无法衡量聚类性能的好坏。
 
 由于外部指标的基本思想就是以参考模型的类别划分为参照,因此如果某一个样本对中的两个样本在聚类结果中同属于一个类,在参考模型中也同属于一个类,或者这两个样本在聚类结果中不同属于一个类,在参考模型中也不同属于一个类,那么对于这两个样本来说这是一个好的聚类结果。
 
-总的来说所有样本对中的两个样本共存在四种情况:	
-1、样本对中的两个样本在聚类结果中属于同一个类,在参考模型中也属于同一个类;	
-2、样本对中的两个样本在聚类结果中属于同一个类,在参考模型中不属于同一个类;	
-3、样本对中的两个样本在聚类结果中不属于同一个类,在参考模型中属于同一个类;	
-4、样本对中的两个样本在聚类结果中不属于同一个类,在参考模型中也不属于同一个类。
+总的来说所有样本对中的两个样本共存在四种情况:
+
+1.  样本对中的两个样本在聚类结果中属于同一个类,在参考模型中也属于同一个类;
+
+2.  样本对中的两个样本在聚类结果中属于同一个类,在参考模型中不属于同一个类;
+
+3.  样本对中的两个样本在聚类结果中不属于同一个类,在参考模型中属于同一个类;
+
+4.  样本对中的两个样本在聚类结果中不属于同一个类,在参考模型中也不属于同一个类。
+
+综上所述,即所有样本对存在着书中式(9.1)
+\~式(9.4)的四种情况,现在假设集合$A$中存放着两个样本都同属于聚类结果的同一个类的样本对,即$A=SS\bigcup SD$,集合$B$中存放着两个样本都同属于参考模型的同一个类的样本对,即$B=SS\bigcup DS$,那么根据Jaccard系数的定义有:
+
 
-综上所述,即所有样本对存在着书中公式(9.1)-(9.4)的四种情况,现在假设集合$A$中存放着两个样本都同属于聚类结果的同一个类的样本对,即$A=SS\bigcup SD$,集合$B$中存放着两个样本都同属于参考模型的同一个类的样本对,即$B=SS\bigcup DS$,那么根据Jaccard系数的定义有:
 $$
+
 \mathrm{JC}=\frac{|A\bigcap B|}{|A\bigcup B|}=\frac{|SS|}{|SS\bigcup SD\bigcup DS|}=\frac{a}{a+b+c}
+
 $$
-也可直接将书中公式(9.1)-(9.4)的四种情况类比推论,即$M_{11}=a$,$M_{10}=b$,$M_{01}=c$,所以
+
+
+也可直接将书中式(9.1)
+\~式(9.4)的四种情况类比推论,即$M_{11}=a$,$M_{10}=b$,$M_{01}=c$,所以
+
+
 $$
+
 \mathrm{JC}=\frac{M_{11}}{M_{11}+M_{10}+M_{01}}=\frac{a}{a+b+c}
+
+$$
+
+
+
+### 9.2.2 式(9.6)的解释
+
+其中$\frac{a}{a+b}$和$\frac{a}{a+c}$为Wallace提出的两个非对称指标,$a$代表两个样本在聚类结果和参考模型中均属于同一类的样本对的个数,$a+b$代表两个样本在聚类结果中属于同一类的样本对的个数,$a+c$代表两个样本在参考模型中属于同一类的样本对的个数,这两个非对称指标均可理解为样本对中的两个样本在聚类结果和参考模型中均属于同一类的概率。由于指标的非对称性,这两个概率值往往不一样,因此Fowlkes和Mallows提出利用几何平均数将这两个非对称指标转化为一个对称指标,即Fowlkes
+and Mallows Index, FMI。
+
+### 9.2.3 式(9.7)的解释
+
+Rand Index定义如下:
+
+
 $$
 
-## 9.6
+\mathrm{RI}=\frac{a+d}{a+b+c+d}=\frac{a+d}{m(m-1)/2}=\frac{2(a+d)}{m(m-1)}
+
 $$
-\mathrm{FMI}=\sqrt{\frac{a}{a+b}\cdot \frac{a}{a+c}}
+
+
+由第一个等号可知RI肯定不大于1。之所以 $a+b+c+d=m(m-1) / 2$,
+这是因为式(9.1) \~式(9.4)遍历 了所有
+$\left(\boldsymbol{x}_i, \boldsymbol{x}_j\right)$ 组合对 $(i \neq j)$ :
+其中 $i=1$ 时 $j$ 可以取 2 到 $m$ 共 $m-1$ 个值, $i=2$ 时 $j$ 可以取 3
+到 $m$ 共 $m-2$ 个值, $\cdots \cdots, i=m-1$ 时 $j$ 仅可以取 $m$ 共 1
+个值, 因此 $\left(\boldsymbol{x}_i, \boldsymbol{x}_j\right)$ 组合对的个
+数为从 1 到 $m - 1$求和, 根据等差数列求和公式即得 $m(m-1) / 2$ 。
+
+这个指标可以理解为两个样本都属于聚类结果和参考模型中的同一类的样本对的个数与两个样本都分别不属于聚类结果和参考模型中的同一类的样本对的个数的总和在所有样本对中出现的频率,可以简单理解为聚类结果与参考模型的一致性。
+
+### 9.2.4 式(9.8)的解释
+
+簇内距离的定义式:求和号左边是$(x_i, x_j)$组合个数的倒数,求和号右边是这些组合的距离和,所以两者相乘定义为平均距离。
+
+### 9.2.5 式(9.12)的解释
+
+式中, $k$ 表示聚类结果中簇的个数。该式的DBI值越小越好,
+因为我们希望"物以类聚", 即同一簇的样本尽可能彼此相似,
+$\operatorname{avg}\left(C_i\right)$ 和
+$\operatorname{avg}\left(C_j\right)$ 越小越好; 我们希望不同簇的样本尽
+可能不同, 即 $d_{\text {cen }}\left(C_i, C_j\right)$ 越大越好。 [勘误:
+第 25 次印刷将分母
+$d_{\text {cen }}\left(\boldsymbol{\mu}_i, \boldsymbol{\mu}_j\right)$
+改为
+$d_{\text {cen }}\left(C_i, C_j\right)$]{style="background-color: lightgray"}
+
+## 9.3 距离计算
+
+距离计算在各种算法中都很常见,本节介绍的距离计算方式和"西瓜书"10.6节介绍的马氏距离基本囊括了一般的距离计算方法。另外可能还会碰到"西瓜书"10.5节的测地线距离。
+
+本节有很多概念和名词很常见,比如本节开篇介绍的距离度量的四个基本性质、闵可夫斯基距离、欧氏距离、曼哈顿距离、切比雪夫距离、数值属性、离散属性、有序属性、无序属性、非度量距离等,注意对应的中文和英文。
+
+### 9.3.1 式(9.21)的解释
+
+该式符号较为抽象, 下面计算"西瓜书"第 76 页表4.1西瓜数据集2.0属性根蒂上
+"蜷缩" 和 "稍 蜷"两个离散值之间的距离。
+
+此时, $u$ 为 "根蒂", $a$ 为属性根蒂上取值为 "蜷缩", $b$
+为属性根蒂上取值为 "稍蜷", 根据边注, 此时样本类别已知 (好瓜/坏瓜), 因此
+$k=2$ 。
+
+从"西瓜书"表4.1中可知, 根蒂为蜷缩的样本共有 8 个 (编号 $1\sim 5$、编号
+12、编号 $16\sim 17$), 即 $m_{u, a}=8$, 根蒂为稍蜷的样本共有 7 个 (编号
+$6 \sim 9$ 和编号 $13 \sim 15$), 即 $m_{u, b}=7$; 设 $i=1$ 对 应好瓜,
+$i=2$ 对应坏瓜, 好瓜中根蒂为蜷缩的样本共有 5 个(编号 $1 \sim 5$ ), 即
+$m_{u, a, 1}=5$, 好瓜中根蒂为稍蜷的样本共有 3 个 (编号 6 8), 即
+$m_{u, b, 1}=3$, 坏瓜中根蒂为蜷缩的样本 共有 3 个 (编号 12 和编号
+$16 \sim 17$ ), 即 $m_{u, a, 2}=3$, 坏瓜中根蒂为稍蜷的样本共有 4 个(编
+号 9 和编号 $13 \sim 15)$, 即 $m_{u, b, 2}=4$, 因此 VDM 距离为
+
+
 $$
 
-[解析]:其中$\frac{a}{a+b}$和$\frac{a}{a+c}$为Wallace提出的两个非对称指标,$a$代表两个样本在聚类结果和参考模型中均属于同一类的样本对的个数,$a+b$代表两个样本在聚类结果中属于同一类的样本对的个数,$a+c$代表两个样本在参考模型中属于同一类的样本对的个数,这两个非对称指标均可理解为样本对中的两个样本在聚类结果和参考模型中均属于同一类的概率。由于指标的非对称性,这两个概率值往往不一样,因此Fowlkes和Mallows提出利用几何平均数将这两个非对称指标转化为一个对称指标,即Fowlkes and Mallows Index, FMI。
+\begin{aligned}
+\operatorname{VDM}_p(a, b) & =\left|\frac{m_{u, a, 1}}{m_{u, a}}-\frac{m_{u, b, 1}}{m_{u, b}}\right|^p+\left|\frac{m_{u, a, 2}}{m_{u, a}}-\frac{m_{u, b, 2}}{m_{u, b}}\right|^p \\
+& =\left|\frac{5}{8}-\frac{3}{7}\right|^p+\left|\frac{3}{8}-\frac{4}{7}\right|^p
+\end{aligned}
+
+$$
+
+
+
+## 9.4 原型聚类
+
+本节介绍了三个原型聚类算法, 其中 $k$ 均值算法最为经典,
+几乎成为聚类的代名词, 在 Matlab、scikit-learn等主流的科学计算包中均有
+kmeans 函数供调用。学习向量量化也是无监督聚类的一种方式,
+在向量检索的引擎,比如facebook faiss中发挥重要的应用。
+
+前两个聚类算法比较易懂, 下面主要推导第三个聚类算法:高斯混合聚类。
+
+### 9.4.1 式(9.28)的解释
+
+该式就是多元高斯分布概率密度函数的定义式:
+
 
-## 9.7
 $$
-\mathrm{RI}=\frac{2(a+d)}{m(m-1)}
+
+p(\boldsymbol{x})=\frac{1}{(2 \pi)^{\frac{n}{2}}|\boldsymbol{\Sigma}|^{\frac{1}{2}}} e^{-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu})^{\top} \boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu})}
+
 $$
-[解析]:Rand Index定义如下:
+
+
+对应到我们常见的一元高斯分布概率密度函数的定义式:
+
+
 $$
-\mathrm{RI}=\frac{a+d}{a+b+c+d}=\frac{a+d}{m(m-1)/2}=\frac{2(a+d)}{m(m-1)}
+
+p(x)=\frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}
+
 $$
-其中$a$表示聚类结果为同一类别且参考模型给出的划分也属于统一类别的样本对的个数。$d$表示聚类结果不属于同一类别且参考模型也不划分到同一类别的样本对的个数。分母$m(m-1)/2$是所有样本的总对数,因此$\mathrm{RI}$可以简单理解为聚类结果与参考模型的一致性。
 
-## 9.8
+
+其中 $\sqrt{2 \pi}=(2 \pi)^{\frac{1}{2}}$ 对应
+$(2 \pi)^{\frac{n}{2}}, \sigma$ 对应
+$|\boldsymbol{\Sigma}|^{\frac{1}{2}}$, 指数项中分母中的方差 $\sigma^2$
+对应协方差矩阵 $\boldsymbol{\Sigma}$,
+$\frac{(x-\mu)^2}{\sigma^2} \text { 对应 }(\boldsymbol{x}-\boldsymbol{\mu})^{\top} \boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu})$。
+
+概率密度函数 $p(\boldsymbol{x})$ 是 $\boldsymbol{x}$
+的函数。其中对于某个特定的 $\boldsymbol{x}$ 来说, 函数值
+$p(\boldsymbol{x})$ 就是一个数, 若 $\boldsymbol{x}$ 的维度为 2 ,
+则可以将函数 $p(\boldsymbol{x})$ 的图像可视化,
+是三维空间的一个曲面。类似于一元高 斯分布 $p(x)$ 与横轴 $p(x)=0$
+之间的面积等于 1 (即 $\int p(x) \mathrm{d} x=1$ ), $p(\boldsymbol{x})$
+曲面与平面 $p(\boldsymbol{x})=0$ 之间的体积等于 1 (即
+$\int p(\boldsymbol{x}) \mathrm{d} \boldsymbol{x}=1$ 。
+
+注意, "西瓜书"中后面将 $p(\boldsymbol{x})$ 记为
+$p(\boldsymbol{x} \mid \boldsymbol{\mu}, \boldsymbol{\Sigma})$ 。
+
+### 9.4.2 式(9.29)的解释
+
+对于该式表达的高斯混合分布概率密度函数
+$p_{\mathcal{M}}(\boldsymbol{x})$, 与式 $(9.28)$ 中的
+$p(\boldsymbol{x})$ 不同的是, 它 由 $k$
+个不同的多元高斯分布加权而来。具体来说, $p(\boldsymbol{x})$ 仅由参数
+$\boldsymbol{\mu}, \boldsymbol{\Sigma}$ 确定, 而
+$p_{\mathcal{M}}(\boldsymbol{x})$ 由 $k$ 个 "混合系数" $\alpha_i$ 以及
+$k$ 组参数 $\boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i$ 确定。
+
+在"西瓜书"中该式下方(P207 最后一段)中介绍了样本的生成过程, 实际也反应了
+"混合系数" $\alpha_i$ 的含义, 即 $\alpha_i$ 为选择第 $i$
+个混合成分的概率, 或者反过来说, $\alpha_i$ 为样本属于第 $i$ 个混合
+成分的概率。重新描述一下样本生成过程, 根据先验分布
+$\alpha_1, \alpha_2, \ldots, \alpha_k$ 选择其中一个高斯 混合成分 (即第
+$i$ 个高斯混合成分被选到的概率为 $\alpha_i$ ), 假设选到了第 $i$
+个高斯混合成分, 其 参数为 $\boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i$;
+然后根据概率密度函数
+$p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$
+(即将式(9.28) 中的 $\boldsymbol{\mu}, \boldsymbol{\Sigma}$ 替换为
+$\left.\boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$
+进行采样生成样本 $\boldsymbol{x}$ 。两个步骤的区别在于第 1
+步选择高斯混合成分时是从 $k$ 个之中选其一 (相当于概率密度函数是离散的),
+而第 2 步生成样本时是从 $\boldsymbol{x}$ 定义域中根据
+$p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right.$
+)选 择其中一个样本, 样本 $\boldsymbol{x}$ 被选中的概率即为
+$p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$
+。即第 1 步对应于离散型随机变量, 第 2 步对应于连续型随机变量。
+
+### 9.4.3 式(9.30)的解释
+
+若由上述样本生成方式得到训练集
+$D=\left\{\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_m\right\}$,
+现在的问题是对于给定样 本 $\boldsymbol{x}_j$,
+它是由哪个高斯混合成分生成的呢? 该问题即求后验概率
+$p_{\mathcal{M}}\left(z_j \mid \boldsymbol{x}_j\right)$, 其中
+$z_j \in\{1,2, \ldots, k\}$ 。下面对式(9.30)进行推导。
+
+对于任意样本, 在不考虑样本本身之前 (即先验), 若瞎猜一下它由第 $i$
+个高斯混合成分 生成的概率 $P\left(z_j=i\right)$, 那么肯定按先验概率
+$\alpha_1, \alpha_2, \ldots, \alpha_k$ 进行猜测, 即
+$P\left(z_j=i\right)=\alpha_i$ 。 若考虑样本本身带来的信息 (即后验),
+此时再猜一下它由第 $i$ 个高斯混合成分生成的概率
+$p_{\mathcal{M}}\left(z_j=i \mid \boldsymbol{x}_j\right)$,
+根据贝叶斯公式, 后验概率
+$p_{\mathcal{M}}\left(z_j=i \mid \boldsymbol{x}_j\right)$ 可写为
+
 
 $$
-\operatorname{avg}(C)=\frac{2}{|C|(|C|-1)} \sum_{1 \leqslant i<j \leqslant|C|} \operatorname{dist}\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right)
+
+p_{\mathcal{M}}\left(z_j=i \mid \boldsymbol{x}_j\right)=\frac{P\left(z_j=i\right) \cdot p_{\mathcal{M}}\left(\boldsymbol{x}_j \mid z_j=i\right)}{p_{\mathcal{M}}\left(\boldsymbol{x}_j\right)}
+
 $$
 
-[解析]:簇内距离的定义式:求和号左边是$(x_i, x_j)$组合个数的倒数,求和号右边是这些组合的距离和,所以两者相乘定义为平均距离。
 
-## 9.33
+分子第 1 项 $P\left(z_j=i\right)=\alpha_i$; 第 2 项即第 $i$
+个高斯混合成分生成样本 $\boldsymbol{x}_j$ 的概率
+$p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$,
+根据式(9.28)将 $\boldsymbol{x}, \boldsymbol{\mu}, \boldsymbol{\Sigma}$
+替换为 $\boldsymbol{x}_j, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i$
+即得; 分母 $p_{\mathcal{M}}\left(\boldsymbol{x}_j\right)$ 即为将
+$\boldsymbol{x}_j$ 代入式(9.29)即得。
+
+注意, "西瓜书"中后面将
+$p_{\mathcal{M}}\left(z_j=i \mid \boldsymbol{x}_j\right)$ 记为
+$\gamma_{j i}$, 其中 $1 \leq j \leq m, 1 \leq i \leq k$。
+
+### 9.4.4 式(9.31)的解释
+
+若将所有 $\gamma_{j i}$ 组成一个矩阵 $\Gamma$, 其中 $\gamma_{j i}$ 为第
+$j$ 行第例的元素, 矩阵 $\Gamma$ 大小为 $m \times k$, 即
+
+
 $$
-\sum_{j=1}^{m} \frac{\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{l}, \boldsymbol{\Sigma}_{l}\right)}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)=0
+
+\Gamma=\left[\begin{array}{cccc}
+\gamma_{11} & \gamma_{12} & \cdots & \gamma_{1 k} \\
+\gamma_{21} & \gamma_{22} & \cdots & \gamma_{2 k} \\
+\vdots & \vdots & \ddots & \vdots \\
+\gamma_{m 1} & \gamma_{m 2} & \cdots & \gamma_{m k}
+\end{array}\right]_{m \times k}
+
 $$
-[推导]:根据公式(9.28)可知:
+
+ 其中 $m$ 为训练集样本个数, $k$
+为高斯混合模型包含的混合模型个数。 可以看出, 式(9.31)就是找出矩阵
+$\Gamma$ 第 $j$ 行的所有 $k$ 个元素中最大的那个元素的位置。
+
+### 9.4.5 式(9.32)的解释
+
+对于训练集
+$D=\left\{\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_m\right\}$,
+现在要把 $m$ 个样本划分为 $k$ 个簇, 即认为训练集 $D$ 的样本是根据 $k$
+个不同的多元高斯分布加权而得的高斯混合模型生成的。
+
+现在的问题是, $k$ 个不同的多元高斯分布的参数
+$\left\{\left(\boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right) \mid 1 \leqslant i \leqslant k\right\}$
+及它们各自的权 重 $\alpha_1, \alpha_2, \ldots, \alpha_k$ 不知道, $m$
+个样本归到底属于哪个簇也不知道, 该怎么办呢?
+
+其实这跟 $k$ 均值算法类似, 开始时既不知道 $k$ 个簇的均值向量, 也不知道
+$m$ 个样本归到 底属于哪个簇, 最后我们采用了贪心策略,
+通过迭代优化来近似求解式(9.24)。
+
+本节的高斯混合聚类求解方法与 $k$ 均值算法, 只是具体问题具体解法不同,
+从整体上来 说, 它们都应用了 $7.6$ 节的期望最大化算法(EM 算法)。
+
+具体来说, 现假设已知式(9.30)的后验概率, 此时即可通过式(9.31)知道 $m$
+个样本归到底 属于哪个簇, 再来求解参数
+$\left\{\left(\alpha_i, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right) \mid 1 \leqslant i \leqslant k\right\}$,
+怎么求解呢? 对于每个样本 $\boldsymbol{x}_j$ 来说, 它出现的概率是
+$p_{\mathcal{M}}\left(\boldsymbol{x}_j\right)$, 既然现在训练集 $D$
+中确实出现了 $\boldsymbol{x}_j$, 我们当然希望待求解的参数
+$\left\{\left(\alpha_i, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right) \mid 1 \leqslant i \leqslant k\right\}$
+能够使这种可能性 $p_{\mathcal{M}}\left(\boldsymbol{x}_j\right)$ 最大;
+又因为我们假设 $m$ 个样本是独 立的, 因此它们恰好一起出现的概率就是
+$\prod_{j=1}^m p_{\mathcal{M}}\left(\boldsymbol{x}_j\right)$,
+即所谓的似然函数; 一般来说, 连乘容易造成下溢 ( $m$ 个大于 0 小于 1
+的数相乘, 当 $m$ 较大时, 乘积会非常非常小, 以致
+于计算机无法表达这么小的数, 产生下溢), 所以常用对数似然替代,
+即式(9.32)。
+
+### 9.4.6 式(9.33)的推导
+
+根据公式(9.28)可知:
+
+
 $$
+
 p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)=\frac{1}{(2 \pi)^{\frac{n}{2}}\left|\boldsymbol{\Sigma}_{i}\right|^{\frac{1}{2}}} \exp \left(-\frac{1}{2}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{T} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\right)
+
 $$
+
+
 又根据公式(9.32),由
+
+
 $$
+
 \frac{\partial L L(D)}{\partial \boldsymbol{\mu}_{i}}=\frac{\partial L L(D)}{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \cdot \frac{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\partial \boldsymbol{\mu}_{i}}=0
+
 $$
-其中:
+
+
+其中: 
+
 $$
+
 \begin{aligned}
 \frac{\partial L L(D)}{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \mathbf{\Sigma}_{i}\right)} &=\frac{\partial \sum_{j=1}^{m} \ln \left(\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{l}, \boldsymbol{\Sigma}_{l}\right)\right)}{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \\
 &=\sum_{j=1}^{m} \frac{\partial \ln \left(\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{l}, \boldsymbol{\Sigma}_{l}\right)\right)}{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)} \\
 &=\sum_{j=1}^{m} \frac{\alpha_{i}}{\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{l}, \boldsymbol{\Sigma}_{l}\right)}
 \end{aligned}
+
 $$
 
+
+
+
+
 $$
+
 \begin{aligned}
 \frac{\partial p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\partial \boldsymbol{\mu}_{i}} &=\frac{\partial \frac{1}{(2 \pi)^{\frac{n}{2}}\left|\Sigma_{i}\right|^{\frac{1}{2}}} \exp\left({-\frac{1}{2}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top}\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)}\right)}{\partial \boldsymbol{\mu}_{i}} \\
 &=\frac{1}{(2 \pi)^{\frac{n}{2}}\left|\boldsymbol{\Sigma}_{i}\right|^{\frac{1}{2}}} \cdot \frac{\partial \exp\left({-\frac{1}{2}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)}\right)}{\partial \boldsymbol{\mu}_{i}}\\
@@ -98,138 +382,413 @@ $$
 &=\frac{1}{(2 \pi)^{\frac{n}{2}}\left|\boldsymbol{\Sigma}_{i}\right|^{\frac{1}{2}}}\cdot \exp\left({-\frac{1}{2}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)}\right) \cdot\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)\\
 &=p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)
 \end{aligned}
+
 $$
 
+
 其中,由矩阵求导的法则$\frac{\partial \mathbf{a}^{T} \mathbf{X} \mathbf{a}}{\partial \mathbf{a}}=2\mathbf{X} \mathbf{a}$可得:
+
+
 $$
+
 \begin{aligned}
 -\frac{1}{2} \frac{\partial\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)^{\top} \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)}{\partial \boldsymbol{\mu}_{i}} &=-\frac{1}{2} \cdot 2 \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{\mu}_{i}-\boldsymbol{x}_{j}\right) \\
 &=\boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)
 \end{aligned}
+
 $$
 
+ 因此有:
+
 
-因此有:
 $$
+
 \frac{\partial L L(D)}{\partial \boldsymbol{\mu}_{i}}=\sum_{j=1}^{m} \frac{\alpha_{i}}{\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{l}, \mathbf{\Sigma}_{l}\right)} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right) \cdot \boldsymbol{\Sigma}_{i}^{-1}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)=0
+
+$$
+
+
+
+### 9.4.7 式(9.34)的推导
+
+由式(9.30)
+
+
 $$
 
+\gamma_{j i}=p_{\mathcal{M}}\left(z_{j}=i | \mathbf{X}_{j}\right)=\frac{\alpha_{i} \cdot p\left(\mathbf{X}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\mathbf{X}_{j} | \boldsymbol{\mu}_{l}, \boldsymbol{\Sigma}_{l}\right)}
+
+$$
+
+
+带入式(9.33)
 
-## 9.34
 
 $$
-\boldsymbol\mu_{i}=\frac{\sum_{j=1}^{m} \gamma_{j i} \boldsymbol{x}_{j}}{\sum_{j=1}^{m} \gamma_{j i}}
+
+\sum_{j=1}^{m} \gamma_{j i}\left(\mathbf{X}_{j}-\boldsymbol{\mu}_{i}\right)=0
+
 $$
 
 
+移项, 得
+
 
-[推导]:由式9.30
 $$
-\gamma_{j i}=p_{\mathcal{M}}\left(z_{j}=i | \boldsymbol{x}_{j}\right)=\frac{\alpha_{i} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)}{\sum_{l=1}^{k} \alpha_{l} \cdot p\left(\boldsymbol{x}_{j} | \boldsymbol{\mu}_{l}, \mathbf{\Sigma}_{l}\right)}
+
+\sum_{j=1}^m \gamma_{j i} \boldsymbol{x}_j=\sum_{j=1}^m \gamma_{j i} \boldsymbol{\mu}_i=\boldsymbol{\mu}_i \cdot \sum_{j=1}^m \gamma_{j i}
+
 $$
-代入9.33
+
+
+第二个等号是因为 $\mu_i$ 对于求和变量 $j$ 来说是常量,
+因此可以提到求和号外面; 因此
+
+
 $$
-\sum_{j=1}^{m} \gamma_{j i}\left(\boldsymbol{x}_{j}-\boldsymbol{\mu}_{i}\right)=0
+
+\boldsymbol{\mu}_i=\frac{\sum_{j=1}^m \gamma_{j i} \boldsymbol{x}_j}{\sum_{j=1}^m \gamma_{j i}}
+
 $$
-因此有
+
+
+
+### 9.4.8 式(9.35)的推导
+
+根据公式(9.28)可知:
+
+
 $$
-\boldsymbol\mu_{i}=\frac{\sum_{j=1}^{m} \gamma_{j i} \boldsymbol{x}_{j}}{\sum_{j=1}^{m} \gamma_{j i}}
+
+p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})=\cfrac{1}{(2\pi)^\frac{n}{2}\left| \boldsymbol\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\boldsymbol\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)
+
+$$
+
+
+又根据公式(9.32),由
+
+
 $$
 
-## 9.35
+\cfrac{\partial LL(D)}{\partial \boldsymbol\Sigma_{i}}=0
+
 $$
-\mathbf\Sigma_{i}=\cfrac{\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_{j}-\boldsymbol \mu_{i})(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T}{\sum_{j=1}^m\gamma_{ji}}
+
+ 可得
+
+
 $$
-[推导]:根据公式(9.28)可知:
+
+\begin{aligned}
+\cfrac {\partial LL(D)}{\partial\boldsymbol\Sigma_{i}}&=\cfrac {\partial}{\partial \boldsymbol\Sigma_{i}}\left[\sum_{j=1}^m\ln\Bigg(\sum_{i=1}^k \alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\Bigg)\right] \\
+&=\sum_{j=1}^m\frac{\partial}{\partial\boldsymbol\Sigma_{i}}\left[\ln\Bigg(\sum_{i=1}^k \alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\Bigg)\right] \\
+&=\sum_{j=1}^m\cfrac{\alpha_{i}\cdot \cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left(p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\right)}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})} \\
+\end{aligned}
+
 $$
-p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})=\cfrac{1}{(2\pi)^\frac{n}{2}\left| \mathbf\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\mathbf\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)
+
+ 其中 
+
 $$
-又根据公式(9.32),由
+
+\begin{aligned}
+\cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left(p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\right)&=\cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left[\cfrac{1}{(2\pi)^\frac{n}{2}\left| \boldsymbol\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\boldsymbol\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)\right] \\
+&=\cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left\{\exp\left[\ln\left(\cfrac{1}{(2\pi)^\frac{n}{2}\left| \boldsymbol\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\boldsymbol\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)\right)\right]\right\} \\
+&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\cdot\cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left[\ln\left(\cfrac{1}{(2\pi)^\frac{n}{2}\left| \boldsymbol\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\boldsymbol\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)\right)\right]\\
+&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\cdot\cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left[\ln\cfrac{1}{(2\pi)^{\frac{n}{2}}}-\cfrac{1}{2}\ln{|\boldsymbol{\Sigma}_i|}-\frac{1}{2}(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)\right]\\
+&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\cdot\left[-\cfrac{1}{2}\cfrac{\partial\left(\ln{|\boldsymbol{\Sigma}_i|}\right) }{\partial \boldsymbol{\Sigma}_i}-\cfrac{1}{2}\cfrac{\partial \left[(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)\right]}{\partial \boldsymbol{\Sigma}_i}\right]\\
+\end{aligned}
+
 $$
-\cfrac{\partial LL(D)}{\partial \mathbf\Sigma_{i}}=0
-$$
-可得
-$$\begin{aligned}
-\cfrac {\partial LL(D)}{\partial\mathbf\Sigma_{i}}&=\cfrac {\partial}{\partial \mathbf\Sigma_{i}}\left[\sum_{j=1}^m\ln\Bigg(\sum_{i=1}^k \alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\Bigg)\right] \\
-&=\sum_{j=1}^m\frac{\partial}{\partial\mathbf\Sigma_{i}}\left[\ln\Bigg(\sum_{i=1}^k \alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\Bigg)\right] \\
-&=\sum_{j=1}^m\cfrac{\alpha_{i}\cdot \cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left(p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\right)}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})} \\
-\end{aligned}$$
-其中
-$$\begin{aligned}
-\cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left(p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\right)&=\cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left[\cfrac{1}{(2\pi)^\frac{n}{2}\left| \mathbf\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\mathbf\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)\right] \\
-&=\cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left\{\exp\left[\ln\left(\cfrac{1}{(2\pi)^\frac{n}{2}\left| \mathbf\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\mathbf\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)\right)\right]\right\} \\
-&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\cdot\cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left[\ln\left(\cfrac{1}{(2\pi)^\frac{n}{2}\left| \mathbf\Sigma_{i}\right |^\frac{1}{2}}\exp\left({-\frac{1}{2}(\boldsymbol x_{j}-\boldsymbol\mu_{i})^T\mathbf\Sigma_{i}^{-1}(\boldsymbol x_{j}-\boldsymbol\mu_{i})}\right)\right)\right]\\
-&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\cdot\cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left[\ln\cfrac{1}{(2\pi)^{\frac{n}{2}}}-\cfrac{1}{2}\ln{|\mathbf{\Sigma}_i|}-\frac{1}{2}(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)\right]\\
-&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\cdot\left[-\cfrac{1}{2}\cfrac{\partial\left(\ln{|\mathbf{\Sigma}_i|}\right) }{\partial \mathbf{\Sigma}_i}-\cfrac{1}{2}\cfrac{\partial \left[(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)\right]}{\partial \mathbf{\Sigma}_i}\right]\\
-\end{aligned}$$
-由矩阵微分公式$\cfrac{\partial |\mathbf{X}|}{\partial \mathbf{X}}=|\mathbf{X}|\cdot(\mathbf{X}^{-1})^{T},\cfrac{\partial \boldsymbol{a}^{T} \mathbf{X}^{-1} \boldsymbol{b}}{\partial \mathbf{X}}=-\mathbf{X}^{-T} \boldsymbol{a b}^{T} \mathbf{X}^{-T}$可得
+
+
+由矩阵微分公式$\cfrac{\partial |\mathbf{X}|}{\partial \mathbf{X}}=|\mathbf{X}|\cdot(\mathbf{X}^{-1})^{T},\cfrac{\partial \boldsymbol{a}^{T} \mathbf{X}^{-1} \mathbf{B}}{\partial \mathbf{X}}=-\mathbf{X}^{-T} \boldsymbol{a b}^{T} \mathbf{X}^{-T}$可得
+
+
 $$
+
 \begin{aligned}
-\cfrac{\partial}{\partial\mathbf\Sigma_{i}}\left(p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\right)&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})\cdot\left[-\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}+\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}\right]\\
+\cfrac{\partial}{\partial\boldsymbol\Sigma_{i}}\left(p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\right)&=p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})\cdot\left[-\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}+\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}\right]\\
 \end{aligned}
+
 $$
-将此式代回$\cfrac {\partial LL(D)}{\partial\mathbf\Sigma_{i}}$中可得
+
+
+将此式代回$\cfrac {\partial LL(D)}{\partial\boldsymbol\Sigma_{i}}$中可得
+
+
 $$
-\cfrac {\partial LL(D)}{\partial\mathbf\Sigma_{i}}=\sum_{j=1}^m\cfrac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}\cdot\left[-\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}+\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}\right]
+
+\cfrac {\partial LL(D)}{\partial\boldsymbol\Sigma_{i}}=\sum_{j=1}^m\cfrac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}\cdot\left[-\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}+\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}\right]
+
 $$
 
 
-又由公式(9.30)可知$\cfrac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}=\gamma_{ji}$,所以上式可进一步化简为
+又由公式(9.30)可知$\cfrac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}=\gamma_{ji}$,所以上式可进一步化简为
+
+
 $$
-\cfrac {\partial LL(D)}{\partial\mathbf\Sigma_{i}}=\sum_{j=1}^m\gamma_{ji}\cdot\left[-\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}+\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}\right]
+
+\cfrac {\partial LL(D)}{\partial\boldsymbol\Sigma_{i}}=\sum_{j=1}^m\gamma_{ji}\cdot\left[-\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}+\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}\right]
+
 $$
+
+
 令上式等于0可得
+
+
+$$
+
+\cfrac {\partial LL(D)}{\partial\boldsymbol\Sigma_{i}}=\sum_{j=1}^m\gamma_{ji}\cdot\left[-\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}+\cfrac{1}{2}\boldsymbol{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}\right]=0
+
 $$
-\cfrac {\partial LL(D)}{\partial\mathbf\Sigma_{i}}=\sum_{j=1}^m\gamma_{ji}\cdot\left[-\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}+\cfrac{1}{2}\mathbf{\Sigma}_i^{-1}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}\right]=0
+
+
+移项推导有: 
+
+$$
+
+\begin{aligned}
+\sum_{j=1}^m\gamma_{ji}\cdot\left[-\boldsymbol{I}+(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}\right]&=0\\
+\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\boldsymbol{\Sigma}_i^{-1}&=\sum_{j=1}^m\gamma_{ji}\boldsymbol{I}\\
+\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T&=\sum_{j=1}^m\gamma_{ji}\boldsymbol{\Sigma}_i\\
+\boldsymbol{\Sigma}_i^{-1}\cdot\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T&=\sum_{j=1}^m\gamma_{ji}\\
+\boldsymbol{\Sigma}_i&=\cfrac{\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T}{\sum_{j=1}^m\gamma_{ji}}
+\end{aligned}
+
 $$
-移项推导有:
+
+ 此即为公式(9.35)。
+
+### 9.4.9 式(9.36)的解释
+
+该式即$LL(D)$添加了等式约束$\sum_{i=1}^k{\alpha_i=1}$的拉格朗日形式。
+
+### 9.4.10 式(9.37)的推导
+
+重写式(9.32)如下:
+
+
 $$
+
+L L(D)=\sum_{j=1}^m \ln \left(\sum_{l=1}^k \alpha_l \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_l, \boldsymbol{\Sigma}_l\right)\right)
+
+$$
+
+
+这里将第 2 个求和号的求和变量由式(9.32)的 $i$ 改为了 $l$, 这是为了避免对
+$\alpha_i$ 求导时与变量 $i$ 相 混淆。将式(9.36)中的两项分别对 $\alpha_i$
+求导, 得 
+
+$$
+
 \begin{aligned}
-\sum_{j=1}^m\gamma_{ji}\cdot\left[-\boldsymbol{I}+(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}\right]&=0\\
-\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T\mathbf{\Sigma}_i^{-1}&=\sum_{j=1}^m\gamma_{ji}\boldsymbol{I}\\
-\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T&=\sum_{j=1}^m\gamma_{ji}\mathbf{\Sigma}_i\\
-\mathbf{\Sigma}_i^{-1}\cdot\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T&=\sum_{j=1}^m\gamma_{ji}\\
-\mathbf{\Sigma}_i&=\cfrac{\sum_{j=1}^m\gamma_{ji}(\boldsymbol x_j-\boldsymbol\mu_i)(\boldsymbol x_j-\boldsymbol\mu_i)^T}{\sum_{j=1}^m\gamma_{ji}}
+\frac{\partial L L(D)}{\partial \alpha_i} & =\frac{\partial \sum_{j=1}^m \ln \left(\sum_{l=1}^k \alpha_l \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_l, \boldsymbol{\Sigma}_l\right)\right)}{\partial \alpha_i} \\
+& =\sum_{j=1}^m \frac{1}{\sum_{l=1}^k \alpha_l \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_l, \boldsymbol{\Sigma}_l\right)} \cdot \frac{\partial \sum_{l=1}^k \alpha_l \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_l, \boldsymbol{\Sigma}_l\right)}{\partial \alpha_i} \\
+& =\sum_{j=1}^m \frac{1}{\sum_{l=1}^k \alpha_l \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_l, \boldsymbol{\Sigma}_l\right)} \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)
 \end{aligned}
+
 $$
-此即为公式(9.35)
 
-## 9.38
+
+
+
 $$
-\alpha_{i}=\frac{1}{m}\sum_{j=1}^m\gamma_{ji}
+
+\frac{\partial\left(\sum_{l=1}^k \alpha_l-1\right)}{\partial \alpha_i}=\frac{\partial\left(\alpha_1+\alpha_2+\ldots+\alpha_i+\ldots+\alpha_k-1\right)}{\partial \alpha_i}=1
+
 $$
-[推导]:对公式(9.37)两边同时乘以$\alpha_{i}$可得
+
+
+综合两项求导结果, 并令导数等于零即得式(9.37)。
+
+### 9.4.11 式(9.38)的推导
+
+注意, 在"西瓜书"第 14 次印刷中式(9.38)上方的一行话进行了勘误:
+"两边同乘以 $\alpha_i$, 对 所有混合成分求和可知 $\lambda=-m$ ", 将原来的
+"样本" 修改为 "混合成分"。
+
+对公式(9.37)两边同时乘以$\alpha_{i}$可得 
+
 $$
+
 \begin{aligned}
-\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}+\lambda\alpha_{i}=0\\
-\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}=-\lambda\alpha_{i}
+\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}+\lambda\alpha_{i}=0\\
+\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}=-\lambda\alpha_{i}
 \end{aligned}
+
 $$
-两边对所有混合成分求和可得
+
+ 两边对所有混合成分求和可得
+
+
 $$
-\begin{aligned}\sum_{i=1}^k\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}&=-\lambda\sum_{i=1}^k\alpha_{i}\\
-\sum_{j=1}^m\sum_{i=1}^k\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}&=-\lambda\sum_{i=1}^k\alpha_{i}
+
+\begin{aligned}\sum_{i=1}^k\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}&=-\lambda\sum_{i=1}^k\alpha_{i}\\
+\sum_{j=1}^m\sum_{i=1}^k\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}&=-\lambda\sum_{i=1}^k\alpha_{i}
 \end{aligned}
+
 $$
-因为
+
+ 因为
+
+
 $$
+
 \sum_{i=1}^k\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}=\frac{\sum_{i=1}^k\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}=1
+
 $$
-且 $\sum_{i=1}^k\alpha_{i}=1$,所以有$$m=-\lambda$$
 
-因此
+
+且 $\sum_{i=1}^k\alpha_{i}=1$,所以有$m=-\lambda$,因此
+
+
 $$
-\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}=-\lambda\alpha_{i}=m\alpha_{i}
+
+\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}=-\lambda\alpha_{i}=m\alpha_{i}
+
 $$
+
+
 因此
+
+
 $$
-\alpha_{i}=\cfrac{1}{m}\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}
+
+\alpha_{i}=\cfrac{1}{m}\sum_{j=1}^m\frac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}
+
 $$
-又由公式(9.30)可知$\cfrac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\mathbf\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\mathbf\Sigma_{l})}=\gamma_{ji}$,所以上式可进一步化简为
+
+
+又由公式(9.30)可知$\cfrac{\alpha_{i}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{i},\boldsymbol\Sigma_{i})}{\sum_{l=1}^k\alpha_{l}\cdot p(\boldsymbol x_{j}|\boldsymbol\mu_{l},\boldsymbol\Sigma_{l})}=\gamma_{ji}$,所以上式可进一步化简为
+
+
 $$
+
 \alpha_{i}=\cfrac{1}{m}\sum_{j=1}^m\gamma_{ji}
+
 $$
 
-此即为公式(9.38)
+ 此即为公式(9.38)。
+
+### 9.4.12 图9.6的解释
+
+第 1 行初始化参数, 本页接下来的例子是按如下策略初始化的: 混合系数
+$\alpha_i=\frac{1}{k}$; 任 选训练集中的 $k$ 个样本分别初始化 $k$
+个均值向量 $\boldsymbol{\mu}_i(1 \leqslant i \leqslant k)$;
+使用对角元素为 $0.1$ 的对角阵 初始化 $k$ 个协方差矩阵
+$\boldsymbol{\Sigma}_i(1 \leqslant i \leqslant k)$ 。
+
+第 3\~5 行根据式(9.30)计算共 $m \times k$ 个 $\gamma_{j i}$ 。
 
+第 6\~10 行分别根据式(9.34)、式(9.35)、式(9.38)使用刚刚计算得到的
+$\gamma_{j i}$ 更新均值向量、 协方差矩阵、混合系数; 注意第 8
+行计算协方差矩阵时使用的是第 7 行计算得到的均值向量, 这并没错,
+因为协方差矩阵 $\boldsymbol{\Sigma}_i^{\prime}$ 与均值向量
+$\mu_i^{\prime}$ 是对应的, 而非 $\boldsymbol{\mu}_i$; 第 7 行的
+$\mu_i^{\prime}$ 在第 8 行使用 之后会在下一轮迭代中第 4 行计算
+$\gamma_{j i}$ 再次使用。
 
+整体来说, 第 2 \~12 行就是一个 EM 算法的具体使用例子, 学习完 $7.6$ 节 EM
+算法可能 根本无法理解其思想。此例中有两组变量, 分别是 $\gamma_{j i}$ 和
+$\left(\alpha_i, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$,
+它们之间相互影响, 但都是末知的, 因此 $\mathrm{EM}$ 算法就有了用武之地:
+初始化其中一组变量
+$\left(\alpha_i, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$,
+然后计 算 $\gamma_{j i}$; 再根据 $\gamma_{j i}$
+根据最大似然推导出的公式更新
+$\left(\alpha_i, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)$,
+反复迭代, 直到满足停止条件。
+
+## 9.5 密度聚类
+
+本节介绍的DBSCAN算法并不难懂,只是本节在最后举例时并没有说清楚密度聚类算法与前面原型聚类算法的区别,当然这也可能是作者有意为之,因为在"西瓜书"本章习题9.7题就提到了"凸聚类"的概念。具体来说,前面介绍的聚类算法只能产生"凸聚类",而本节介绍的DBSCAN则能产生"非凸聚类",其本质原因,个人感觉在于聚类时使用的距离度量,均值算法使用欧氏距离,而DBSCAN使用类似于测地线距离(只是类似,并不相同,测地线距离参见"西瓜书"10.5节),因此可以产生如图9-1所示的聚类结果(中间为典型的非凸聚类)。
+
+![图9-1 DBSCAN聚类结果](https://datawhale-business.oss-cn-hangzhou.aliyuncs.com/1cc9980e-da9c-4efd-ac66-3a97aa81ae62-cluster.svg)
+
+注意,虽然左图为 "凸聚类"(四个簇都有一个凸包),但
+均值算法却无法产生此结果,因为最大的簇太大了,其外围样本与另三个小簇的中心之间的距离更近,因此中间最大的簇肯定会被
+均值算法划分到不同的簇之中,这显然不是我们希望的结果。
+
+密度聚类算法可以产生任意形状的簇,不需要事先指定聚类个数k,并且对噪声鲁棒。
+
+### 9.5.1 密度直达、密度可达与密度相连
+
+$\boldsymbol{x}_j$ 由 $\boldsymbol{x}_i$ 密度直达, 该概念最易理解,
+但要特别注意: 密度直达除了要求 $\boldsymbol{x}_j$ 位于
+$\boldsymbol{x}_i$ 的 $\epsilon-$ 领域的条件之外, 还额外要求
+$\boldsymbol{x}_i$ 是核心对象; $\epsilon$-领域满足对称性, 但
+$\boldsymbol{x}_j$ 不一定为核心对象, 因此密度直达关系通常不满足对称性。
+
+$\boldsymbol{x}_j$ 由 $\boldsymbol{x}_i$
+密度可达,该概念基于密度直达,因此样本序列
+$\boldsymbol{p}_1, \boldsymbol{p}_2, \ldots, \boldsymbol{p}_n$ 中除了
+$\boldsymbol{p}_n=\boldsymbol{x}_j$ 之外, 其余样本均为核心对象 (当然包括
+$\boldsymbol{p}_1=\boldsymbol{x}_i$ ), 所以同理, 一般不满足对称性。
+
+以上两个概念中, 若 $\boldsymbol{x}_j$ 为核心对象, 已知
+$\boldsymbol{x}_j$ 由 $\boldsymbol{x}_i$ 密度直达/可达, 则
+$\boldsymbol{x}_i$ 由 $\boldsymbol{x}_j$ 密度直达/ 可达, 即满足对称性
+(也就是说, 核心对象之间的密度直达/可达满足对称性)。
+
+$\boldsymbol{x}_i$ 与 $\boldsymbol{x}_j$ 密度相连, 不要求
+$\boldsymbol{x}_i$ 与 $\boldsymbol{x}_j$ 为核心对象, 所以满足对称性。
+
+### 9.5.2 图9.9的解释
+
+在第 $1\sim 7$ 行中, 算法先根据给定的邻域参数 $(\epsilon, M i n P t s)$
+找出所有核心对象, 并存于集 合 $\Omega$ 之中; 第 4 行的 if
+判断语句即在判别 $\boldsymbol{x}_j$ 是否为核心对象。
+
+在第 $10\sim 24$ 行中, 以任一核心对象为出发点 (由第 12 行实现),
+找出其密度可达的样本 生成聚类簇 (由第 $14\sim 21$ 行实现),
+直到所有核心对象被访问过为止(由第 10 行和第 23 行 配合实现)。具体来说:
+
+其中第 $14\sim 21$ 行 while 循环中的 if 判断语句(第 16
+行)在第一次循环时一定为真(因 为 $Q$ 在第 12 行初始化为某核心对象),
+此时会往队列 $Q$ 中加入 $\boldsymbol{q}$ 密度直达的样本 (已知
+$\boldsymbol{q}$ 为核 心对象, $\boldsymbol{q}$ 的
+$\epsilon$-领域中的样本即为 $\boldsymbol{q}$ 密度直达的),
+队列遵循先进先出规则, 接下来的循环将 依次判别 $\boldsymbol{q}$ 的
+$\epsilon$-领域中的样本是否为核心对象 (第 16 行), 若为核心对象,
+则将密度直达的 样本 ( $\epsilon$-领域中的样本) 加入
+Q。根据密度可达的概念, while 循环中的 if 判断语句(第 16
+行)找出的核心对象之间一定是相互密度可达的, 非核心对象一定是密度相连的。
+
+第 $14\sim 21$ 行 while 循环每跳出一次,
+即生成一个聚类簇。每次生成聚类笶之前, 会记录 当前末访问过样本集合 (第 11
+行 $\Gamma_{\mathrm{old}}=\Gamma$ ),
+然后当前要生成的聚类簇每决定录取一个样 本后会将该样本从厂去除 (第 13
+行和第 19 行), 因此第 14\~21 行 while 循环每跳出一次后,
+$\Gamma_{\text {old }}$ 与 $\Gamma$ 差别即为聚类簇的样本成员 (第 22 行),
+并将该聚类簇中的核心对象从第 $1 \sim 7$ 行生 成的核心对象集合 $\Omega$
+中去除。
+
+符号 " $\backslash$" 为集合求差, 例如集合
+$A=\{a, b, c, d, e, f\}, B=\{a, d, f, g, h\}$, 则 $A \backslash B$ 为
+$A \backslash B=\{b, c, e\}$, 即将 $A, B$ 所有相同元素从 $A$ 中去除。
+
+## 9.6 层次聚类
+
+本节主要介绍了层次聚类的代表算法 AGNES。
+
+式(9.41) (9.43)介绍了三种距离计算方式,
+这与"西瓜书"9.3节中介绍的距离不同之处在于, 此 三种距离计算面向集合之间,
+而9.3节的距离则面向两点之间。正如"西瓜书"第 215 页左上边注所示,
+集合间的距离计算常采用豪斯多夫距离(Hausdorff distance)。
+
+算法 AGNES 很简单,
+就是不断重复执行合并距离最近的两个聚类簇。"西瓜书"图9.11为具体实 现方法,
+核心就是在合并两个聚类簇后更新距离矩阵(第 $11\sim 23$ 行),
+之所以看起来复杂, 是因为该实现只更新原先距离矩阵中发生变化的行和列,
+因此需要为此做一些调整。
+
+在第 $1\sim 9$ 行,
+算法先对仅含一个样本的初始聚类簇和相应的距离矩阵进行初始化。注意,
+距离矩阵中, 第 $i$ 行为聚类簇 $C_i$ 到各聚类簇的距离, 第 $i$
+列为各聚类簇到聚类簇 $C_i$ 的距离, 由 第 7 行可知, 距离矩阵为对称矩阵,
+即使用的集合间的距离计算方法满足对称性。
+
+第 $18\sim 21$ 行更新距离矩阵 $M$ 的第 $i^*$ 行与第 $i^*$ 列,
+因为此时的聚类簇 $C_{i^*}$ 已经合并了 $C_{j^*}$,
+因此与其余聚类簇之间的距离都发生了变化, 需要更新。