![快乐机器学习](https://wfqqreader-1252317822.image.myqcloud.com/cover/216/32375216/b_32375216.jpg)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
技术附录
A.NFL定理
定义A为算法,xin为样本内数据,xout为样本外数据(N个),c为目标函数,h为假设函数。在考虑所有c的情况下,算法A在样本外的误差期望如下所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_1.jpg?sign=1739302625-Jj1Ug8S9qK4k81KmqyRwhMU2EA6kuQjM-0-32168f6898e007d929b460e6ec3ddc53)
在第4行中,当c为均匀分布时,c和h的预测结果有一半不一致。那么c一共有2N个预测结果,一半就是2N-1。上述结果与算法A无关,可见“胡乱猜”的算法和高级算法的期望误差或者期望性能相同。
B.霍夫丁不等式
霍夫丁不等式(Hoeffding's Inequality)是根据切诺夫上界(Chernoff Bound)和霍夫丁引理(Hoeffding's Lemma)证明出来的,而切诺夫上界由马尔可夫不等式(Markov's Inequality)证明出来的。
它们的关系如右图所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_2.jpg?sign=1739302625-09eZCwEL7sWGDatwvmlzEjZqtk4notel-0-778696760f5d0eab9c3f3ec4d68b2a34)
证明霍夫丁不等式
马尔可夫不等式、切诺夫上界、霍夫丁引理和霍夫丁不等式的具体证明如下表所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_3.jpg?sign=1739302625-tkDjKiOOmD41kuOdbJflumWOvbAV3PuW-0-c0ba18fdeda3e318101fc2fc961fd967)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_63_1.jpg?sign=1739302625-Cjm4ANbcszpRuZyrpuowMdIhMidtqFz4-0-aa23f40b980e5b5176ed4a2ac8392b31)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_1.jpg?sign=1739302625-s85O8tqcFuAKxeaHWEg8sftRi1aPl3gY-0-230bd3ea82778fc0f90fc8002d494e3d)
当Zi服从伯努利分布时,那么a=0,b=1,将上式和机器学习结合得到
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_2.jpg?sign=1739302625-FG2lskmElK2BPI34TfT0u1Zgq3RIrODe-0-8733943e500193d0d59652b63fc7eee1)
[1]NFL定理证明见本章附录A。
[2]霍夫丁不等式证明见本章附录B。
[3]增长函数的上界推导比较烦琐,见本章参考资料[1]。