集成学习笔记

民主协商:Ensemble

集成学习:为了更好的解决某个特定机器学习的问题把多个模型有策略性的组合的过程,不是某种算法而是一大门类算法包括bagging和boosting

目的:改进某个模型的表现

减少选择到差模型的几率

集成学习笔记

集成学习笔记

如何combines

集成学习笔记

集成学习笔记

群策群议:Bagging

例:采50份样,用这50份训练得出50份分类器,当新的样本来了后,放到50个分类器中,看结果如何投票 取相同结果最多的为最终输出

随机森林:很多决策树组合到一起

集成学习笔记

集成学习笔记

随机森林优点:

集成学习笔记

环环相扣:Boosting

Stacking:把训练集训练生成很多子分类器,把每一个子分类器的输出乘以权值再训练形成一个新分类器做为输出

集成学习笔记

算法流程图

集成学习笔记

Boosting :是串行的根据前一个生成后一个分类器

集成学习笔记

d2有对的有错的目的是让 c2专门对c1分错的进行学习

找出不一致的数据组成数据集训练成c3专门解决争端

集成学习笔记

集成学习笔记

variance方差变化幅度

集成学习笔记

集成之美:AdaBoost

集成学习笔记

集成学习笔记

[[表达式a]]当表达式a成立 , [[表达式a]]的值为1 , 当表达式a不成立 , [[表达式a]]的值为0

当H(Xi)≠yi表示预测失败

集成学习笔记求和除m表示错误率,右边表示错误率上界

集成学习笔记

近似方法:真正的是k个z相乘的最小化,每次就把当前的z最小化,用最小化当前的z来近似表示k个z相乘的最小值.z越小代表分的越好,z越大代表分错了权值越大.

y或h都不好求导,但y*h不是+1就是-1

集成学习笔记

集成学习笔记

模型的收敛区间收敛于0

集成学习笔记

继往开来:RegionBoost

动态权重

集成学习笔记

集成学习笔记

集成学习笔记

集成学习笔记

集成学习笔记

Original: https://blog.csdn.net/qq_41166416/article/details/121654963
Author: qq_41166416
Title: 集成学习笔记

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/550682/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球