目录
百战程序员,全站22050+开发课程+文档 ,学习精选优质好课快人一步!观看视频 快捷键ALT+N

Python全系列 教程

3567个小节阅读:5930.1k

收藏
全部开发者教程

鸿蒙应用开发

C语言快速入门

JAVA全系列 教程

面向对象的程序设计语言

Python全系列 教程

Python3.x版本,未来主流的版本

人工智能 教程

顺势而为,AI创新未来

大厂算法 教程

算法,程序员自我提升必经之路

C++ 教程

一门通用计算机编程语言

微服务 教程

目前业界流行的框架组合

web前端全系列 教程

通向WEB技术世界的钥匙

大数据全系列 教程

站在云端操控万千数据

AIGC全能工具班

A

A A

White Night

阅读(610)
赞(0)

Gradient Boosting

image-20220522232530528

Gradient Boosting原理

和Adaboost不同,Gradient Boosting 在迭代的时候选择损失函数在其梯度方向下降

的方向不停地改进模型。

  1. 训练一个模型m1,产生错误e1
  2. 针对e1训练第二个模型m2,产生错误e2
  3. 针对e2训练第三个模型m3,产生错误e3...
  4. 最终预测结果是:m1+m2+m3+...

image-20220522233927155

注意

Adaboost和Gradient Boosting的区别主要在于从不同的角度实现对上一轮训练错误的数据更多关注,Adaboost主要对数据引入权重,训练后调整学习错误的数据的权重,从而使得下一轮学习中给予学习错误的数据更多的关注。

实时效果反馈

1. 关于Gradient Boosting算法,下列说法正确的是:

A Gradient Boosting集成的多个模型是互相独立的

B Gradient Boosting 选择损失函数在其梯度方向下降的方向不停地改进模型

C 最终的预测结果是通过使用最后一个模型的预测结果

D 以上说法均不正确

2. 关于Adaboost与Gradient Boosting,下列说法正确的是:

A Adaboost与Gradient Boosting集成的多个模型都是互相独立的

B 两者的区别主要在于从不同的角度实现对上一轮训练错误的数据更多关注

C Adaboost算法每一轮的样本权值都在减小

D 以上说法均不正确

答案

1=>B 2=>B

 

北京市昌平区回龙观镇南店村综合商业楼2楼226室

©2014-2023 百战卓越(北京)科技有限公司 All Rights Reserved.

京ICP备14032124号-2