当前位置: 首页 > news >正文

北京有哪些大型互联网公司windows优化大师是病毒吗

北京有哪些大型互联网公司,windows优化大师是病毒吗,国内做化妆刷的比较好的网站,响应式网站建设特征文章目录 决策树介绍1.介绍**决策树API:**构建决策树的三个步骤决策树的优缺点通过sklearn实现决策树分类并进一步认识决策树2. ID3 决策树1. 信息熵2. 信息增益**定义:****根据信息增益选择特征方法是:****算法:**3. ID3算法步骤4. 例子:3. C4.5 决策树1. 信息增益率计算…

文章目录

  • 决策树介绍
    • 1.介绍
      • **决策树API:**
      • 构建决策树的三个步骤
      • 决策树的优缺点
      • 通过sklearn实现决策树分类并进一步认识决策树
    • 2. ID3 决策树
      • 1. 信息熵
      • 2. 信息增益
        • **定义:**
        • **根据信息增益选择特征方法是:**
        • **算法:**
      • 3. ID3算法步骤
      • 4. 例子:
    • 3. C4.5 决策树
      • 1. 信息增益率计算公式
      • 2. 信息增益率计算举例
      • 3. ID3和C4.5对比
    • 4.CART 分类决策树
      • 1. Cart树简介
      • 2. 基尼指数计算公式
      • 3. 基尼指数计算举例
        • 3.1 是否有房
        • 3.2 婚姻状况
        • 3.3 年收入
      • 4. Cart分类树原理
      • 2.3 使用CART算法构建决策树
    • 5. Cart回归决策树
      • 1. 回归决策树构建原理
      • 2.**CART 回归树构建过程如下:**
      • 3.**例子:**
    • 6. 剪枝
      • 1 什么是剪枝?
      • 2 为什么要进行树的剪枝?
      • 3. 常见减枝方法汇总
        • 方法介绍
        • 优缺点对比
  • 案例-泰坦尼克号生存预测
    • 1. 案例背景
    • 2. 案例实现
      • 2.1 导入数据
      • 2.2 数据的分析和预处理
      • 2.3 数据集划分
      • 2.4 使用决策树模型进行预测
      • 2.5 模型评估与树可视化
      • 2.6 总结

决策树介绍

1.介绍

决策树算法是一种监督学习算法,英文是Decision tree。决策树思想类似于if-else这样的逻辑判断,这其中的if表示的是条件,if之后的then就是一种选择或决策。程序设计中的条件分支结构就是if-then结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法。

  • 决策树是一种树形结构
  • 树中每个内部节点表示一个特征上的判断,
  • 每个分支代表一个判断结果的输出
  • 最后每个叶节点代表一种分类结果
  • 是非参数学习算法
  • 可以解决分类(多分类)问题
  • 可以解决回归问题:落在叶子节点的数据的平均值作为回归的结果

决策树API:

  • from sklearn.tree import DecisionTreeClassifier
  • from sklearn.tree import plot_tree

构建决策树的三个步骤

  • 特征选择:选取有较强分类能力的特征
    问题: 如何判断特征的重要性?

      1. 信息增益(ID3)
      1. 信息增益率(C4.5)
      1. 基尼指数(CART分类树)
      1. 平方损失(CART回归树)
  • 决策树生成:典型的算法有ID3和C4.5,它们生成决策树过程相似,ID3是采用信息增益作为特征选择度量,而C4.5采用信息增益比率 , CART决策树则使用基尼指数

  • 决策树剪枝:剪枝原因是决策树生成算法生成的树对训练数据的预测很准确,但是对于未知数据分类很差,这就产生了过拟合的现象。

决策树的优缺点

  • 优点:可读性好,具有描述性,有助于人工分析;效率高,决策树只需要一次性构建反复使用,每一次预测的最大计算次数不超过决策树的深度
  • 缺点:容易过拟合;不稳定,当数据发生微小变化时,模型差别可能会很大

通过sklearn实现决策树分类并进一步认识决策树

基于鸢尾花数据绘制图像

import numpy as np
import matplotlib.pyplot as pltfrom sklearn import datasetsiris = datasets.load_iris()
X = iris.data[:,2:]
y = iris.target
# 画出数据分布的散点图
plt.scatter(X[y==0,0],X[y==0,1])
plt.scatter(X[y==1,0],X[y==1,1])
plt.scatter(X[y==2,0],X[y==2,1])plt.show()

在这里插入图片描述

训练决策树模型

from sklearn.tree import DecisionTreeClassifiertree = DecisionTreeClassifier(max_depth=2,criterion="entropy")
tree.fit(X,y)

依据模型绘制决策树的决策边界

#找到模型的决策边界,并绘制图像
def plot_decision_boundary(model,axis):x0,x1 = np.meshgrid(np.linspace(axis[0],axis[1],int((axis[1]-axis[0])*100)).reshape(-1,1),np.linspace(axis[2],axis[3],int((axis[3]-axis[2])*100)).reshape(-1,1))X_new = np.c_[x0.ravel(),x1.ravel()]y_predict = model.predict(X_new)zz = y_predict.reshape(x0.shape)from matplotlib.colors import ListedColormapcustom_map = ListedColormap(["#EF9A9A","#FFF59D","#90CAF9"])plt.contourf(x0,x1,zz,linewidth=5,cmap=custom_map)plot_decision_boundary(tree,axis=[0.5,7.5,0,3])
plt.scatter(X[y==0,0],X[y==0,1])
plt.scatter(X[y==1,0],X[y==1,1])
plt.scatter(X[y==2,0],X[y==2,1])
plt.show()

在这里插入图片描述

树模型可视化

from sklearn.tree import plot_tree
import matplotlib.pyplot as pltplot_tree(tree,filled=True)
plt.show()

在这里插入图片描述

从上面的可视化图形中看出

  • X[1] <=0.8 作为第一次分割的依据,满足条件的所有样本均为统一类别
  • X[1]>0.8的,依据 X[1]<=0.75 为划分依据
  • 由于设置了树的最大深度为2,第二层的两个叶子节点没有完全区分开,绿色的里面有5个应该是紫色的类型,紫色的里面有1个绿色类型的

2. ID3 决策树

ID3 树是基于信息增益构建的决策树,采用划分后样本集的不确定性作为衡量划分样本子集的好坏程度,用信息增益度量不确定性----信息增益越大,不确定性越小

1. 信息熵

  • 定义----熵在信息论中代表随机变量不确定度的度量

    • 熵越大,该变量包含的信息量就大,数据的不确定性度越高
    • 熵越小,数据的不确定性越低
  • 公式
    H = − ∑ i = 1 k p i log ⁡ ( p i ) \large H = -\sum_{i=1}^{k}p_i\log(p_i) H=i=1kpilog(pi)

例子1:假如有三个类别,分别占比为:{1/3,1/3,1/3},信息熵计算结果为:

H = − 1 3 log ⁡ ( 1 3 ) − 1 3 log ⁡ ( 1 3 ) − 1 3 log ⁡ ( 1 3 ) = 1.0986 H=-\frac{1}{3}\log(\frac{1}{3})-\frac{1}{3}\log(\frac{1}{3})-\frac{1}{3}\log(\frac{1}{3})=1.0986 H=31log(31)31log(31)31log(31)=1.0986

例子2:假如有三个类别,分别占比为:{1/10,2/10,7/10},信息熵计算结果为:

H = − 1 10 log ⁡ ( 1 10 ) − 2 10 log ⁡ ( 2 10 ) − 7 10 log ⁡ ( 7 10 ) = 0.8018 H=-\frac{1}{10}\log(\frac{1}{10})-\frac{2}{10}\log(\frac{2}{10})-\frac{7}{10}\log(\frac{7}{10})=0.8018 H=101log(101)102log(102)107log(107)=0.8018

熵越大,表示整个系统不确定性越大,越随机,反之确定性越强。

  • 公式的转换 ------ 当数据类别只有两类的情况下,公式可以做如下转换
    H = − ∑ i = 1 k p i log ⁡ ( p i ) H = − x log ⁡ ( x ) − ( 1 − x ) log ⁡ ( 1 − x ) \begin{align}\large H &= -\sum_{i=1}^{k}p_i\log(p_i) \tag 1 \\ \large H &= -x\log(x)-(1-x)\log(1-x) \tag2 \\ \end{align} HH=i=1kpilog(pi)=xlog(x)(1x)log(1x)(1)(2)

  • 代码角度理解信息熵的概念

import numpy as np
import matplotlib.pyplot as pltdef entropy(p):return -p*np.log(p)-(1-p)*np.log(1-p)x = np.linspace(0.01,0.99,200)
plt.plot(x,entropy(x))
plt.show()

在这里插入图片描述

观察上图可以得出,当我们的系统每一个类别是等概率的时候,系统的信息熵最高当系统偏向于某一列,相当于系统有了一定程度的确定性,直到系统整体百分之百的都到某一类中,此时信息熵就达到了最低值,即为0。上述结论也可以拓展到多类别的情况。

2. 信息增益

定义:

特征 A A A对训练数据集D的信息增益 g ( D , A ) g(D,A) g(D,A)定义为集合 D D D的经验熵 H ( D ) H(D) H(D)与特征A给定条件下D的经验熵 H ( D ∣ A ) H(D|A) H(DA)之差。即

g ( D , A ) = H ( D ) − H ( D ∣ A ) \large g(D,A)=H(D)-H(D|A) g(D,A)=H(D)H(DA)

根据信息增益选择特征方法是:

  • 对训练数据集D,计算其每个特征的信息增益,
  • 比较信息增益的大小,并选择信息增益最大的特征进行划分。表示由于特征 A A A而使得对数据D的分类不确定性减少的程度。

算法:

设训练数据集为D, ∣ D ∣ \mid D\mid D表示其样本个数。
设有 K K K个类 C k C_k Ck k = 1 , 2 , ⋯   , K k=1,2,\cdots,K k=1,2,,K ∣ C k ∣ \mid C_k\mid Ck为属于类 C k C_k Ck的样本个数, ∑ k = 1 K = ∣ D ∣ \sum\limits_{k=1}^{K}=\mid{D}\mid k=1K=∣D
设特征A有 n n n个不同取值 { a 1 , a 2 , ⋯   , a n } \{a_1, a_2, \cdots,a_n\} {a1,a2,,a

http://www.fp688.cn/news/159945.html

相关文章:

  • 注册个人网站的方法网页制作
  • 信阳网站建设培训班有哪些课程
  • 成都企业网站seo技术百度大搜数据多少钱一条
  • 高端网站建设企业文化经典句子
  • wordpress密文seo关键词优化技巧
  • 安徽和县住房城乡建设局网站百度com打开
  • 吉林省建设厅网站首页企业宣传软文
  • 用shopify 做网站seo排名优化哪家好
  • 加人引流加人网站怎么做推广之家
  • 自己做网站靠挂百度站长统计网站大全
  • 随州网站建设海南网站推广
  • 网站logo在哪里谷歌在线浏览入口
  • 专业营销网站带客西安疫情最新消息1小时内
  • 安阳网站建设公司出租车公司职业培训机构排名
  • 传统网站建设 成本优秀网站seo报价
  • 网页源代码怎么查找部分内容北京网站建设东轩seo
  • 嘉定网站设计合肥网站优化推广方案
  • 没有备案的网站怎么访问如何给自己的公司建网站
  • 看网站不受限制的浏览器有哪些单页应用seo如何解决
  • 网页网站banner图片怎么做竞价推广托管
  • 网站备案跟做哪个推广有关系吗百度搜索引擎seo
  • 如何做deal网站推广网上销售推广方案
  • 网站建设要花多少钱金华关键词优化平台
  • 淘宝拍卖网官网首页官方进一步优化
  • 哪家企业建设网站好网络营销技能大赛优秀作品
  • dw做的网站怎么让别人看到百度广告推广怎么收费了
  • 拉萨做网站模板建站常规流程
  • 深圳市潮流网络是不是外包seo百度刷排名
  • 曰本做爰吃奶网站免费做网站
  • 义乌制作网站谷歌app官方下载