0
0

你将收获

理解熵、信息增益、GINI指数、特征重要性等基本概念

理解决策树的建树过程

运用决策树模型解决实际问题

适用人群

有一定数学和计算机编程基础,希望掌握决策树的学员。

课程介绍

本章介绍决策树相关知识,并通过实例介绍决策树模型使用。

课程讨论

讲的挺好,再看一遍明白了许多

决策树内容讲的不是很多希望以后的随机森林可以多讲讲

同学笔记

  • sinat_41475087 2020-02-13 19:39:01

    来源:Scikit-Learn中的决策树模型 查看详情

    sklearn决策树

    穷举搜素所有特征可能的分裂点,没有实现剪枝(需要用交叉验证选择最佳参数)

    分类:DecisionTreeClassifier

    回归:DecisonTreeRegressor

    criterion:"gini","entropy",

    splitter:"best","random"

     

    max_features:int, float or {“auto”, “sqrt”, “log2”}, default=None

    The number of features to consider when looking for the best split:

    • If int, then consider max_features features at each split.

    • If float, then max_features is a fraction and int(max_features * n_features) features are considered at each split.

    • If “auto”, then max_features=sqrt(n_features).

    • If “sqrt”, then max_features=sqrt(n_features).

    • If “log2”, then max_features=log2(n_features).

    • If None, then max_features=n_features

     

    以下限制模型复杂度的参数:

    max_depth:int

    max_leaf_nodes:int

    min_samples_split:int or float, default=2

    The minimum number of samples required to split an internal node

     

    min_samples_leaf:int or float, default=1

    The minimum number of samples required to be at a leaf node. 

     

    min_impurity_decrease:float, default=0.0

    A node will be split if this split induces a decrease of the impurity greater than or equal to this value.

  • goodluckyangH 2020-02-04 20:20:23

    来源:Scikit-Learn中的决策树模型 查看详情

    分类决策树

    回归决策树

没有更多了