阅读 657

(价值499)菜菜的机器学习sklearn课堂-Y课堂

(价值499)菜菜的机器学习sklearn课堂-Y课堂

课程介绍适用人群
Python语言使用者
机器学习爱好者
数据分析、数据挖掘领域研究者
课程概述" 十二周,十二个任务,让菜菜带你认识sklearn,带你深入浅出地探索算法的神秘世界。我会为你解读sklearn中的主流算法,带你处理数据,调整参数,完善算法,调用结果。我会为你解析参数,助你理解算法原理,也会带你遍历案例,带你实战给你刷经验。
十二周之后,人人都能够三行实现算法,实现少加班,多钻研,在数据行业乘风破浪的目标,为成为优秀的数据挖掘工程师打下坚实的基础
[课程前置知识]
1. 熟悉至少一门编程语言,最好是Python,掌握Numpy、Pandas和Matplotlib基础知识
2.了解机器学习的基本概念
3. 对自己的承诺与能够付出的时间
〖课程目录〗:: T! L, Z. c, u) I8 T
章节1:决策树与泰坦尼克号生存预测2 a* Q7 h. M0 b `
课时1第一章课件+数据( `) \3 E) l$ c6 j* t0 l7 ^8 L
课时21. 引言,sklearn入门07:54
课时32. 决策树:概述08:52
课时43.1 分类树:参数Criterion07:11
课时53.2 分类树:实现一棵树,随机性参数27:11
课时63.3 分类树:剪枝参数调优(1)12:08/ n; w4 i( f2 g# s+ b2 |
课时73.4 分类树:剪枝参数调优(2)07:36
课时83.5 分类树:重要属性和接口15:37
课时94.1 回归树:参数,属性和接口.mp408:44
课时104.2 回归树:交叉验证 (1)06:26
课时114.3 回归树:交叉验证(2)04:077 [9 g! i( K! g; u0 f9 h
课时124.4 回归树案例:用回归树拟合正弦曲线29:13
课时135.1 案例:泰坦尼克号生存者预测 (1)34:41
课时145.2 案例:泰坦尼克号生存者预测 (2)10:047 j7 S1 j8 J) d) H
课时155.3 案例:泰坦尼克号生存者预测 (3)16:12
课时165.4 案例:泰坦尼克号生存者预测 (4)03:14" @! v2 Q( H* @3 M7 w8 @2 V
章节2:随机森林与医疗数据集调参
课时17第二章课件+数据
课时181 集成算法概述12:26
课时192.1 随机森林分类器37:53
课时202.2 参数boostrap & oob_score + 重要属性和接口32:03
课时212.3 [选学] 袋装法的另一个必要条件05:30/ ]# r6 |2 [" ]. L7 G5 M
课时223.1 随机森林回归器10:132 f3 E3 a' }& D5 |$ p* a3 \$ d" k
课时233.2 案例:用随机森林填补缺失值 (1)25:20# N D# o# b# P6 F- v
课时243.3 案例:用随机森林填补缺失值 (2)14:28
课时253.4 案例:用随机森林填补缺失值 (3)29:57; K g' M8 b# h2 }$ x8 G
课时263.5 案例:用随机森林填补缺失值 (4)09:01
课时274. 机器学习中调参的基本思想17:296 l4 L, p% }2 ]: T q+ M3 O
课时285.1. 案例:随机森林在乳腺癌数据上的调参 (1)16:42
课时295.2 案例:随机森林在乳腺癌数据上的调参 (2)24:023 Z( e* d5 F+ k% g1 S/ i
章节3:数据预处理与特征工程
课时30第三章课件+数据& h% y% h* a! |6 _5 E7 V6 }, @. F d
课时310 概述 + 12期课纲15:42
课时321.1 数据预处理1:数据归一化17:31
课时331.2 数据预处理2:数据标准化08:44. P7 G: j0 h! d1 C
课时341.3 数据预处理3:缺失值 (1)07:51. ~% x: r+ m7 r) C( d: S; t
课时351.4 数据预处理4:缺失值 (2)14:58
课时361.5 数据预处理5:处理分类型数据34:47
课时371.6 数据预处理6:处理连续型数据17:30( J* M8 ]( E# r- M( K
课时382.1 特征选择1:过滤法-方差过滤 (1)14:40! p/ @+ B% Z! p" y
课时392.2 特征选择2:过滤法-方差过滤 (2)28:12
课时402.3 特征选择3:过滤法-卡方过滤18:37; ?! J, A9 b2 i
课时412.4 特征选择4:过滤法-F检验和互信息法 (1)09:31
课时422.5 特征选择5:过滤法-互信息法(2) + 总结03:243 S- I% o |5 ]( r
课时432.6 特征选择6:嵌入法 (1)07:15( q9 O _* W; j
课时442.7 特征选择7:嵌入法 (2)20:50
课时452.8 特征选择8:包装法 + 总结18:01
章节4:降维算法PCA与手写数字案例2 j+ }4 t2 ? e+ x
课时46第四章课件+数据
课时471 降维算法概述13:08
课时482.1 降维究竟怎样实现?23:07
课时492.2 参数 + 案例:高维数据的可视化 (1)33:42$ X8 P( L# v q1 e0 V) i4 N
课时502.2 参数 + 案例:高维数据的可视化 (2)04:32+ ]0 V* E8 X, x" E
课时512.3 参数 + 案例:人脸识别中的components_应用.mp441:45" X; P; e5 P* O: H
课时522.3 PCA中的SVD,重要参数svd_solver23:31
课时532.4 重要接口 + 案例1:用人脸识别看PCA降维后的信息保存量15:59
课时542.4 重要接口 + 案例2:用PCA实现手写数字的噪音过滤15:052 ^7 U, |5 k. ~& _ O N
课时552.5 原理,流程,重要属性接口和参数的总结05:51& Y5 J5 g8 v8 V3 C1 c. e
课时563.1 案例:PCA实现784个特征的手写数字的降维 (1)24:459 }1 B0 \* Y( U1 V$ o
课时573.2 案例:PCA实现784个特征的手写数字的降维 (2)08:11# X& n1 S( S6 i. K6 ^
章节5:逻辑回归和信用评分卡( \* @/ w' m( ?4 D& S7 `. h
课时58第五章课件+数据
课时590 前言03:251 q7 _! _/ u P" c, ?; y; f
课时601.1 逻辑回归概述:名为“回归”的分类器14:54" o4 r5 k. p* _% n
课时611.2 为什么需要逻辑回归08:37
课时621.3 sklearn当中的逻辑回归05:013 G- P/ H- q/ f4 s2 B7 d) Q& z+ C
课时632.1.1 二元逻辑回归的损失函数09:225 I: n' C6 b! ~4 n) q# z
课时642.2.1 正则化:重要参数penalty & C28:46; K( A1 }+ A* T- H
课时652.2.2 逻辑回归的特征工程 (1)08:15& J5 X0 d1 K1 {. f; d2 D
课时662.2.2 逻辑回归的特征工程 (2)06:15
课时672.2.2 逻辑回归的特征工程 (3)15:53
课时682.2.2 逻辑回归的特征工程 (4)04:18
课时692.3.1 重要参数max_iter - 梯度下降求解逻辑回归的过程06:495 n; K; }$ l; h$ I) p5 p
课时702.3.2 梯度的概念与解惑11:01) k. d( D0 ]+ {/ j$ n: d% Z
课时712.3.3 步长的概念与解惑18:52
课时722.4 二元回归与多元回归:重要参数solver & multi_class12:266 ~: T A* C' j
课时732.5 样本不均衡与参数class_weight05:19
课时743.1 案例:评分卡与完整的模型开发流程06:369 t( e: F; A% k& r5 [) B" l. ~
课时753.2.1~2 案例:评分卡 - 数据预处理(1) - 重复值与缺失值26:42/ t/ {. H# Z3 R
课时763.2.3 案例:评分卡 - 数据预处理 (2) - 异常值14:44
课时773.2.4 案例:评分卡 - 数据预处理 (3) - 标准化03:21! ~. y& {5 _- w/ @
课时783.2.5 案例:评分卡 - 数据预处理 (4) - 样本不均衡问题07:43
课时793.2.6 案例:评分卡 - 数据预处理 (5) - 保存训练集和测试集数据05:088 {# X ^/ N3 N# g9 n
课时803.3 案例:评分卡 - 分箱 (1) - 概述与概念10:47
课时813.3.1 案例:评分卡 - 分箱 (2) - 等频分箱 (1)06:58/ F' I7 k0 R' Y& t; I+ H" y. u) x+ }. U
课时823.3.1 案例:评分卡 - 分箱 (3) - 等频分箱 (2)09:31
课时833.3.2 案例:评分卡 - 分箱 (4) - 选学说明02:06
课时843.3.3 案例:评分卡 - 分箱 (5) - 计算WOE与IV06:094 @0 m) e9 E% f; y
课时853.3.4 案例:评分卡 - 分箱 (6) - 卡方检验、箱体合并、IV值等22:326 J2 i/ A# \3 h' W3 A
课时863.3.5 案例:评分卡 - 分箱 (7) - 包装分箱函数04:44* \6 [" x" {8 Y; l F6 f) g" R
课时873.3.6 案例:评分卡 - 分箱 (8) - 包装判断分箱个数的函数06:096 h' e; T; n* }1 b3 _1 F
课时883.3.7 案例:评分卡 - 分箱 (9) - 对所有特征进行分箱07:15! M% \) o* } M" g( [' O: f: b
课时893.4 案例:评分卡 - 映射数据 (1)06:44
课时903.4 案例:评分卡 - 映射数据 (2)08:02. A4 W$ `) x9 K4 n
课时913.5 案例:评分卡 - 建模与模型验证11:41) V- @; F& Y$ i5 Z! ]& V5 ~
课时923.6 案例:评分卡 - 评分卡的输出和建立16:59! o7 O) b+ Y* E! G; h1 A" f' b
章节6:聚类算法与量化案例
课时93第六章课件+数据
课时940 概述01:32
课时951.1 无监督学习概述,聚类vs分类09:34
课时961.2 sklearn当中的聚类算法04:18
课时972.1 Kmeans是如何工作的?11:39
课时982.2 & 2.3 簇内平方和,时间复杂度16:48 p; ^3 j: W* u0 L0 N
课时993.1.1 KMeans - 重要参数n_clusters26:30' J6 i- P9 \2 v. y% l0 p3 U+ {; o
课时1003.1.2 聚类算法的模型评估指标 (1)12:58* l# C" Q# u- v5 c
课时1013.1.2 聚类算法的模型评估指标 (2) - 轮廓系数05:50
课时1023.1.2 聚类算法的模型评估指标 (3) - CHI09:44" c; V( K2 ]9 n. Z
课时1033.1.3 案例:轮廓系数找最佳n_clusters (1)10:02
课时1043.1.3 案例:轮廓系数找最佳n_clusters (2)10:59) s$ T7 d7 N d- P3 o- r0 m) r& \7 W
课时1053.1.3 案例:轮廓系数找最佳n_clusters (3)23:18* S4 Y, [/ I6 v# v
课时1063.2 重要参数init & random_state & n_init:初始质心怎么决定?08:24
课时1073.3 重要参数max_iter & tol:如何让聚类停下来?04:093 a# {7 n7 n8 v. L, ]
课时1083.5 重要属性与接口 & 函数k_means06:224 b+ p8 v X! N5 S0 L
课时1094 案例:Kmeans做矢量量化 (1):案例背景03:592 i* ^$ L$ ]( u% D& p1 g& x$ l' `# {
课时1104 案例:Kmeans做矢量量化 (2)18:00
课时1114 案例:Kmeans做矢量量化 (3)06:52
课时1124 案例:Kmeans做矢量量化 (4)14:263 Y5 P: H3 `, M3 n5 o5 h1 P
章节7:支持向量机与医疗数据集调参(上); E- V! V" ?1 t2 {
课时113第七章课件+数据' p6 u! [% P# l+ |8 Y! e
课时1140 本周要学习什么01:52+ |3 D& |: v6 A0 d4 {
课时1151.1 支持向量机概述:最强大的机器学习算法09:35! ~! N! |& s/ e8 F! k. e
课时1161.2 支持向量机是如何工作的 & sklearn中的SVM15:09- u# ]4 B8 S! y
课时1172.1.1 线性SVC的损失函数 (1)18:034 j" ]# M2 l8 L% m! q/ U; \
课时1182.1.1 线性SVC的损失函数 (2)10:22
课时1192.1.2 函数间隔与几何间隔04:41
课时1202.1.3.1 损失函数的拉格朗日乘数形态14:52
课时1212.1.3.2 拉格朗日对偶函数 (1)13:289 V ^8 {5 c$ F6 q1 x
课时1222.1.3.2 拉格朗日对偶函数 (2)08:07
课时1232.1.3.3 求解拉格朗日对偶函数极其后续过程03:494 M7 ]3 w3 C; B5 c, k. |4 \
课时1242.1.4 SVM求解可视化 (1):理解等高线函数contour11:44
课时1252.1.4 SVM求解可视化 (2):理解网格制作函数meshgrid与vstack07:53
课时1262.1.4 SVM求解可视化 (3):建模,绘制图像并包装函数12:11% N% [! r! w! K/ a
课时1272.1.4 SVM求解可视化 (4):探索建立好的模型02:24
课时1282.1.4 SVM求解可视化(5):非线性数据集上的推广与3D可视化08:172 u3 A, {1 X7 w7 x }
课时1292.1.4 SVM求解可视化(6):Jupyter Notebook中的3D交互功能03:08" a/ C6 X$ l" ]
课时1302.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel10:54
课时1312.2.3 案例:如何选取最佳核函数 (1)26:07
课时1322.2.3 案例:如何选取最佳核函数 (2)15:52
课时1332.2.4 案例:在乳腺癌数据集上探索核函数的性质33:08( j$ f- e: J5 F( D- A( p
课时1342.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)05:37
课时1352.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)12:00( A6 Z' J- G) Y
课时1362.3.1 SVM在软间隔数据上的推广12:47! ^; w1 a, I, k. H
课时1372.3.2 重要参数C & 总结08:19 X& s/ ?8 Q6 r; u& c
章节8:支持向量机与Kaggle案例:澳大利亚天气数据集
课时138支持向量机 (下) 课件 + 源码 + 数据1 U* E1 I/ e# D7 ?& a; g! i
课时1390 目录:本周将学习什么内容02:33( s$ I$ y, ~& n# j+ S
课时1401.1 简单复习支持向量机的基本原理06:43
课时1411.2 参数C的深入理解:多个支持向量存在的理由12:30
课时1421.3 二分类SVC中的样本不均衡问题08:19
课时1431.3 如何使用参数class_weight (1)05:145 s+ u; g( b8 I- e3 e, ^# Y
课时1441.3 如何使用参数class_weight (2)09:06
课时1452 SVC的模型评估指标03:29
课时1462.1 混淆矩阵与准确率05:42
课时1472.1 样本不平衡的艺术(1):精确度Precision07:27
课时1482.1 样本不平衡的艺术(2):召回率Recall与F1 measure07:076 g: g/ _" O/ x, I3 U
课时1492.1.3 对多数类样本的关怀:特异度Specificity和假正率04:28& U2 o) s5 _( T% l1 ^
课时1502.1.4 sklearn中的混淆矩阵01:55! O" _& L6 Q% v6 ?
课时1512.2 ROC曲线:Recall与假正率FPR的平衡02:068 ?3 h+ ]. x5 {9 L* E
课时1522.2.1 概率与阈值18:01/ ^! U: i6 A+ P1 b2 d1 L& Q
课时1532.2.2 SVM做概率预测08:41
课时1542.2.3 绘制ROC曲线 (1)04:00
课时1552.2.3 绘制ROC曲线 (2)07:52
课时1562.2.3 绘制ROC曲线 (3)05:22
课时1572.2.4 sklearn中的ROC曲线和AUC面积10:11
课时1582.2.5 利用ROC曲线求解最佳阈值06:53
课时1593 选学说明:使用SVC时的其他考虑01:59
课时1604 案例:预测明天是否会下雨 - 案例背景03:52* c3 N) G7 a) H
课时1614.1 案例:导库导数据,探索特征13:221 S& n+ H1 p: B3 Z! |9 n5 L2 }8 \) [( q
课时1624.2 案例:分集,优先处理标签11:34
课时1634.3.1 案例:描述性统计,处理异常值10:105 I! e0 V/ H( Q/ |, I; K
课时1644.3.2 案例:现实数据上的数据预处理 - 处理时间35:43
课时1654.3.3 案例:现实数据上的数据预处理 - 处理地点 (1)03:42& Y$ V% {4 g7 ~3 ?+ V2 T o0 q
课时1664.3.3 案例:现实数据上的数据预处理 - 处理地点 (2)10:43
课时1674.3.3 案例:现实数据上的数据预处理 - 处理地点 (3)11:15
课时1684.3.3 案例:现实数据上的数据预处理 - 处理地点 (4)10:12
课时1694.3.4 案例:现实数据上的数据预处理 - 填补分类型变量的缺失值12:07
课时1704.3.5 案例:现实数据上的数据预处理 - 编码分类型变量04:15/ ?; C& f* i& f1 @, p
课时1714.3.6 & 4.3.7 案例:现实数据集上的数据预处理:连续型变量07:37
课时1724.4 案例:建模与模型评估 (1)04:49! ]; \9 E2 g4 P9 f+ L
课时1734.4 案例:建模与模型评估 (2)03:25
课时1744.5.1 案例:模型调参:追求最高的recall04:55
课时1754.5.2 案例:模型调参:追求最高的精确度 (1)12:07
课时1764.5.2 案例:模型调参:追求最高的精确度 (2)04:23
课时1774.5.3 案例:模型调参:追求精确度与recall的平衡14:561 b5 R A* q* D- j, V
课时1784.6 SVM总结与结语01:42- y- G: A; y; j. V* u
章节9:回归大家族:线性,岭回归,Lasso,多项式9 ^' b. L# T1 L$ y* e
课时179回归大家族:课件 + 代码
课时1800 本周要学习什么.mp403:51 y! x- Q& a. V% X0 V7 [6 \& U
课时1811 概述,sklearn中的线性回归大家族04:57
课时1822.1 多元线性回归的基本原理和损失函数11:02$ A6 z# H' T n" W y+ g [9 W3 R
课时1832.2 用最小二乘法求解多元线性回归的过程13:09: N! A6 {# z. g; {9 @- b
课时1842.3 多元线性回归的参数,属性及建模代码27:441 {# u8 z' i2 T" A* G- V$ u+ h
课时1853.1 回归类模型的评估指标:是否预测准确?15:32
课时1863.2 回归类模型的评估指标:是否拟合了足够的信息?29:29
课时1874.1 多重共线性:含义,数学,以及解决方案34:35/ y# D2 Q0 d) H' l5 L& A
课时1884.2.1 岭回归处理多重共线性13:006 ]- K: J* s8 f# b) A `$ ^1 _
课时1894.2.2 sklearn中的岭回归:linear_model.Ridge21:40( P! o8 a' I# X+ L6 E1 h& Y# D
课时1904.2.3 为岭回归选择最佳正则化参数23:464 r4 k: o$ r; A' o9 b* [7 ?
课时1914.3.1 Lasso处理多重共线性11:409 a1 M0 o; ?/ Q% n3 t
课时1924.3.2 Lasso的核心作用:特征选择16:36
课时1934.3.3 Lasso选择最佳正则化参数27:30
课时1945.1.1 & 5.1.2 线性数据与非线性数据09:05, ?( P3 `3 O7 F- ^
课时1955.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现16:34
课时1965.1.3 线性vs非线性模型 (2):拟合,效果与特点15:10, T8 G& s$ S+ V2 C
课时1975.2 离散化:帮助线性回归解决非线性问题30:39$ ]/ d" I ~) ^, ?8 n& g
课时1985.3.1 多项式对数据做了什么?26:27
课时1995.3.2 多项式回归提升模型表现11:08
课时2005.3.3 多项式回归的可解释性18:52
课时2015.3.4 多项式回归:线性还是非线性模型? + 本周结语09:41
章节10:朴素贝叶斯
课时202朴素贝叶斯课件 + 源码2 x, x; K! e* N" c7 [- `
课时2030 本周要讲解的内容01:449 P" v6 h, l' G `' J$ X9 t
课时2041.1 为什么需要朴素贝叶斯04:03
课时2051.2 概率论基础 - 贝叶斯理论等式06:01
课时2061.2.1 瓢虫冬眠:理解条件概率 (1)08:12
课时2071.2.1 瓢虫冬眠:理解条件概率 (2)09:10' Y5 Z3 t& @3 y8 S
课时2081.2.1 瓢虫冬眠:理解条件概率 (3)05:36* I2 W8 H3 ?& L" A; }7 ]3 C
课时2091.2.2 贝叶斯的性质与最大后验估计06:36
课时2101.2.3 汉堡称重:连续型变量的概率估计 (1)04:02' M* l' N1 ^) C; q; o5 x8 O# D
课时2111.2.3 汉堡称重:连续型变量的概率估计 (2)08:53$ y; ?- h0 \% Y6 e! a: R
课时2121.3 sklearn中的朴素贝叶斯02:34, Q( ^! n. V5 C. H" y: l2 E5 {( _
课时2132.1.1 认识高斯朴素贝叶斯19:56( V4 \9 N/ V% f3 l q2 B$ P
课时2142.1.2 高斯朴素贝叶斯擅长的数据集04:08
课时2152.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (1)02:29% b/ }$ {) `6 q# s
课时2162.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (2) - 代码讲解 (1)21:42
课时2172.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (3) - 代码讲解 (2)03:20
课时2182.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (4) - 分析与结论12:479 R3 L) j# M8 Y6 W7 X' j) {! W6 l
课时2192.2.1 概率类模型的评估指标 (1) - 布里尔分数12:40- E; |# x" o, A$ z4 r
课时2202.2.1 概率类模型的评估指标 (2) - 布里尔分数可视化06:01
课时2212.2.2 概率类模型的评估指标 (3) - 对数损失Logloss13:121 O) @) p: P% p- S7 c8 W4 b, w1 n
课时2222.2.3 概率类模型的评估指标 (4) - 可靠性曲线 (1)08:11! R- |$ V1 i R+ a9 x* V
课时2232.2.3 概率类模型的评估指标 (5) - 可靠性曲线 (2)27:04
课时2242.2.4 概率类模型的评估指标 (6) - 概率分布直方图10:33
课时2252.2.5 概率类模型的评估指标 (7) - 概率校准 (1)18:39
课时2262.2.5 概率类模型的评估指标 (8) - 概率校准 (2)03:072 Y+ z( g+ ]( l- Y' W
课时2272.3.1 多项式朴素贝叶斯 (1) - 认识多项式朴素贝叶斯05:14
课时2282.3.1 多项式朴素贝叶斯 (2) - 数学原理05:50
课时2292.3.1 多项式朴素贝叶斯 (3) - sklearn中的类与参数04:28
课时2302.3.1 多项式朴素贝叶斯 (4) - 来构造一个分类器吧11:297 P' Q7 h) r C7 d# I& W0 B
课时2312.3.2 伯努利朴素贝叶斯 (1) - 认识伯努利朴素贝叶斯02:47" x" o& t8 W$ y; B1 Z
课时2322.3.2 伯努利朴素贝叶斯 (2) - sklearn中的类与参数03:08& H: y% L5 P1 T2 ]# @3 S. H- f
课时2332.3.2 伯努利朴素贝叶斯 (3) - 构造一个分类器03:21/ X* u1 b, Y8 w3 r) s7 m3 D
课时2342.3.3 探索贝叶斯 - 朴素贝叶斯的样本不均衡问题13:42
课时2352.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (1)04:363 S. |1 n1 C- S* ]2 S/ }
课时2362.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (2)05:29
课时2372.3.4 补集朴素贝叶斯 - 处理样本不均衡问题03:40
课时2383.1.1 案例:贝叶斯做文本分类 (1) - 单词计数向量技术07:49) p5 q/ V2 y9 v2 P/ n& Z4 _* n# [6 w
课时2393.1.1 案例:贝叶斯做文本分类 (2) - 单词计数向量的问题04:35
课时2403.1.2 案例:贝叶斯做文本分类 (3) - TF-IDF技术06:55
课时2413.2 案例:贝叶斯做文本分类 (4) - 探索和提取文本数据15:29. ]. W6 S# X4 u U5 \# @ c
课时2423.3 案例:贝叶斯做文本分类 (5) - 使用TF-IDF编码文本数据03:37
课时2433.4 案例:贝叶斯做文本分类 (6) - 算法应用与概率校准12:29
章节11:XGBoost
课时244XGBoost课件 + 代码
课时2450 本周要学习什么06:01
课时2461 XGBoost前瞻:安装xgboost,xgboost库与skleanAPI12:44
课时2472.1 梯度提升树(1):集成算法回顾,重要参数n_estimators13:14
课时2482.1 梯度提升树(2):参数n_estimators下的建模21:232 T! j1 h9 S2 T( `8 Y% @( ^) H
课时2492.1 梯度提升树(3):参数n_estimators的学习曲线13:370 {7 O. a4 V8 x8 {- f
课时2502.1 梯度提升树(4):基于方差-偏差困境改进的学习曲线12:38( d7 g% r5 w+ E
课时2512.2 梯度提升树(5):控制有放回随机抽样,参数subsample15:17! Z- C0 U7 W" \; }8 V- Q
课时2522.3 梯度提升树(6):迭代决策树:重要参数eta20:519 i" z1 [4 l) A2 U1 b
课时2532.3 梯度提升树(7):迭代决策树:重要参数eta03:375 g5 g9 ]9 I9 h: [
课时2543.1 XGBoost的智慧 (1):选择弱评估器:重要参数booster04:40
课时2553.2 XGBoost的智慧 (2):XGBoost的目标函数,使用xgboost库建模28:01" c9 w4 {! u* c! k ] T1 R
课时2563.3 XGBoost的智慧 (3):求解XGBoost的目标函数 - 推导过程18:15( S1 E/ G, H$ X. N) D7 H
课时2573.3 XGBoost的智慧 (4):XGboost的目标函数 - 泰勒展开相关问题05:46
课时2583.4 XGBoost的智慧 (5):参数化决策树,正则化参数lambda与alpha16:09
课时2593.5 XGBoost的智慧 (6):建立目标函数与树结构的直接联系11:24: x; b; z4 q, _% P' q" K
课时2603.5 XGBoost的智慧 (7):最优树结构,求解w和T20:325 [/ G8 y% X0 X9 o. e0 T
课时2613.6 XGBoost的智慧 (8):贪婪算法求解最优树10:058 C u* E2 t9 }2 m2 {# A
课时2623.7 XGBoost的智慧 (9):让树停止生长:参数gamma与工具xgb.cv34:11 T5 W, _0 W( [/ `0 C3 z
课时2634.1 XGBoost应用 (1):减轻过拟合:XGBoost中的剪枝参数08:42' `) I/ A0 V+ T7 d
课时2644.1 XGBoost应用 (2):使用xgb.cv进行剪枝参数的调参35:156 w9 J4 V& O" Y' i$ n
课时2654.2 XGBoost应用 (3):使用pickle保存和调用训练好的XGB模型10:46
课时2664.2 XGBoost应用 (4):使用joblib保存和调用训练好的XGB模型07:39) D; X* e: R$ @- \% J1 ?7 J
课时2674.3 XGBoost应用 (5):XGB分类中的样本不平衡问题 - sklearnAPI12:18
课时2684.3 XGBoost应用 (6):XGB分类中的样本不平衡问题 - xgboost库15:48- R& p) m0 c5 }) K
课时2694.4 XGBoost应用 (7):XGB应用中的其他问题09:18.
点击加载更多
文章分类
其它
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXX@163.com 举报,一经查实,本站将立刻删除。
资源总数
104500+
今日更新
3000
会员总数
25840
今日注册
2468