(超爽中英!) 2025公认最好的【吴恩达机器学习】教程!附课件代码 Machine Learning Specialization

180.2万
1.2万
2024-03-26 12:19:08
正在缓冲...
2.9万
2.5万
10.4万
1.7万
deep learning.ai 相信很多同学认识吴恩达大佬,在这门课上( machine earning specialization)你将自己编程实现机器学习。数百万人参加了这门课程的早期版本许多学习者,最终建立了令人兴奋的机器学习系统,甚至在人工智能AI领域获得非常成功的职业生涯。欢迎你的到来 (配套课件、笔记已整理,随工房附送,求三连! )
可咨询/1V1辅导 论文发表,核心期刊,SCI论文,EI会议、期刊、论文带读、本硕毕业论文(不代写)
视频选集
(9/142)
自动连播
1.1 欢迎来到机器学习!
02:45
1.2 机器学习的应用
04:29
2.1 什么是机器学习
05:36
2.2 监督学习 part 1
06:57
2.3 监督学习 part 2
07:17
2.4 非监督学习 part 1
08:54
2.5 非监督学习 part 2
03:40
2.6 Jupyter Notebooks
04:30
3.1 线性回归模型 part 1
10:27
3.2 线性回归模型 part 2
06:45
3.3 代价函数
09:05
3.4 代价函数的直观理解
15:47
3.5 可视化代价函数
08:34
3.6 可视化的例子
06:01
4.1 梯度下降
08:04
4.2 实现梯度下降
10:00
4.3 梯度下降的直观理解
07:02
4.4 学习率
09:04
4.5 线性回归中的梯度下降
06:37
4.6 运行梯度下降
05:49
5.1 多类特征
09:52
5.2 向量化 part 1
06:55
5.3 向量化 part 2
06:53
5.4 多元线性回归的梯度下降法
07:47
6.1 特征缩放 part 1
06:36
6.2 特征缩放 part 2
07:35
6.3 检查梯度下降是否收敛
05:40
6.4 学习率的选择
06:07
6.5 特征工程
03:05
6.6 多项式回归
05:53
7.1 Motivations
09:48
7.2 逻辑(logistic)回归
09:49
7.3 决策边界
10:43
8.1 逻辑回归的代价函数
12:00
8.2 逻辑回归的简化版代价函数
05:46
9.1 梯度下降实现
06:32
10.1 过拟合的问题
11:53
10.2 解决过拟合
08:16
10.3 正则化代价函数
09:04
10.4 正则化线性回归
08:53
10.5 正则化logistic回归
05:33
1.1 欢迎来到第二部分_高级学习算法
02:54
1.2 神经元和大脑
10:53
1.3 需求预测
16:24
1.4 例子:图像识别
06:36
2.1 神经网络中的层
09:50
2.2 更复杂的神经网络
07:19
2.3 推理:做出预测(前向传播)
05:24
3.1 代码中的推理
07:13
3.2 TensorFlow中的数据
11:20
3.3 构建一个神经网络
08:21
4.1 在一个单层中的前向传播
05:07
4.2 前向传播的一般实现
07:53
5.1 是否有路通向AGI(通用人工智能)
10:35
6.1 神经网络如何高效实现
04:23
6.2 矩阵乘法
09:28
6.3 矩阵乘法的规则
09:33
6.4 矩阵乘法代码
06:42
7.1 TensorFlow实现
03:38
7.2 训练细节
13:41
8.1 sigmoid的替代品
05:30
8.2 选择激活函数
08:25
8.3 为什么我们需要激活函数
05:32
9.1 多类
03:29
9.2 Softmax
11:33
9.3 神经网络的Softmax输出
07:25
9.4 softmax的改进实现
09:13
9.5 多个输出的分类(Optional)
04:20
10.1 高级优化方法
06:26
10.2 Additional Layer Types
08:56
11.1 决定下一步做什么
03:42
11.2 模型评估
10:26
11.3 模型选择和训练交叉验证测试集
14:53
12.1 诊断偏差和方差
11:13
12.2 正则化和偏差或方差
10:37
12.3 建立表现基准
09:26
12.4 学习曲线
12:14
12.5 再次决定下一步做什么
08:47
12.6 偏差或方差与神经网络
10:45
13.1 机器学习的迭代发展
07:43
13.2 误差分析
08:21
13.3 添加数据
14:24
13.4 迁移学习:使用其他任务中的数据
12:11
13.5 机器学习项目的完整周期
08:45
13.6 公平、偏见与伦理
09:57
14.1 倾斜数据集的误差指标
11:36
14.2 精确率与召回率的权衡
11:50
15.1 决策树模型
07:06
15.2 学习过程
11:21
16.1 测量纯度
07:50
16.2 选择拆分信息增益
11:52
16.3 整合
09:29
16.4 使用分类特征的一种独热编码(One-Hot)
05:26
16.5 连续的有价值特征
06:55
16.6 回归树 (optional)
09:52
17.1 使用多个决策树
03:57
17.2 放回抽样
04:00
17.3 随机森林算法
06:23
17.4 XGBoost
07:26
17.5 什么时候使用决策树
06:55
1.1 欢迎来到第三部分 无监督学习、推荐系统和强化学习
03:23
2.1 什么是聚类
04:13
2.2 K-means的直观理解
06:50
2.3 K-means算法
09:51
2.4 优化目标
11:14
2.5 初始化K-means
08:54
2.6 选择聚类的个数
07:58
3.1 发现异常事件
11:55
3.2 高斯(正态)分布
10:51
3.3 异常检测算法
12:09
3.4 开发和评估异常检测系统
11:39
3.5 异常检测 vs. 监督学习
08:09
3.6 选择要使用的特征
14:58
4.1 提出建议
05:33
4.2 使用每项特征
11:23
4.3 协同过滤算法
13:56
4.4 Binary labels- favs, likes and c
08:28
5.1 均值归一化
08:46
5.2 协同过滤的TensorFlow实现
11:39
5.3 查找相关项目
06:34
6.1 协同过滤 vs. 基于内容的过滤
09:46
6.2 Deep learning for content-based
09:43
6.3 从大目录中推荐
07:53
6.4 推荐系统的道德使用
10:49
6.5 基于内容过滤的TensorFlow实现
04:49
7.1 什么是强化学习
08:49
7.2 火星探测器示例
06:42
7.3 The Return in reinforcement lear
10:19
7.4 强化学习中的决策与策略制定
02:38
7.5 回顾关键概念
05:35
8.1 状态动作值函数定义
10:37
8.2 状态动作值函数示例
05:23
8.3 Bellman方程
12:53
8.4 随机环境(可选)
08:25
9.1 连续状态空间应用示例
06:25
9.2 月球着陆器
05:55
9.3 学习状态值函数
16:51
9.4 算法优化-改进的神经网络结构
03:02
9.5 算法优化ϵ-贪婪策略
09:00
9.6 算法优化-小批量和软更新(可选)
11:44
9.7 强化学习的状态
02:55
10.1 总结与感谢
03:12
客服
顶部
赛事库 课堂 2021拜年纪