吴恩达深度学习笔记——DAY2

目录

一、梯度下降法

二、向量化(Vectorization)

三、Python 中的广播(Broadcasting in Python)

一、梯度下降法

梯度下降法在测试集上,通过最小化代价函数(成本函数〉J(w,b)来训练的参数w和b,

找到全局最优解,也就是代价函数(成本函数)J(w, b)这 个凸函数的最小值点,这个函数含有两个参数w和b。

吴恩达深度学习笔记——DAY2

吴恩达深度学习笔记——DAY2

吴恩达深度学习笔记——DAY2

二、向量化 (Vectorization)

向量化是非常基础的去除代码中 for循环的艺术,通过 numpy内置函数和避开显式的循环( loop)的方式进行 向量化,从而有效提高代码速度。

三、 Python 中的广播( Broadcasting in Python

numpy广播机制:

如果两个数组的后缘维度的轴长度相符或其中一方的轴长度为 1 ,则认为它们是广播兼

容的。广播会在缺失维度和轴长度为 1 的维度上进行。

numpy 中,当一个 4 × 1 的列向量与一个常数做加法时,实际上会将常数扩展为一

个 4 × 1 的列向量,然后两者做逐元素加法。

m × n的矩阵和 1 × n 的矩阵相加。在执行加法操作时,其实是将 1 × ?的矩阵复制成为? × ?的矩阵,然后两 者做逐元素加法得到结果.

Original: https://blog.csdn.net/qq_45948088/article/details/122033907
Author: qq_45948088
Title: 吴恩达深度学习笔记——DAY2

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/761832/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球