神经网络基础-by Andrew Ng

Andrew Ng老师deeplearning.ai课程纪要(第二周:神经网络基础)

前因后果

很久没有更新博客…不找其他借口,本博主就是太懒了= =
临近毕业,很快就要面临秋招,目前已确定找DL和CV方向的工作。
前期虽然做了不少项目,积累了一些经验,但是基本都是用啥学啥,虽然尝试系统学习基础知识理论,曾信誓旦旦要啃完某一本书或者某一个课程,其结果都是啃得乱七八糟一团浆糊,不找其他借口,本博主就是擅长忘记,不擅长坚持,嗯。

建立一个完整的知识体系真的非常重要,任何细小的知识点都可能从未来的面试官口中蹦出来。基础牢固,才能指哪打哪。

此前曾学习完Ng老师deeplearning.ai前四周课程,受益匪浅,但很久没重温,现在需重新捡起来。
deeplearning.ai主页
此前Ng老师deeplearning.ai前四周的课程已经在网易云课堂免费开放,萌新们的福音。
这里为了方便温习,将课程中重要的部分贴出来。

二分分类

"da"

logistic回归

"da"
"da"

logistic回归损失函数

"da"

梯度下降法

"da"
"da"

计算图及其导数计算

"da"
"da"
"da"

logistic回归中的梯度下降法

"da"
"da"

m个样本的梯度下降

"da"
"da"

向量化

"da"
"da"
"da"
"da"

向量化logistic回归

"da"
"da"
"da"

Python中的广播机制

"da"
"da"

关于python/numpy向量的说明

"da"

logistic损失函数的解释

"da"
"da"