【深度学习】笔记2-神经网络

导读:本篇文章讲解 【深度学习】笔记2-神经网络,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

前言

活动地址:CSDN21天学习挑战赛

🚀 个人主页:阿阿阿阿锋的主页_CSDN
🔥 本文属于个人笔记,比较乱
🔥 希望能和大家一起加油,一起进步!

在这里插入图片描述


2. 神经网络

problem:

  1. 前向后向

  2. 偏置权重的数量取决于后一层的神经元的数量(不包括后一层的偏置神经元“1”)

  3. 图像的通道数

  4. 正则化的意义

  5. 对于线性可分问题,第 2 章的感知机是可以利用数据自动学习的。 根据“感知机收敛定理”,通过有限次数的学习,线性可分问题是可 解的。但是,非线性可分问题则无法通过(自动)学习来解决。

    对这个自动有些疑惑

  6. (9,)的维度是1, (1,9)的维度是2,但形状却是一样的,都是一行。

  7. 之所以不能用识别精度作为指标,是因为这样一来绝大多数地方的导数都会变为 0,导致参数无法更新。1)微调参数可能识别精度根本不会变化。2)即使精度变化,变化是离散的。

  8. 如果使用了阶跃函数,那么即便将损失函数作为指标,参数的微小变化也会被阶跃函数抹杀,导致损失函数的值不会产生任何变化

  9. 曲面是怎么画的

体会:

  1. 在输入层加入一个偏置神经元的方法,和《动手学深度学习》中将bia作为参数的方法是不一样的。

  2. 为什么一层的b也要有b1,b2,b3······呢?而不是一个b?从多维的角度思考

  3. softmax结果数值不稳定:超大值溢出和截断。(解决这个问题的办法有点秀)

摘抄:

  1. 恒等函数会将输入按原样输出

  2. 还需要把保存为 NumPy 数组的图像数据转换为 PIL 用
    的数据对象,这个转换处理由 Image.fromarray() 来完成

  3. 批处理

    批处理对计算机的运算大有利处,可以大幅缩短每张图像的处理时
    间。那么为什么批处理可以缩短处理时间呢?这是因为大多数处理
    数值计算的库都进行了能够高效处理大型数组运算的最优化。并且,
    在神经网络的运算中,当数据传送成为瓶颈时,批处理可以减轻数
    据总线的负荷(严格地讲,相对于数据读入,可以将更多的时间用在
    计算上)。也就是说,批处理一次性计算大型数组要比分开逐步计算
    各个小型数组速度更快。

  4. 矩阵的第 0 维是列方向,第 1 维是行方向

  5. 机器学习:

    深 度 学 习 有 时 也 称 为 端 到 端 机 器 学 习(end-to-end machine
    learning)。这里所说的端到端是指从一端到另一端的意思,也就是
    从原始数据(输入)中获得目标结果(输出)的意思。

  6. 为了正确评价模型的泛化能力,就必须划分训练数据和测试数据。

  7. 将正确解标签表示为 1,其他标签表示为 0 的表示方法称为 one-hot 表示

  8. 函数内部在计算 np.log 时,加上了一个微小值 delta。这是因为,当出现 np.log(0) 时,np.log(0) 会变为负无限大的 -inf,这样一来就会导致后续计算无法进行。

  9. 所谓数值微分就是用数值方法近似求解函数的导数的过程

单词:

flatten 展平

数值微分(numerical differentiation)

参考:

深度学习入门:基于Python的理论与实现 (斋藤康毅)


感谢阅读

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/114829.html

(0)
Java光头强的头像Java光头强

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!