• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
juz.❤
博客园 首页 新随笔 联系 订阅 订阅 管理

2023年8月7日

神经网络相关(4)-反向传播的实现
摘要: 反向传播的实现--回归 %matplotlib inline import numpy as np import matplotlib.pyplot as plt input_data = np.arange(0,np.pi*2,0.1) correct_data = np.sin(input_da 阅读全文
posted @ 2023-08-07 22:41 juz 阅读(44) 评论(0) 推荐(0)
 
神经网络相关(3)-反向传播
摘要: 反向传播 训练数据与测试数据 损失函数 常用:平方和误差、交叉熵误差 平方和误差 适用于计算连续数值的情况 def square_sum(y,t): return 1.0/2.0*np.sum(np.square(y-t)) 交叉熵误差 学习速度很快,偏差容易被迅速消除 def (y,t): ret 阅读全文
posted @ 2023-08-07 22:40 juz 阅读(43) 评论(1) 推荐(0)
 
神经网络相关(2)
摘要: 多个神经元的实现——回归问题: %matplotlib inline #IPython的魔法函数,可以在IPython编译器里直接使用,作用是内嵌画图,省略掉plt.show()这一步,直接显示图像 import numpy as np import matplotlib.pyplot as plt 阅读全文
posted @ 2023-08-07 22:37 juz 阅读(33) 评论(0) 推荐(0)
 
神经网络相关(1)
摘要: 神经网络 权重w 偏置b 激励函数 f = Σxw + b 上层网络→下层网络 m*n矩阵代表权重矩阵;偏置的数量和下层网络的神经元数量一致,为n; u = np.dot(x,w) + b 一般来说,输出层的神经元数量n个,则用n阶形式的独热编码格式数据来表示 几种激励函数: 1、阶跃函数 阶梯型函 阅读全文
posted @ 2023-08-07 22:36 juz 阅读(41) 评论(1) 推荐(0)
 
深度学习的一些基础函数
摘要: 上半年学习的一些记录 主要参考的书:《写给新手的深度学习:用Python学习神经网络和反向传播》 Numpy: linspace reshape 广播机制(数组在某一轴上扩展,值和原来一样,扩展之后可以和其他维度的数组做基本计算) 切片 transpose 调换轴 其中transpose(1,0)等 阅读全文
posted @ 2023-08-07 22:34 juz 阅读(27) 评论(0) 推荐(0)
 
 

公告


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3