上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 37 下一页
摘要: #coding: utf8 import math # x1, x2输入神经元 x1=1 x2=2 # w1,w2分别为x1,x2的权重 w1=0.2 w2=0.3 # b为输出神经元的偏移量 b = 0.1 target = 1 # 目标值 def f(w1, w2, b): return x1 阅读全文
posted @ 2023-03-25 22:11 浪浪辛 阅读(52) 评论(0) 推荐(0)
摘要: 一次函数:y=kx+b (k≠0) 二次函数:y=ax2+bx+c (a≠0) 三次函数 y=ax^3+bx^2+cx+d (a≠0,b,c,d为常数) 四次函数y=ax4+bx3+cx2+dx+e (a≠0,b,c,d,e为常数) 绝对值函数 y=∣x∣ 常作abs(x) 几何意义 ∣x∣表示x轴 阅读全文
posted @ 2023-03-23 00:30 浪浪辛 阅读(256) 评论(0) 推荐(0)
摘要: #coding=utf8 import json,math,requests import numpy as np import matplotlib.pyplot as plt from scipy.stats import gaussian_kde from scipy.integrate im 阅读全文
posted @ 2023-03-16 00:40 浪浪辛 阅读(32) 评论(0) 推荐(0)
摘要: Q-Learning算法 理论 Q-Learning是一种强化学习算法,用于学习在给定状态下采取不同行动的最佳策略。其公式如下: $Q(s,a) \leftarrow (1 - \alpha) \cdot Q(s,a) + \alpha \cdot (r + \gamma \cdot \max_{a 阅读全文
posted @ 2023-03-15 16:17 浪浪辛 阅读(806) 评论(0) 推荐(0)
摘要: static touchNode (node:cc.Node) { const glPos = node.convertToWorldSpaceAR(cc.v2()); setTimeout(() => { this.touchSimulation(glPos); }, 0); } // 模拟点击 阅读全文
posted @ 2023-02-24 19:24 浪浪辛 阅读(359) 评论(0) 推荐(0)
摘要: 普通方法的hook非常so easy, 就不用记录了。 现在记录一下hook set get方法: class A{ constructor(){ this._age = 0; } get age(){ return this._age; } set age(v){ console.log('aa' 阅读全文
posted @ 2023-01-06 17:57 浪浪辛 阅读(154) 评论(0) 推荐(0)
摘要: -1% --> +1.0101% -2% --> +2.0408% -3% --> +3.0928% -4% --> +4.1667% -5% --> +5.2632% -6% --> +6.3830% -7% --> +7.5269% -8% --> +8.6957% -9% --> +9.890 阅读全文
posted @ 2022-12-30 20:22 浪浪辛 阅读(71) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-06-03 23:18 浪浪辛 阅读(81) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/qq_41800366/article/details/86583789 根据这篇文章,根据自己的理解,实际应用了一下梯度下降 #coding:utf-8 import numpy as np w = 2 b = 2 lr = 0.01 # 学习率 not 阅读全文
posted @ 2022-06-03 16:43 浪浪辛 阅读(66) 评论(0) 推荐(0)
摘要: 强化学习就是评价学习,这个和深度学习有啥区别? 我个人理解就是深度学习需要对一个一组特征设置标签, 然后反复训练模型,是这个模型尽量接近 一坨特征数据等于标签。 而强化学习是对一坨特征,模型刚开始不知道标签是具体是啥,随便输出一个值y就行,然后我们实现一个奖励函数,对这个输出值打一个分, 分数越高, 阅读全文
posted @ 2022-05-15 01:35 浪浪辛 阅读(141) 评论(0) 推荐(0)
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 37 下一页