摘要: 1 def read_file(filename):#读入文件 2 try: 3 fp=open(filename) #打开文件 4 L=fp.readlines() #按行读入 5 except IOError: #如果没找到文件 6 print("Error opening or readin... 阅读全文
posted @ 2019-09-18 20:27 欣姐姐 阅读(1445) 评论(0) 推荐(0)
摘要: 这是今天完成的第二道题,这个比较好理解,半小时以内就好了,,, 就是个整数与字符串与数组之间的转换关系。 我看了优秀的人的答案,用到了divmod()函数,我知道的函数太少了,这就是需要重点学习的地方,以后还会再次改进的,加油加油!!! ——2019.9.18 阅读全文
posted @ 2019-09-18 15:34 欣姐姐 阅读(178) 评论(0) 推荐(0)
摘要: 经过一早上的两个多小时才完成,,, 代码如下: 1 class Solution: 2 def plusOne(self, digits): 3 index=[] 4 for i in range(len(digits)): 5 if digits[i]==9: 6 index.append(i) 阅读全文
posted @ 2019-09-18 15:07 欣姐姐 阅读(272) 评论(0) 推荐(0)
摘要: 好开心哦,虽然还是简单题,但是做对了!!!! 这里面就用到了 这个是我之前不会的。举例: 运行结果: 除此之外还有append(),remove()的用法,差点忘了 加油加油加油!!!!!!!! ——2019.9.17 阅读全文
posted @ 2019-09-17 17:47 欣姐姐 阅读(164) 评论(0) 推荐(0)
摘要: 这个挺简单的,只能独立完成这样程度的题还是很让人沮丧。 虽然完成了,效果并不好,还得再思考精进才行 class Solution: def __init__(self): return None def removeElement(self, nums, val) -> int: while val 阅读全文
posted @ 2019-09-17 17:20 欣姐姐 阅读(155) 评论(0) 推荐(0)
摘要: 我真的好菜。。。。。。 最简单的题都不会。。。。。。 今天做的是leetcode的第一题——两数之和,做了好久不会做,最后还是看了别人的答案才恍然大悟,原来有这么多种做法。。。 两数之和嘛,取出一个数再取出一个数,我只是用暴力法写了两个for循环,然后就超出时间了。 哈希表我还是不会,不知道怎么编写 阅读全文
posted @ 2019-09-15 20:04 欣姐姐 阅读(171) 评论(0) 推荐(0)
摘要: ReLU层的设计: ReLU函数: 导数: Sigmoid层的设计: Affine 层: Softmax-with-Loss 层的实现 对应误差反向传播法的神经网络的实现: 阅读全文
posted @ 2019-09-02 16:33 欣姐姐 阅读(1381) 评论(0) 推荐(0)
摘要: 梯度的实现: 梯度下降法的实现: 神经网络的梯度 下面,我们以一个简单的神经网络为例,来实现求梯度的代码: 学习算法的实现: 前提 神经网络存在合适的权重和偏置,调整权重和偏置以便拟合训练数据的过程称为“学习”。神经网络的学习分成下面 4 个步骤。 步骤 1(mini-batch) 从训练数据中随机 阅读全文
posted @ 2019-09-02 12:17 欣姐姐 阅读(3690) 评论(1) 推荐(1)
摘要: 问题:如何实现数字“5”的识别?O(∩_∩)O~ 手写数字“5”的例子:写法因人而异,五花八门 方案: 从图像中提取特征量 用及其学习技术学习这些特征量的模式 神经网络的学习中所用到的指标称为损失函数。 可以用作损失函数的函数很多,最有名的是均方误差(mean squared error)。 均方误 阅读全文
posted @ 2019-09-01 10:58 欣姐姐 阅读(1627) 评论(0) 推荐(0)
摘要: 神经网络输入层神经单元个数:784 (图像大小28*28) 输出层 :10 (10个类别分类,即10个数字) 隐藏层个数 :2 第1个隐藏层的神经单元数 :50 第2个隐藏层的神经单元数 :100 先定义get_data()、init_network()、predict()这3个函数: init_n 阅读全文
posted @ 2019-08-31 21:11 欣姐姐 阅读(2989) 评论(0) 推荐(0)