摘要: 以下是记录的一些笔记: 有些混乱,寒假再来细细整理。 python实现: def gcd(a,b): while(b != 0): r = a%b a,b = b,r return a print(gcd(252, 105)) 阅读全文
posted @ 2022-11-23 00:30 0MrMKG 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 梯度下降与随机梯度下降: import torch import matplotlib.pyplot as plt import numpy as np x_data = [5,6,7,8.5,9,10,11.5,12] y_data = [1,2,8,4,5,6.5,7.5,8] w = 1 #初 阅读全文
posted @ 2022-09-06 23:18 0MrMKG 阅读(21) 评论(0) 推荐(0) 编辑
摘要: https://www.lanqiao.cn/problems/1463/learning/ 主要是运行时间问题: import os import sys n=2021041820210418 l=[] i=2 x=n while i<pow(x+1,0.5): if x%i==0: l.appe 阅读全文
posted @ 2022-09-01 20:36 0MrMKG 阅读(18) 评论(0) 推荐(0) 编辑