摘要: import tkinter as tkimport sys # 输出重定向类 class RedirectStdout: def __init__(self, text_widget): self.text_widget = text_widget def write(self, message) 阅读全文
posted @ 2023-10-14 23:38 肃木易 阅读(151) 评论(0) 推荐(0) 编辑
摘要: 最前先提醒下,如果项目没有专门的环境,建议搞个虚拟环境打包,这样打包的exe会小点。 丢一段虚拟环境命令方便复制: 新建虚拟环境:conda create -n your_env_name python=3.8 激活虚拟环境:conda acitvate your_env_name 在这个环境里安装 阅读全文
posted @ 2023-10-14 05:33 肃木易 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 一、中序 1. 递归 class Solution: def inorderTraversal(self, root: TreeNode) -> List[int]: if not root: return [] res = [] res.extend(self.inorderTraversal(r 阅读全文
posted @ 2022-01-10 03:59 肃木易 阅读(97) 评论(0) 推荐(0) 编辑
摘要: 1. 定义一个函数创建logger并添加两个handler,设置日志文件路径为参数output_path文件夹下的log.txt import logging import os def get_loger(output_path): # 创建logger logger = logging.getL 阅读全文
posted @ 2021-06-25 17:42 肃木易 阅读(232) 评论(0) 推荐(0) 编辑
摘要: 首先设置任意种子: SEED=666 对于pytorch torch.manual_seed(SEED) torch.cuda.manual_seed_all(SEED) np.random.seed(SEED) random.seed(SEED) torch.backends.cudnn.dete 阅读全文
posted @ 2020-08-04 21:06 肃木易 阅读(4018) 评论(0) 推荐(0) 编辑
摘要: 导入包。 from torch.utils.tensorboard import SummaryWriter 实例化一个summaryWriter,设置记录保存在runs文件夹里。 writer = SummaryWriter('runs') 在运行中记录loss:比如每20个batch记录一次损失 阅读全文
posted @ 2020-07-24 10:57 肃木易 阅读(3200) 评论(0) 推荐(1) 编辑
摘要: 支持向量机(Support Vector Machine, SVM) 基本思想就是找两类数据的最大间隔。 一、目标函数 令数据集为 D,标签 y 为 +1、-1。 正确的分类可以用这个不等式描述: 当我们不希望有点落在边界时,公式改写为: 即将支持向量的函数间隔为 1,相当于对wT 、b 进行了缩放 阅读全文
posted @ 2020-06-28 03:36 肃木易 阅读(241) 评论(0) 推荐(0) 编辑
摘要: 需要安装eventlet库 import time import eventlet # 最开始加上这条语句 eventlet.monkey_patch() #设置超时时间为10秒 with eventlet.Timeout(10,False): # 此处编写可能超时的语句,超时则会跳出这段语句 ti 阅读全文
posted @ 2020-06-26 11:04 肃木易 阅读(2251) 评论(0) 推荐(0) 编辑
摘要: 将python控制台信息和错误信息输出到日志。 这里设置输出文件夹为log,把日志的文件名设置为程序运行时间。 首先把在代码文件中加入以下代码 import time import os import sys class Logger(object): def __init__(self, stre 阅读全文
posted @ 2020-05-19 18:20 肃木易 阅读(8170) 评论(0) 推荐(1) 编辑
摘要: Transformer 自 Attention 机制提出后,加入 Attention 的 seq2seq 模型在各个任务上都有了提升,所以现在的 seq2seq 模型指的都是结合 RNN 和 Attention 的模型。 Transformer 模型使用了 self-Attention 机制,不采用 阅读全文
posted @ 2020-05-11 06:10 肃木易 阅读(2071) 评论(0) 推荐(0) 编辑