Loading

摘要: 总结:各方法的典型关联(以大语言模型为例) Pre-Training:先让模型学“通识知识”(如语言、世界知识)。 Supervised Fine-Tuning (SFT):用标注数据让模型学“任务基本模式”(如指令遵循)。 Reward Modeling:训练模型学“人类偏好标准”(如什么回答更优 阅读全文
posted @ 2025-10-20 20:52 SaTsuki26681534 阅读(9) 评论(0) 推荐(0)
摘要: 四种微调方式 Full 对预训练模型的所有参数进行微调,让模型从底层到顶层的所有参数都参与更新,彻底适配下游任务 优点:模型对任务的适配性最强,在数据充足、任务复杂时效果通常最优 缺点: 资源消耗极大(千亿参数模型需高端 GPU 集群,训练时长以天 / 周计); 数据量不足时极易过拟合(模型死记训练 阅读全文
posted @ 2025-10-20 20:32 SaTsuki26681534 阅读(20) 评论(0) 推荐(0)
摘要: 表格对比 从上图中可以看出,png和tiff用到的最多,jpg/jpeg虽然在网络上很常见,但是对于CV来说不是很实用。 分别介绍 JPG/JPEG:最通用的 “低成本” 格式(分类任务首选) JPEG 是压缩标准,JPG 是文件扩展名,二者完全等价。 核心特性:基于DCT 离散余弦变换的有损压缩, 阅读全文
posted @ 2025-10-11 10:21 SaTsuki26681534 阅读(19) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2025-09-26 19:07 SaTsuki26681534 阅读(17) 评论(0) 推荐(0)
摘要: 在图像的频域里,“频率”描述的是像素值随空间位置变化的快慢。因此: 它们各自代表什么? 低频成分(Low Frequencies) 表示缓慢变化的内容:大尺度的亮度/颜色分布、光照与阴影、平滑的渐变、物体的大致形状与轮廓块面。 直观上,一张被高斯模糊后的图几乎只剩低频。 高频成分(High Freq 阅读全文
posted @ 2025-09-26 18:54 SaTsuki26681534 阅读(21) 评论(0) 推荐(0)
摘要: 问题描述 之前在看cycleGAN的代码时想到一个问题 代码里用类的方式定义cycleGAN模型,各个模块是以一个列表里的变量存在的 那么模型在进行forward时,是怎么知道各个模块之间的顺序的?或者说是怎么控制张量正确地从头走到尾的? cycleGAN的方式 model += [nn.Refle 阅读全文
posted @ 2025-09-25 21:52 SaTsuki26681534 阅读(11) 评论(0) 推荐(0)
摘要: # Copyright 2022 Dakewe Biotech Corporation. All Rights Reserved. # 版权所有 2022 Dakewe Biotech Corporation。保留所有权利。 # Licensed under the Apache License, 阅读全文
posted @ 2025-09-25 21:25 SaTsuki26681534 阅读(17) 评论(0) 推荐(0)
摘要: """通用的图像到图像转换测试脚本。 当你使用train.py训练好模型后,可以使用此脚本来测试模型。 它会从'--checkpoints_dir'加载保存的模型,并将结果保存到'--results_dir'。 脚本首先根据选项创建模型和数据集。它会硬编码一些参数。 然后对'--num_test'张 阅读全文
posted @ 2025-09-25 16:46 SaTsuki26681534 阅读(16) 评论(0) 推荐(0)
摘要: import time # 计时:统计每轮/每次迭代耗时 from options.train_options import TrainOptions # 训练期命令行参数解析器(继承 BaseOptions 并添加训练相关项) from data import create_dataset # 工 阅读全文
posted @ 2025-09-25 16:37 SaTsuki26681534 阅读(19) 评论(0) 推荐(0)
摘要: """This module contains simple helper functions""" # ↑ 模块文档字符串:本文件包含一些简单的辅助函数(图像/张量转换、保存、目录创建等) from __future__ import print_function # 兼容旧版 Python 的 阅读全文
posted @ 2025-09-25 15:24 SaTsuki26681534 阅读(13) 评论(0) 推荐(0)