随笔分类 - 折腾笔记
摘要:本文实现了一套基于 HTTP 协议的远程 Shell 执行系统,用于解决离线工控机环境下无法使用 SSH 进行远程管理的痛点。通过 Go 语言编写的单文件可执行程序,在工控机侧启动 HTTP 服务端接收命令,在开发机侧启动客户端实现类似 SSH 的交互式体验。服务端自动检测 PowerShell/CMD 并适配编码,支持命令超时控制、工作目录切换、CORS 跨域等特性。单文件零依赖的部署方式,使其特别适合无法安装额外软件的封闭工控环境。
阅读全文
摘要:
使用latex(精确排版), opencv(连通域检测)和pillow(数据扰动)批量合成xanylabeling格式的字符级分割标注数据(带字符级边界框标注)的合成数据用于训练字符级分割模型.
阅读全文
使用latex(精确排版), opencv(连通域检测)和pillow(数据扰动)批量合成xanylabeling格式的字符级分割标注数据(带字符级边界框标注)的合成数据用于训练字符级分割模型.
阅读全文
摘要:在macOS上配置kimi-cli的libretranslate-en-to-zh技能,通过本地LibreTranslate服务将英文技术文档批量翻译为简体中文.
阅读全文
摘要:在macOS上使用kimi-cli的markdown-to-pdf技能,通过Typst排版引擎将Markdown文档转换为精美排版的PDF,采用ViTAX风格的中文字体配置.
阅读全文
摘要:
在macOS上使用kimi-cli的plot-skill技能,通过D2和Python matplotlib创建科研/技术图表,采用统一的马卡龙配色方案和奶油色背景.
阅读全文
在macOS上使用kimi-cli的plot-skill技能,通过D2和Python matplotlib创建科研/技术图表,采用统一的马卡龙配色方案和奶油色背景.
阅读全文
摘要:在macOS上使用kimi-cli的latex-to-pdf技能,通过Tectonic排版引擎将LaTeX文档编译为PDF,支持中文和数学公式混排.
阅读全文
摘要:
在macOS上配置kimi-cli通过matrix-cli技能发送消息和文件到Matrix聊天房间.
阅读全文
在macOS上配置kimi-cli通过matrix-cli技能发送消息和文件到Matrix聊天房间.
阅读全文
摘要:
本文基于 Vision Transformer (ViT) 架构,在 MNIST 数据集上完成图像分类任务的端到端实践。通过 Patch Embedding、可学习位置编码、CLS Token、Multi-Head Self-Attention 与 MLP 分类头的模块化构建,配合 AdamW + CosineAnnealingLR 训练策略,在 PyTorch框架的CPU/GPU 环境下完成 20 轮训练。本方案的核心价值在于验证 ViT 从零构建、训练、推理的完整工程链路。
阅读全文
本文基于 Vision Transformer (ViT) 架构,在 MNIST 数据集上完成图像分类任务的端到端实践。通过 Patch Embedding、可学习位置编码、CLS Token、Multi-Head Self-Attention 与 MLP 分类头的模块化构建,配合 AdamW + CosineAnnealingLR 训练策略,在 PyTorch框架的CPU/GPU 环境下完成 20 轮训练。本方案的核心价值在于验证 ViT 从零构建、训练、推理的完整工程链路。
阅读全文
摘要:
本文介绍 CudaSharp 项目在 CUDA SIFT 算法上的两项核心优化:**GA102 芯片(RTX 3080/3080 Ti)端到端 GPU 加速**与 **SafeMem 内存/显存安全体系**。通过将特征检测、方向分配、描述子生成等关键瓶颈环节全面 GPU 化,配合共享内存 tile 优化与显存池管理,大图像处理速度提升 **1.62x**;同时引入自定义 SafeMem 库,系统性解决内存泄漏、越界访问、Use-After-Free 等安全问题,将代码健壮性提升至工业级标准。
阅读全文
本文介绍 CudaSharp 项目在 CUDA SIFT 算法上的两项核心优化:**GA102 芯片(RTX 3080/3080 Ti)端到端 GPU 加速**与 **SafeMem 内存/显存安全体系**。通过将特征检测、方向分配、描述子生成等关键瓶颈环节全面 GPU 化,配合共享内存 tile 优化与显存池管理,大图像处理速度提升 **1.62x**;同时引入自定义 SafeMem 库,系统性解决内存泄漏、越界访问、Use-After-Free 等安全问题,将代码健壮性提升至工业级标准。
阅读全文
摘要:
使用CUDA在GPU上加速SIFT特征提取与匹配算法, 并封装为CSharp库, 支持图像相似度评分和模板缓存.
阅读全文
使用CUDA在GPU上加速SIFT特征提取与匹配算法, 并封装为CSharp库, 支持图像相似度评分和模板缓存.
阅读全文
摘要:
在Windows上配置kimi-cli通过WriteFile和ReadFile间接调用Shell, 解决`Tool Runtime Error`问题.
阅读全文
在Windows上配置kimi-cli通过WriteFile和ReadFile间接调用Shell, 解决`Tool Runtime Error`问题.
阅读全文
摘要:
使用CUDA在GPU上完成高像素图片动态阈值二值化, 并封装为CSharp库.
阅读全文
使用CUDA在GPU上完成高像素图片动态阈值二值化, 并封装为CSharp库.
阅读全文
摘要:
不走寻常路, 在安卓手机通过java虚拟机PojavLauncher运行基于java8的lua解释器.Running a Java 8-based Lua interpreter on Android phones through the Java virtual machine PojavLauncher.
阅读全文
不走寻常路, 在安卓手机通过java虚拟机PojavLauncher运行基于java8的lua解释器.Running a Java 8-based Lua interpreter on Android phones through the Java virtual machine PojavLauncher.
阅读全文
摘要:
使用cli工具从文件夹导入模型及导出本机ollama模型到文件夹.
阅读全文
使用cli工具从文件夹导入模型及导出本机ollama模型到文件夹.
阅读全文
摘要:使用轻量化的continuwuity部署matrix内部聊天服务器(homeserver).
阅读全文
摘要:使用标准数据集测试30b-a3b:q8模型编程能力.
阅读全文
摘要:使用mqtt透传ollama的api端点以应对客户端与服务器网络连接不稳定的情况.
阅读全文
摘要:
使用上古的A100-SXM4-40GB GPU通过ollama运行qwen3-30b-a3b模型.“30B-Q8 量化模型在 GPU 上回答一句自我介绍,用 28 s 生成 267 token,平均功耗 55 W,总能耗 0.44 Wh,单 token 电费不足三万分之一元,能效约 6 J/token。”.
阅读全文
使用上古的A100-SXM4-40GB GPU通过ollama运行qwen3-30b-a3b模型.“30B-Q8 量化模型在 GPU 上回答一句自我介绍,用 28 s 生成 267 token,平均功耗 55 W,总能耗 0.44 Wh,单 token 电费不足三万分之一元,能效约 6 J/token。”.
阅读全文
摘要:
使用Scala3的Storch(对标PyTorch)简单计算张量.
阅读全文
使用Scala3的Storch(对标PyTorch)简单计算张量.
阅读全文

浙公网安备 33010602011771号