• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
MKT-porter
博客园    首页    新随笔    联系   管理    订阅  订阅
2023年10月16日
pytorch(10.1) 自注意力理论
摘要: 0 为什么会出现注意机制 97. 97 - 097 传统解决方案遇到的问题_哔哩哔哩_bilibili 缺点 1 后续的预测必须用上前面的中间态结果,不能算独立, 不能并行加速计算 2 网络能学习到不同的重点,而不是统一均匀都起到作用。 3 传统词向量训练好,词向量模型不能改变 1 注意力理解概念引 阅读全文
posted @ 2023-10-16 22:13 MKT-porter 阅读(269) 评论(0) 推荐(0)
pytorch(9-1) 门控循环单元
摘要: 复杂实现 import torch from torch import nn from torch.nn import functional as F from d2l import torch as d2l from API_86 import * # 1-1 初始化权重 W b def get_ 阅读全文
posted @ 2023-10-16 17:28 MKT-porter 阅读(87) 评论(0) 推荐(0)
论文(2)3D高斯
摘要: https://huggingface.co/blog/gaussian-splatting 什么是 3D 高斯泼溅? 3D 高斯泼溅的核心是一种光栅化技术。这意味着: 有描述场景的数据。 在屏幕上绘制数据。 这类似于计算机图形学中的三角形光栅化,用于在屏幕上绘制许多三角形。 然而,它不是三角形,而 阅读全文
posted @ 2023-10-16 10:18 MKT-porter 阅读(503) 评论(0) 推荐(0)
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3