• 博客园logo
  • 会员
  • 周边
  • 新闻
  • 博问
  • 闪存
  • 众包
  • 赞助商
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
MKT-porter
博客园    首页    新随笔    联系   管理    订阅  订阅
特征提取器 PointNet++

 

image

 

image

 

image

 好的,我们来详细解析 ​​PointNet​​ 的输入和输出。PointNet 是一个开创性的深度学习模型,其核心思想是​​直接处理无序的3D点云集合​​。


一、 PointNet 的输入

PointNet 的输入非常直接和纯粹:​​一个 n×3的矩阵,代表一个点云。​​

  • n: 点云中点的​​数量​​。这个数量可以是变化的,但为了批量训练,通常会通过重采样(如最远点采样FPS)或填充到固定数量(例如 1024、2048 个点)。
  • 3: 每个点的​​最基本特征​​,即其在3D空间中的笛卡尔坐标 (x,y,z)。

​​输入的可扩展性:​​除了基础的 (x,y,z)坐标,输入矩阵可以被扩展为 n×d,其中 d>3,以包含每个点的其他特征,例如:

  • ​​颜色信息:​​ RGB值,此时 d=6(x, y, z, r, g, b)。
  • ​​法向量信息:​​ 描述点所在表面的朝向,此时 d=6(x, y, z, nx, ny, nz)。
  • 其他任何逐点的特征。

​​关键特性:​​输入的点云是​​无序的​​。也就是说,打乱这 n个点的顺序,PointNet 的输出结果应该保持不变。这是通过其特殊的对称函数(最大池化)来实现的。


二、 PointNet 的输出

PointNet 的输出取决于具体的任务。它主要应用于两大类任务,因此有两种主要的输出形式:

1. 3D 物体分类

  • ​​任务目标:​​ 判断整个点云属于哪个类别(例如,“椅子”、“桌子”、“飞机”)。
  • ​​输出:​​ 一个长度为 k的​​概率向量​​,其中 k是类别的总数。
    • 例如,在 ModelNet40 数据集上(40个类别),输出是一个40维的向量。
    • 向量中的每个元素代表该点云属于对应类别的概率,所有元素之和为1(通过Softmax函数实现)。
  • ​​网络流程:​​
    1. 输入点云 n×3。
    2. 通过共享的多层感知机(MLP)独立处理每个点,将每个3维坐标映射到一个更高维的特征空间(例如64维,128维)。
    3. 使用一个​​对称函数(最大池化)​​ 将所有点的特征聚合起来,得到一个单一的、固定长度的​​全局特征向量​​(例如1024维)。这个向量是整个输入点云的抽象表示。
    4. 将这个全局特征向量输入到另一个MLP(分类器)中,最终输出 k个类的分数。

2. 3D 物体部件分割

  • ​​任务目标:​​ 为点云中的​​每一个点​​预测一个语义标签(例如,对于一把椅子,区分点是属于“椅腿”、“椅背”还是“座面”)。
  • ​​输出:​​ 一个 n×m的​​矩阵​​。
    • n: 点的数量(与输入对应)。
    • m: 部件类别的总数 + 1(例如,“背景”类)。
    • 这个矩阵的每一行是一个 m维的概率向量,表示​​该点​​属于每个部件类别的概率。
  • ​​网络流程:​​
    1. 前半部分与分类网络相同,会计算出一个全局特征向量。
    2. ​​关键步骤:​​ 将这个全局特征向量​​拼接​​到每个点的局部特征向量上。
    3. 这样,每个点的特征就同时包含了​​局部几何信息​​(这个点本身的特征)和​​全局语义信息​​(整个物体是什么,这有助于理解每个部件的上下文,例如,知道是“飞机”才能更好地区分“机翼”和“机身”)。
    4. 基于这个融合后的逐点特征,再通过MLP为每个点预测部件标签。
 
 
 
 
 

image

 

 

 

image

 

 
 

image

 

 

image

 

image

 

image

 

image

image

 

 

image

 

 

 

 

image

 

 

 

image

 

 

 

image

 

image

 

image

 

image

 

posted on 2025-10-29 05:24  MKT-porter  阅读(48)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3