前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于Pointnet++的几点疑问

关于Pointnet++的几点疑问

作者头像
点云乐课堂
发布2020-05-18 15:30:21
1.1K0
发布2020-05-18 15:30:21
举报
文章被收录于专栏:3D点云深度学习3D点云深度学习

接上面的文章,聊聊存在的几点疑问。

1

首先是分类任务的准确率

论文中的ssg版本能够达到90.7%。但是笔者以及问过的同学,都只能达到90.2%左右。于是笔者仔细思考了原因,参考文章告诉我们的信息,觉得问题有可能出在以下几点:

1、数据集的选择。用的官方数据集(2048点)对应90.7%,换成作者自备数据里(10000点)的话,准确率达到91.9%。笔者测试的是前者。所以这里没问题。

2、领域选取方法。两种方法KNN/ball query ,也会对准确率带来影响。代码里默认的是后者。所以问题也不是出在这。

3、运行evaluate.py的时候,要有votes = 12,这个也会对结果有影响。

其余的参数设置,比如学习率、batch_size都是默认的,与论文中所提的没差别,所以不会出什么问题。

但是最终结果还是达不到论文里的90.7%。

与作者沟通也未能获得很好的回馈。

2

另一个困扰的问题,是参数量的计算。从PointNet到PointNet++,这个参数量笔者始终没搞明白,这里把计算过程放上来,希望有同学一起看看。

1、PointNet++中分类任务ssg版本的计算。

笔者把特征提取部分和分类任务部分分开算。特征提取部分主要是1*1卷积,需要注意weight+bias,公式里的绿色的‘+1’表示bias的数量。

特征提取部分:

conv_num= (3+1)*64+(64+1)*64+(64+1)*128+ (128+3+1)*128+(128+1)*128+(128+1)*256+ (256+3+1)*256+(256+1)*512+(512+1)*1024=802624

分类部分:

fc_num = (1024+1)*512+(512+1)*256+(256+1)*40= 666408

总参数内存:

bytes_num = (conv_num+fc_num)*4=5,876,128bytes(即5.8MB,不到论文说的8.7MB)

这里需要注意一点,计算conv_num的公式里,用红字标出来的‘+3’,这是代码里提到的,pointnet_sa_module首先进行sample_and_group运算,来看代码做了什么:

代码语言:javascript
复制
sample_and_group(npoint, radius, nsample, xyz, points, knn=False, use_xyz=True):    '''
Input:
npoint: int32
radius: float32
nsample: int32
xyz: (batch_size, ndataset, 3) TF tensor
points: (batch_size, ndataset, channel) TF tensor, if None will just use xyz as points
knn: bool, if True use kNN instead of radius search
use_xyz: bool, if True concat XYZ with local point features, otherwise just use point features
Output:
new_xyz: (batch_size, npoint, 3) TF tensor
new_points: (batch_size, npoint, nsample, 3+channel) TF tensor
idx: (batch_size, npoint, nsample) TF tensor, indices of local points as in ndataset points
grouped_xyz: (batch_size, npoint, nsample, 3) TF tensor, normalized point XYZs
(subtracted by seed point XYZ) in local regions
'''new_xyz = gather_point(xyz, farthest_point_sample(npoint, xyz)) # (batch_size, npoint, 3)
if knn:
_,idx = knn_point(nsample, xyz, new_xyz)    else:
idx, pts_cnt = query_ball_point(radius, nsample, xyz, new_xyz)
grouped_xyz = group_point(xyz, idx) # (batch_size, npoint, nsample, 3)
grouped_xyz -= tf.tile(tf.expand_dims(new_xyz, 2), [1,1,nsample,1]) # translation normalization
if points is not None:
grouped_points = group_point(points, idx) # (batch_size, npoint, nsample, channel)
if use_xyz:
new_points = tf.concat([grouped_xyz, grouped_points], axis=-1) # (batch_size, npoint, nample, 3+channel)
else:
new_points = grouped_points    else:
new_points = grouped_xyz    return new_xyz, new_points, idx, grouped_xyz

有一个concate的操作,把特征和坐标进行了拼接,所以最终输出的channel层个数是channel+3。注释部分也提了。

所以计算conv_num的公式里有红色的‘+3’,所以这部分需要注意。

但是即便注意到了这点,最终结果也与论文提的8.7MB不符。

2.这里还想提一点,上一张图中,我们注意到作者说pointnet的Model size是40MB,但是pointnet论文里是这么写的:

3.5MB。

不知道两个数字为什么不一致。这个我没有去计算,因为T-net确实太繁琐了,暂时挖个坑吧。

疑问就先抛出来了,笔者会继续关注,也欢迎同学们帮忙解决。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-05-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 3D点云深度学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档