SYNTHETIC RESEARCH ON CONSTRUCTION INSPECTION BASED ON BIM AND POINT CLOUD SEGMENTATION USING DEEP LEARNING
-
摘要:
建筑信息模型(BIM)为工程建设提供了丰富的空间和属性信息,三维激光扫描等三维信息获取技术的发展使获取工程建设三维场景信息变得更加便捷、高效。通过融合实际工程点云与BIM,将有助于实现工程建设质量和进度管理的自动化。既有研究一般比对点云与BIM的全局信息,需要工程人员根据不同规则检查判断,结果难以定量呈现。同时,比对结果无法与BIM构件属性自动关联并服务于智能化分析。针对上述问题,该文引入深度学习点云语义分割技术,对框架梁柱节点实现构件的对象化比对,提高了点云与BIM比对的自动化和数字化程度。模拟试验研究表明,采用的PointNet++模型在框架节点点云语义分割任务中取得了较高的精度,并对数据误差具有较好的健壮性,可为对象化的施工偏差比对提供良好的数据基础。该文方法实现的框架节点施工点云与BIM模型的对象化偏差比对,将在施工偏差展示、测量数据数字化和施工进度管理方面具有良好的应用价值和发展潜力。
Abstract:Building information modeling (BIM) provides a wealth of space and attribute information for construction, and the development of 3D information acquisition technologies such as 3D laser scanning makes it more convenient and efficient to obtain 3D information of construction scenes. By integrating the point clouds of actual construction scenes and BIM, the automation of construction quality and progress management is expected to be improved. Existing studies generally compare the global information of point clouds with BIM, which needs further inspection and judgement by engineers based on different rules, and also makes it difficult to quantify the results. Meanwhile, the comparison results cannot be automatically matched with component properties in BIM and then serve intelligent analysis. The point cloud semantic segmentation using deep learning is introduced to realize the object-oriented comparison of components for the frame nodes, which increases the automation and digitization level of point-cloud-vs-BIM comparison. Synthetic experiments show that the adopted PointNet++ achieves high accuracy of semantic segmentation in the task, and has good robustness to data acquisition errors, which can provide a solid foundation for object-oriented construction deviation comparison. The object-oriented deviation comparison of point clouds with BIM realized by this method will have a promising prospect in the application to construction deviation visualization, measurement data digitization, and construction progress management.
-
我国建筑业的发展对工程建造过程的进度和质量管控提出了较高的要求,施工管理问题越来越受工程人员和研究者的关注。建筑信息模型(BIM)为工程建设提供了丰富的空间和属性信息,成为提升工程建设管理数字化水平的关键技术。通过与实际工程数据的交互,可以利用BIM实现项目的动态协调管理。比如,在进度管理方面,利用BIM可以综合资源、工期、成本等关键要素优化实现科学的施工计划排程与可视化[1-4];在质量管理方面,则可开展碰撞检测、偏差检查和竣工模型重建等[5-7]。
上述应用离不开实际工程数据的获取,常规方法主要依赖于现场人员测量,存在数据获取成本高、效率低等问题。近年来,三维激光扫描、RGB-D深度相机等主动式三维信息获取技术和多视图几何重建等被动式三维信息获取技术的发展,为获取以点云描述的工程建设三维场景信息提供了可能[8-10]。相比于现场人员测量,利用上述方法可以更高效地获取三维信息,同时搭载于无人车、无人机[11]等可以实现更大范围的数据采集,为推动BIM在施工管理领域的应用提供了关键的技术支持。
目前,已有相关研究将点云与BIM相结合,辅助建筑工程的施工质量与进度管理[6,12]。然而,既有研究一般面向全局的三维场景信息比对,在不同类型工程构件需要适用不同的比对规则与指标时难以定量呈现比对结果,需要工程人员进一步开展针对性分析。同时,比对结果无法与BIM构件属性自动关联并服务于智能化分析。针对上述问题,本文将在既有研究基础上,引入深度学习点云语义分割技术,针对框架梁柱节点实现构件对象化的比对,提高点云与BIM比对的自动化和数字化程度,为相关测量数据和施工进度的数字化记录和智能化分析提供基础。
1 基于BIM与点云的施工检查方法
本文提出的基于BIM和深度学习点云分割的施工检查方法,主要包括以下4个步骤:
1) 点云获取:使用三维激光扫描、RGB-D深度相机等技术获取施工建筑三维点云,通过布置多个测点获取完整三维场景,点云应具备三维坐标和法向量信息。点云经过人工预处理与降采样,用于后续比对。
2) 深度学习模型训练:利用已有构件类型标签的点云数据训练点云语义分割模型,标签可以通过人工或虚拟合成的方法得到。第2节详细介绍了本文采用的点云语义分割算法。
3) 点云语义分割:将步骤1)获得的施工建筑点云输入到步骤2)训练获得的模型中,判别得到点云的逐点构件类型标签预测结果。
4) 对象化比对:根据步骤3输出的构件类型预测结果,将点云划分为不同构件实例,并与对应的BIM模型构件匹配。针对不同构件类型适用的规则与指标,进行对象化的施工偏差比对。第3.4节介绍了针对本文研究对象的比对方法。
本文以框架梁柱节点为研究对象,采用虚拟合成的方法获取点云及其构件类型标签,通过模拟试验研究验证了方法的可行性。
2 点云语义分割算法
语义分割技术将空间信息与语义信息相关联,使通过计算机视觉理解三维场景结构成为可能,为进一步的建模分析提供了基础。针对点云语义分割问题,研究者们开展了长期而广泛的研究,根据是否引入已知的语义信息,可以分为无监督和有监督2类[13]。典型的无监督分割方法包括边缘检测、区域生长、模型拟合和聚类分析等[13],此类方法的语义结果一般来自于研究者和使用者对于三维场景结构特征的认识和分析。有监督分割方法则利用已知语义标签训练模型,如支持向量机等机器学习方法[14]和各类深度学习方法在此类任务中发挥了其优势[15-18]。其中,深度学习语义分割方法在诸多数据集上取得了良好的效果,因而应用于城市建成环境要素识别[19-20]、桥梁结构构件分割[21]等工程相关研究中。本文将深度学习方法应用于框架梁柱节点语义分割,并拓展至与BIM结合的施工比对领域。
综合考虑性能和易用性,本文采用PointNet++[16]进行框架节点的语义分割。用于语义分割的PointNet++的网络架构主要由负责特征提取的降采样编码器和负责特征传播的上采样解码器两部分组成,如图1所示。本文具体采用的网络架构中,编码器和解码器分别包含3个集合抽取层和3个特征传播层。其中,集合抽取层由降采样层、分组层和PointNet层[15]组成。降采样层按最远点规则进行点云降采样,以保证降采样后的点较为均匀地分布在模型空间内,n为降采样后的关键点数量;分组层以降采样后的关键点为基点,采用ball query算法确定每个关键点的一组邻点,r为邻域搜索半径;最后,PointNet层对一组点进行特征提取,作为关键点的特征输入至下层网络。特征传播层则由上采样层和PointNet层组成。上采样层与下采样层的点的数量构成对应关系,采用反距离权重法计算上采样扩充点的特征;将上述上采样后的点的特征与下采样前的点的原特征连接组合,输入到PointNet层中。特征传播层的PointNet层仍负责特征提取,但针对单点而非集合抽取层中的针对点集进行。最后,点云特征通过全连接层转换为点的类别标签预测概率,取概率最大者作为点的类别标签。PointNet++训练过程的损失函数采用分类任务中常用的交叉熵损失。PointNet++的其他具体技术细节可参考文献[16]。
3 合成数据试验
为了验证深度学习点云语义分割算法在梁柱节点问题上的有效性,本文采用合成数据开展了验证试验。
3.1 BIM模型生成
本文采用Autodesk Revit及其C#语言二次开发接口生成框架节点BIM模型。考虑实际施工检查时已完成主要构件浇筑,生成的框架节点BIM模型包含梁、柱、板三种构件。生成的框架节点BIM模型包括三种样式,即中柱节点、边柱节点和角柱节点,生成的典型模型如图2所示。边柱节点和角柱节点考虑旋转对称的四个方向,如图3所示。
本文的框架节点BIM模型考虑方形柱截面与矩形梁截面。其中,方形柱截面边长取值范围为300 mm~1200 mm,梁宽取值范围为200 mm~600 mm,梁的高宽比控制在1~3且梁高不超过900 mm。由于点云获取通常在节点以下的楼层平面上开展,仅可获得节点所在楼层楼板的下表面三维信息,故板厚对于点云数据不产生影响,本文取固定板厚120 mm方便BIM建模。以50 mm为模数在上述尺寸范围内随机取值,共生成框架节点BIM模型603个,其中中柱节点203个,边柱节点和角柱节点各方向50个,BIM模型以STL格式导出三角形网格三维模型,用于获取点云数据。
3.2 合成点云获取
在生成框架节点BIM模型之后,为避免点云的密度模式与实际应用中LiDAR和深度相机由射线追踪产生的阵列式点云的密度模式不符[22],本文采用虚拟深度相机的方式获取框架节点的点云。
虚拟深度相机采用针孔相机模型,如图4所示。以Intel Realsense LiDAR深度摄像头L515的技术规格[23]为参考,虚拟深度相机的像素分辨率为1024×768,视场角(FOV)为70°。相机的焦距f (单位:pixel)可根据FOV计算:
f=w/2tan(FOV/2) (1) 式中,w/pixel为画幅宽度,此处即1024。不考虑像素坐标系与成像平面之间的平移,可知相机的内参矩阵K为:
{\boldsymbol{K}} = \left[ {\begin{array}{*{20}{c}} f&0&0 \\ 0&f&0 \\ 0&0&1 \end{array}} \right] (2) 根据针孔相机模型,记像素坐标系下的点(u, v)在归一化平面(相机坐标系下Z=1)上的对应点的世界坐标为Pw1,则有:
\left[ {\begin{array}{*{20}{c}} u \\ v \\ 1 \end{array}} \right] = {\boldsymbol{K}}({\boldsymbol{R}}{{\boldsymbol{P}}_{{\text{w1}}}} + {\boldsymbol{t}}) (3) 式中,R和t分别为相机坐标系相对世界坐标系的旋转矩阵和平移向量,即相机的位姿参数。其中,旋转矩阵R满足 {{\boldsymbol{R}}^{\text{T}}}{\boldsymbol{R}} = {\boldsymbol{I}} 。由相机光心O为相机坐标系的原点,可知相机光心O的世界坐标Pw0为:
{{\boldsymbol{P}}_{{\text{w0}}}} = - {{\boldsymbol{R}}^{\text{T}}}{\boldsymbol{t}} (4) 因此,以相机光心O为端点,像素坐标(u, v)对应的射线方向r可在世界坐标系下描述为:
{\boldsymbol{r}} = {{\boldsymbol{P}}_{{\text{w1}}}} - {{\boldsymbol{P}}_{{\text{w0}}}} = {{\boldsymbol{R}}^{\text{T}}}{{\boldsymbol{K}}^{ - 1}}\left[ {\begin{array}{*{20}{c}} u \\ v \\ 1 \end{array}} \right] (5) 通过遍历虚拟相机画幅分辨率内的像素点,将其对应射线与梁柱节点三维模型求交,即可获得三维模型的深度图和像素分类标签,如图5所示,进而可以获得具有语义标签的梁柱节点点云。
本文将深度采集误差引入到虚拟深度相机中。参考Intel Realsense LiDAR深度摄像头L515的技术规格,深度测量相对真值的标准差与相机到目标对象的距离相关,为距离1 m标准差2.5 mm至距离9 m标准差15.5 mm。这里假设深度信息服从正态分布,深度信息的标准差根据相机到目标对象的距离按线性插值处理。
为获取完整的框架节点点云,布置多个虚拟相机测点。虚拟相机放置在框架节点下方的楼层平面上(距柱顶垂直距离取3 m),与框架节点中心保持一定水平距离,从多个正交方向观测框架节点,以模拟实际工况,如图6所示。为了研究不同程度深度误差对点云语义分割的影响,虚拟相机与框架节点中心的水平距离分别取3 m、6 m和9 m。生成点云的过程中没有考虑非深度误差引起的离群噪声点的影响,因为噪声点可以通过自动或人工的点云数据前处理消除。
将多视图获取的框架节点点云配准融合,将点云密度降采样至合适水平,经降采样并裁剪至合适范围后的数据集中各个模型对应点云的平均点数约为44.0×103。降采样后的点云利用近邻点计算每个点的法向量,以考虑深度误差对法向量的影响。
实际应用中点云的坐标系与BIM模型的坐标系并不相同,在重力方向确定的条件下仍存在平面变换。其中,平移变换可以较为容易地通过归一化消除其对深度神经网络的影响,故这里考虑平面旋转变换。由于框架节点具有旋转对称性,将平面旋转角度的随机取值范围设为−45°~45°。
上述步骤基于Open3D[24]实现,完成后即可获得603个框架节点BIM模型对应的点云。
3.3 点云语义分割
将点云输入到PointNet++中进行语义分割,输入特征包括空间坐标(x, y, z)和法向量(nx, ny, nz)共6个维度,不包括点云的RGB颜色。对于中柱 、边柱和角柱节点数据集,每个模型对应点云的最小点数分别约为18.2×103、14.2×103和12.2×103,为了训练统一的深度学习模型并充分利用点云特征,所有训练输入的点云的点数均降采样至12.0×103。
603个框架节点的点云数据按6∶4划分为训练集和测试集,分别包含361个和242个数据。将训练集数据输入PointNet++,训练过程batch size取10,使用Adam优化器,初始学习率为0.001,每训练20 epochs学习率降至0.7倍,共训练200 epochs。训练在计算服务器上开展,CPU为Intel Xeon E5-2630 v3@2.40GHz,GPU为NVIDIA GeForce GTX1080,内存为64 GB,系统为Ubuntu 20.04,训练200 epochs约耗时3160 s。
将训练好的模型应用于测试集数据,与训练过程不同,测试评估时点云不进行下采样。模型预测点云的分类标签(梁、柱、板),结果精度以平均交并比mIoU (mean intersection over union)评价:
{\rm{mIoU}} = \frac{1}{n}\sum\limits_{i = 1}^n {\frac{{\left| {{y_i} \cap \widehat {{y_i}}} \right|}}{{\left| {{y_i} \cup \widehat {{y_i}}} \right|}}} (6) 式中:n为分类标签的数量,此处n=3,对应梁、柱、板三种语义对象; {y_i} 为预测标签的集合; \widehat {{y_i}} 为真值标签的集合。
如3.2节所述,为了研究不同程度深度误差对点云语义分割的影响,虚拟相机被放置在与框架节点中心的不同水平距离位置,不同工况下模型语义分割结果的mIoU如表1所示。可见,PointNet++可基本准确预测框架节点组成构件的类别标签,且相机水平距离引起的深度信息误差和法向量误差对于语义分割的准确性影响有限,但近距离获取点云仍可以获得更佳的精度,同时更准确的点云坐标也将为施工偏差度量提供更加准确的结果。
表 1 不同相机水平距离下的mIoU预测结果Table 1. Prediction mIoU for different camera horizontal distances相机水平距离/m 3 6 9 平均交并比mIoU 0.992 0.989 0.988 三种相机水平距离工况的预测标签和真值标签的混淆矩阵如图7所示,可见PointNet++对于三种主要组成构件的预测精度较为均衡。
以相机水平距离3 m时为例,三类框架节点的三维模型、点云真值标签和点云预测标签如图8~图10所示。从图中也可看出,模型预测的分类标签与真值标签基本一致,少量误差一般出现在构件连接位置,因为此处表面法向量变化相对剧烈,如图11所示。
对比中柱节点、边柱节点和角柱节点的模型语义分割结果的mIoU如表2所示。可见三种类型节点的构件类型预测精度较为均衡,同时中柱节点精度相对较低而角柱节点相对较高,也进一步验证了预测误差一般出现在构件连接的法向量变化显著的位置。
表 2 不同节点类型的mIoU预测结果Table 2. Prediction mIoU for different node styles节点类型 中柱节点 边柱节点 角柱节点 平均交并比mIoU 0.989 0.991 0.992 3.4 对象化施工偏差比对
在获得了高精度的框架节点组成构件语义分割结果之后,通过将点云与BIM模型进行配准,并将梁、柱、板的点云分别与其BIM模型配对,即可开展对象化的构件施工偏差比对。由于PointNet++仅给出语义分割结果而未给出实例化分割结果,对于具有多根梁构件的框架节点,采用基于规则的方法沿节点对角线方向将梁的点云划分为若干梁构件实例,再与各梁构件BIM模型按照距离最小的规则进行匹配。对象化的施工偏差比对通过计算点云到匹配的BIM模型表面的最短距离开展。
图12展示了一个框架节点的施工偏差比对结果,该节点的BIM模型中一根梁为外边缘与柱边缘对齐,但施工点云为梁轴线与柱轴线对齐。图12(a)展示了对象化施工偏差的结果,图中三维模型颜色表示构件类型,点云颜色表示偏差程度,从图中可以方便地观察到由梁对齐方式不同而产生的偏差。图12(b)为非对象化的偏差比对结果,即没有进行语义分割和点云-BIM匹配,直接计算所有点到BIM模型表面的最短距离。由图可见,非对象化的方法使得构件连接处的点云与错误的构件BIM模型比对偏差,从而影响了正确施工构件的误差数值,不利于工程人员的识别和分析。与此同时,对象化的施工偏差比对结果可以方便地与BIM模型中构件的属性相关联,为相关测量数据和施工进度的数字化记录和智能化分析提供了关键基础。
4 结论
随着深度相机、激光雷达等场景三维信息获取设备的发展,点云作为一种场景三维结构的描述方式,越来越多地应用于建筑施工领域。本文提出将深度学习技术应用于框架节点语义分割任务以开展对象化的施工偏差比对,并基于合成数据开展了试验研究,结论如下:
(1) 三维点云语义分割深度神经网络PointNet++在框架节点的梁、柱、板构件类型预测任务中取得了较高的精度,为对象化的施工偏差比对提供了数据基础。
(2) 对于点云的深度误差及其引起的法向量误差,本文采用的语义分割算法具有较好的健壮性,尽管有少量误差出现在构件连接位置的点云,但对于构件尺度的偏差值计算影响有限。
(3) 通过对施工点云语义分割再与BIM模型按照构件进行匹配,实现了框架节点施工点云与BIM模型的对象化偏差比对,在施工偏差展示、测量数据数字化和施工进度管理方面具有良好的应用价值和发展潜力。
本文旨在通过模拟试验验证所提出的基于深度学习的对象化节点施工偏差比对方法的可行性与应用潜力,未来研究工作将致力于将方法迁移至实际工况,围绕更加复杂的点云噪声、节点形式等开展进一步研究。
-
表 1 不同相机水平距离下的mIoU预测结果
Table 1 Prediction mIoU for different camera horizontal distances
相机水平距离/m 3 6 9 平均交并比mIoU 0.992 0.989 0.988 表 2 不同节点类型的mIoU预测结果
Table 2 Prediction mIoU for different node styles
节点类型 中柱节点 边柱节点 角柱节点 平均交并比mIoU 0.989 0.991 0.992 -
[1] 林佳瑞, 张建平, 钟耀锋. 基于4D-BIM的施工进度-资源均衡模型自动构建与应用[J]. 土木建筑工程信息技术, 2014, 6(6): 44 − 49. doi: 10.16670/j.cnki.cn11-5823/tu.2014.06.009 LIN Jiarui, ZHANG Jianping, ZHONG Yaofeng. Schedule-resource trade-off modeling and application based on 4D-BIM [J]. Journal of Information Technology in Civil Engineering and Architecture, 2014, 6(6): 44 − 49. (in Chinese) doi: 10.16670/j.cnki.cn11-5823/tu.2014.06.009
[2] 吴贤国, 秦文威, 张立茂, 等. 基于BIM的项目进度管理与控制研究[J]. 建筑经济, 2018, 39(10): 59 − 63. doi: 10.14181/j.cnki.1002-851x.201810059 WU Xianguo, QIN Wenwei, ZHANG Limao, et al. Research on project schedule management and control based on BIM [J]. Construction Economy, 2018, 39(10): 59 − 63. (in Chinese) doi: 10.14181/j.cnki.1002-851x.201810059
[3] CHEN C, TANG L. BIM-based integrated management workflow design for schedule and cost planning of building fabric maintenance [J]. Automation in Construction, 2019, 107: 102944. doi: 10.1016/j.autcon.2019.102944
[4] LI C Z, ZHONG R Y, XUE F, et al. Integrating RFID and BIM technologies for mitigating risks and improving schedule performance of prefabricated house construction [J]. Journal of Cleaner Production, 2017, 165: 1048 − 1062. doi: 10.1016/j.jclepro.2017.07.156
[5] ZHANG J P, HU Z Z. BIM- and 4D-based integrated solution of analysis and management for conflicts and structural safety problems during construction: 1. Principles and methodologies [J]. Automation in Construction, 2011, 20(2): 155 − 166. doi: 10.1016/j.autcon.2010.09.013
[6] 赵馨怡, 郭晓. 基于BIM和三维激光扫描技术的建设工程质量检测方法研究[J]. 土木建筑工程信息技术, 2020, 12(5): 131 − 134. doi: 10.16670/j.cnki.cn11-5823/tu.2020.05.22 ZHAO Xinyi, GUO Xiao. Research on construction quality inspection methodology based on the BIM and 3D laser scanning technology [J]. Journal of Information Technology in Civil Engineering and Architecture, 2020, 12(5): 131 − 134. (in Chinese) doi: 10.16670/j.cnki.cn11-5823/tu.2020.05.22
[7] RAUSCH C, HAAS C. Automated shape and pose updating of building information model elements from 3D point clouds [J]. Automation in Construction, 2021, 124: 103561. doi: 10.1016/j.autcon.2021.103561
[8] 丁一凡, 刘宇飞, 樊健生, 等. 基于空间位形的在役索膜结构有限元模型修正与安全评估[J]. 工程力学, 2022, 39(5): 44 − 54. doi: 10.6052/j.issn.1000-4750.2021.08.ST08 DING Yifan, LIU Yufei, FAN Jiansheng, et al. Finite element model updating and safety assessment of in-service cable-membrane structure based on spatial configuration [J]. Engineering Mechanics, 2022, 39(5): 44 − 54. (in Chinese) doi: 10.6052/j.issn.1000-4750.2021.08.ST08
[9] 刘宇飞, 樊健生, 孔思宇, 等. 多视角几何三维重建法识别工程结构缺损与变形[J]. 工程力学, 2020, 37(9): 103 − 111. doi: 10.6052/j.issn.1000-4750.2019.10.0598 LIU Yufei, FAN Jiansheng, KONG Siyu, et al. Detection of structural defect and deformation based on multi-view geometric three-dimensional reconstruction method [J]. Engineering Mechanics, 2020, 37(9): 103 − 111. (in Chinese) doi: 10.6052/j.issn.1000-4750.2019.10.0598
[10] 雷素素, 刘宇飞, 段先军, 等. 复杂大跨空间钢结构施工过程综合监测技术研究[J]. 工程力学, 2018, 35(12): 203 − 211. doi: 10.6052/j.issn.1000-4750.2018.09.0836 LEI Susu, LIU Yufei, DUAN Xianjun, et al. Study of comprehensive monitoring technology of the construction process of complex large-span spatial steel structures [J]. Engineering Mechanics, 2018, 35(12): 203 − 211. (in Chinese) doi: 10.6052/j.issn.1000-4750.2018.09.0836
[11] 杨娜, 张翀, 李天昊. 基于无人机与计算机视觉的中国古建筑木结构裂缝监测系统设计[J]. 工程力学, 2021, 38(3): 27 − 39. doi: 10.6052/j.issn.1000-4750.2020.04.0263 YANG Na, ZHANG Chong, LI Tianhao. Design of crack monitoring system for Chinese ancient wooden buildings based on UAV and CV [J]. Engineering Mechanics, 2021, 38(3): 27 − 39. (in Chinese) doi: 10.6052/j.issn.1000-4750.2020.04.0263
[12] KIM S, KIM S, LEE D E. Sustainable application of hybrid point cloud and BIM method for tracking construction progress [J]. Sustainability, 2020, 12(10): 4106. doi: 10.3390/su12104106
[13] XIE Y, TIAN J, ZHU X X. Linking points with labels in 3D: A review of point cloud semantic segmentation [J]. IEEE Geoscience and Remote Sensing Magazine, 2020, 8(4): 38 − 59. doi: 10.1109/MGRS.2019.2937630
[14] ZHOU Q. 3D urban modeling from city-scale aerial LiDAR data [D]. Los Angeles, CA, USA: University of Southern California, 2012.
[15] QI C R, SU H, MO K, et al. PointNet: Deep learning on point sets for 3D classification and segmentation [C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 77 − 85.
[16] QI C R, YI L, SU H, et al. PointNet++: Deep hierarchical feature learning on point sets in a metric space [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY, USA: Curran Associates Inc., 2017: 5105 − 5114.
[17] LI Y, BU R, SUN M, et al. PointCNN: Convolution on X-transformed points [C]// Advances in Neural Information Processing Systems: 31. Montréal, Canada: Curran Associates, Inc., 2018.
[18] WANG Y, SUN Y, LIU Z, et al. Dynamic graph CNN for learning on point clouds [J/OL]. arXiv: 1801.07829 [cs], 2019[2022-03-14]. http://arxiv.org/abs/1801.07829.
[19] SUN C J, ZHANG F, ZHAO P J, et al. Automated simulation framework for urban wind environments based on aerial point clouds and deep learning [J]. Remote Sensing, 2021, 13(12): 2383. doi: 10.3390/rs13122383
[20] LOWPHANSIRIKUL C, KIM K, VINAYARAJ P, et al. 3D semantic segmentation of large-scale point-clouds in urban areas using deep learning [C]// 2019 11th International Conference on Knowledge and Smart Technology (KST). Phuket, Thailand: KST, 2019: 238 − 243.
[21] KIM H, YOON J, SIM S H. Automated bridge component recognition from point clouds using deep learning [J]. Structural Control and Health Monitoring, 2020, 27(9): e2591. doi: 10.1002/stc.2591
[22] SUN J, ZHANG Q, KAILKHURA B, et al. Benchmarking robustness of 3D point cloud recognition against common corruptions [J/OL]. arXiv: 2201.12296 [cs], 2022[2022-02-18]. http://arxiv.org/abs/2201.12296.
[23] LiDAR Camera L515 – Intel® RealSense™ Depth and Tracking Cameras [EB/OL]. https://www.intelrealsense.com/lidar-camera-l515/. [2022-03-14].
[24] ZHOU Q Y, PARK J, KOLTUN V. Open3D: A modern library for 3D data processing [J/OL]. arXiv: 1801.09847 [cs], 2018[2022-03-15]. http://arxiv.org/abs/1801.09847.
-
期刊类型引用(5)
1. 林佳瑞,陈柯吟,郑哲,周育丞,陆新征. 建筑工程标准规范智能解译关键技术及应用. 工程力学. 2025(02): 1-14 . 本站查看
2. 李昊宇,廖维张. 基于改进RandLA-Net的建筑构件点云提取方法. 科学技术与工程. 2025(06): 2461-2468 . 百度学术
3. 彭程. 基于深度强化学习的电力基建进度预测研究. 中国新技术新产品. 2024(15): 93-95 . 百度学术
4. 檀俊. 基于BIM与IGA的选煤厂改扩建成本优化应用研究. 能源与环保. 2024(09): 187-192 . 百度学术
5. 邹婷婷,周东明,姜福香. 基于CiteSpace的BIM技术多领域集成二次开发发展研究. 土木建筑工程信息技术. 2024(06): 76-81 . 百度学术
其他类型引用(4)