首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场

AI生3D

修改于 2025-07-09 14:39:05
285
概述

AI生3D是指利用人工智能技术,特别是深度学习模型,自动生成三维模型和三维场景的过程。通过分析二维图像、文本描述或其他多模态数据,AI生3D能够快速创建高质量、结构合理的三维内容,广泛应用于游戏开发、影视制作、虚拟现实、工业设计等领域,极大地提升了三维内容创作的效率和创新能力。

AI生3D的核心技术有哪些?


1、神经辐射场(Neural Radiance Fields, NeRF)

核心思想​:通过神经网络学习从不同视角观察到的图像,从而重建出连续的三维场景表示。

特点​:

  • 能够生成高质量、照片级的3D场景渲染;
  • 支持新视角合成(novel view synthesis);
  • 对复杂光照和材质有较好的表达能力。

应用​:虚拟现实、增强现实数字孪生、影视制作等。


2、3D生成对抗网络(3D Generative Adversarial Networks, 3D-GAN)

核心思想​:基于GAN(生成对抗网络)框架,在3D数据(如点云、体素、网格)上训练生成模型,使模型能够生成逼真的3D结构。

变体包括​:

  • PointGAN​:在点云数据上训练;
  • VoxelGAN​:在体素(voxel)表示上训练;
  • MeshGAN​:在网格(mesh)表示上训练。

特点​:

  • 能够生成多样化的3D模型;
  • 适用于游戏、虚拟角色、工业设计等领域。

3、扩散模型(Diffusion Models)在3D生成中的应用

核心思想​:扩散模型通过逐步添加噪声并学习去噪过程来生成数据,近年来被扩展到3D领域。

应用形式​:

  • 3D点云扩散模型​:如PointDiffusion;
  • NeRF与扩散模型结合​:如Diffusion NeRF;
  • 文本到3D扩散模型​:如DreamFusion(结合文本提示生成3D模型)。

特点​:

  • 生成质量高、多样性好;
  • 可结合语言模型实现“文本生成3D”。

4、基于Transformer的3D生成模型

核心思想​:将Transformer架构应用于3D数据(如点云、体素)的建模与生成。

代表工作​:

  • Point Transformer​:用于点云分类、分割与生成;
  • 3D Shape Transformer​:直接生成3D形状。

特点​:

  • 能够捕捉长距离依赖关系;
  • 适合处理大规模、复杂的3D数据。

5、文本到3D(Text-to-3D)技术

核心思想​:通过自然语言描述自动生成对应的3D模型,通常结合大语言模型(LLM)与3D生成模型。

代表工作​:

  • DreamFusion​:结合CLIP与NeRF,实现文本到3D;
  • Magic3D​:结合扩散模型与NeRF,实现高质量文本到3D;
  • Shap-E​:OpenAI推出的高效文本到3D模型。

特点​:

  • 用户友好,只需输入文字即可生成3D;
  • 推动AI辅助设计、内容创作的发展。

6、多模态融合技术

核心思想​:将图像、文本、音频等多种模态信息融合,指导3D生成。

应用场景​:

  • 根据图片生成对应3D模型(Image-to-3D);
  • 根据视频生成动态3D场景;
  • 多模态驱动的虚拟角色生成。

技术基础​:

  • 跨模态表示学习(如CLIP);
  • 多模态Transformer;
  • 联合训练策略。

7、优化与加速技术

核心挑战​:3D数据量大、计算复杂度高,AI生成3D需要高效的优化算法与硬件支持。

相关技术​:

  • 神经渲染加速(如Instant NGP);
  • 模型压缩与蒸馏;
  • 分布式训练与推理;
  • GPU/TPU加速。

AI生3D如何实现三维模型的自动生成?

1. 输入数据类型

  • 单张或多张二维图片:通过分析图片中的物体形状、纹理和结构,推断三维信息。
  • 点云数据:利用激光扫描或深度摄像头获取的稀疏三维点集。
  • 文本描述:通过自然语言处理,将文字描述转换为三维模型。
  • 草图或轮廓:用户绘制的二维草图辅助生成三维形状。

2. 关键技术和方法

(1)基于深度学习的三维重建

  • 卷积神经网络(CNN):用于从二维图像中提取特征,推断三维结构。
  • 生成对抗网络(GAN):生成逼真的三维模型或三维形状的体素表示。
  • 变分自编码器(VAE):学习三维形状的潜在空间,实现多样化生成。
  • 图神经网络(GNN):处理三维网格或点云数据,捕捉局部和全局结构。

(2)三维表示形式

  • 体素(Voxel):三维像素,类似于3D的像素网格,适合用CNN处理。
  • 点云(Point Cloud):稀疏的三维点集合,适合捕捉物体表面。
  • 网格(Mesh):由顶点、边和面组成的多边形网格,适合精细建模。
  • 隐式函数(Implicit Function):通过神经网络学习一个连续的三维形状函数,如SDF(Signed Distance Function)。

(3)典型模型和框架

  • Pix2Vox:从单张或多张图片生成体素模型。
  • PointNet/PointNet++:处理点云数据,进行分类和生成。
  • NeRF(Neural Radiance Fields):通过多视角图片生成高质量的三维场景表示。
  • DeepSDF:基于隐式函数的三维形状生成。
  • Text2Shape:将文本描述转换为三维模型。

3. 实现流程示例(以单张图片生成三维模型为例)

  • 输入处理:输入一张物体图片。
  • 特征提取:利用CNN提取图片中的形状和纹理特征。
  • 三维推断:通过训练好的生成模型(如GAN或VAE)将二维特征映射到三维表示(体素、点云或隐式函数)。
  • 后处理:对生成的三维数据进行平滑、细节增强和纹理映射。
  • 输出三维模型:导出为常见格式(如OBJ、PLY)供后续使用。

4. 应用场景

  • 游戏和影视中的角色和场景快速建模。
  • 虚拟现实(VR)和增强现实(AR)内容生成。
  • 工业设计和制造中的快速原型制作。
  • 文化遗产数字化和修复。

AI生3D生成的模型精度如何保证?


1. 高质量、多样化的训练数据

  • 丰富且标注准确的数据集:模型的精度高度依赖于训练数据的质量。使用包含多样化物体类别、姿态、光照和纹理的三维模型数据集(如ShapeNet、ModelNet、ScanNet等),能提升模型的泛化能力和细节捕捉能力。
  • 多视角、多模态数据:结合多张不同角度的图片、点云、深度图等多模态数据,帮助模型更全面地理解三维结构,减少单视角带来的信息缺失。

2. 先进的三维表示方法

  • 隐式函数表示(Implicit Representation):如Signed Distance Function(SDF)和Neural Radiance Fields(NeRF),相比传统体素和网格,隐式表示能更精细地刻画复杂曲面和细节,提升模型的连续性和分辨率。
  • 多分辨率和层次化表示:采用多尺度网络结构,先生成粗糙模型,再逐步细化,保证整体结构准确的同时提升局部细节。

3. 优化的网络结构和训练策略

  • 损失函数设计:结合多种损失函数(如重建误差、边缘平滑、对抗损失、感知损失等),引导模型生成更符合真实物体形态的三维结构。
  • 监督与自监督结合:利用有标签数据进行监督训练,同时结合自监督或无监督学习方法,提升模型在无标注或弱标注数据上的表现。
  • 数据增强:通过旋转、缩放、噪声添加等方式增强训练数据,提升模型对不同输入条件的鲁棒性。

4. 后处理技术

  • 网格优化和平滑:对生成的网格模型进行拓扑修复、孔洞填补和平滑处理,消除噪声和不合理结构。
  • 细节增强:利用法线贴图、纹理映射等技术丰富模型表面细节,提高视觉真实感。
  • 多视图融合:将多视角生成结果融合,利用投票或优化方法提升整体模型一致性和细节完整度。

5. 评估与反馈机制

  • 定量评估指标:使用Chamfer Distance、Earth Mover’s Distance(EMD)、IoU(Intersection over Union)等指标,定量衡量生成模型与真实模型的相似度。
  • 人工审核与迭代优化:结合人工检查和用户反馈,针对模型缺陷进行针对性改进和再训练。

AI生3D如何处理复杂的三维场景?


1. 场景分解与模块化建模

  • 语义分割与实例分割 先对复杂场景进行语义分割,将场景划分为不同类别的区域(如地面、建筑、树木、人物等),再对每个实例单独建模,降低单次建模的复杂度。
  • 对象级建模 将场景拆分成多个独立对象,分别生成或重建三维模型,最后通过空间关系和布局规则将它们组合成完整场景。
  • 层次化表示 采用层次化结构(如场景-对象-部件)管理三维信息,便于分层处理和细节控制。

2. 高效的三维表示与压缩

  • 稀疏体素(Sparse Voxel)和八叉树(Octree) 利用稀疏数据结构只存储有意义的空间信息,节省内存和计算资源,适合大规模场景。
  • 隐式场景表示 通过神经隐式函数(如NeRF、SDF)连续表示场景,避免传统网格或体素的离散限制,支持高分辨率细节表达。
  • 多分辨率表示 结合粗糙层和细节层,先快速生成整体结构,再逐步细化局部细节。

3. 多模态融合与多视角输入

  • 多视角图像融合 利用多张不同视角的图片或视频,通过深度学习模型融合信息,恢复场景的完整三维结构。
  • 结合点云和深度图 结合激光雷达点云、深度摄像头数据,增强场景几何信息的准确性。
  • 语义与几何信息融合 将语义标签与几何数据结合,提升场景理解和细节生成能力。

4. 关系建模与物理约束

  • 空间关系推理 利用图神经网络(GNN)等方法建模场景中物体间的空间和语义关系,保证生成场景的合理性和一致性。
  • 物理和几何约束 引入物理规则(如重力、碰撞检测)和几何约束,避免生成不合理的结构和布局。

5. 端到端学习与生成

  • 场景生成网络 设计端到端的深度网络,直接从输入(如文本描述、草图、多视图图像)生成完整三维场景。
  • 条件生成模型 通过条件GAN、VAE等生成模型,控制场景中物体的类别、位置和样式,实现定制化场景生成。

6. 后处理与优化

  • 细节增强 利用纹理映射、法线贴图等技术丰富场景细节。
  • 拓扑修复 修复模型中的孔洞、重叠面等拓扑问题,保证模型的完整性。
  • 实时渲染优化 采用LOD(Level of Detail)技术,根据视角距离动态调整细节层级,提升渲染效率。

AI生3D如何优化生成的三维模型结构?


1. 拓扑修复与结构优化

  • 孔洞填补(Hole Filling) 自动检测并修补模型中的孔洞,保证模型表面连续完整,避免渲染和打印时出现缺陷。
  • 自交检测与消除 识别模型中自相交的面或边,调整顶点位置或重新拓扑,避免不合理的几何结构。
  • 网格简化(Mesh Simplification) 通过边折叠(edge collapse)、顶点合并等算法减少多余的顶点和面数,降低模型复杂度,同时尽量保持形状细节。
  • 重拓扑(Retopology) 重新生成网格拓扑结构,使网格更加均匀、规则,便于后续动画绑定、物理模拟等应用。

2. 几何细节增强

  • 细分曲面(Subdivision Surface) 利用细分算法(如Catmull-Clark)平滑模型表面,增加细节层次,使模型更圆润自然。
  • 法线和切线优化 计算和调整顶点法线,改善光照效果,提升视觉真实感。
  • 纹理映射与细节贴图 通过高分辨率纹理、法线贴图、凹凸贴图等技术丰富表面细节,减少对几何细节的依赖。

3. 结构合理性与物理约束

  • 结构稳定性分析 对模型进行力学或物理模拟,检测结构薄弱或不合理部分,指导局部加固或调整。
  • 几何约束应用 保持模型关键特征(如对称性、平面、圆柱面等),避免生成畸形结构。

4. 数据表示与转换优化

  • 隐式函数优化 对基于隐式表示(如SDF、NeRF)的模型,利用优化算法提升形状边界的精度和连续性。
  • 多分辨率融合 结合粗糙模型和细节模型,平滑过渡,避免细节突变或噪声。

5. 自动化与智能优化流程

  • 基于学习的优化 利用深度学习模型自动预测和修正模型缺陷,如自动拓扑重建、细节补全等。
  • 迭代优化与反馈机制 通过多轮生成-评估-修正循环,不断提升模型质量。

6. 实用工具与算法示例

  • Quadric Error Metrics (QEM):常用的网格简化算法,平衡简化程度和形状误差。
  • Poisson Surface Reconstruction:用于点云生成平滑闭合网格。
  • Laplacian Smoothing:平滑顶点位置,减少噪声。
  • Graph Neural Networks (GNNs):用于学习和优化网格结构。

AI生3D如何处理生成模型的纹理和材质?


1. 纹理生成与映射

  • 基于图像的纹理生成 利用GAN(生成对抗网络)、VAE(变分自编码器)等深度学习模型,从输入的参考图片或随机噪声生成高质量纹理图像。
  • 多视角纹理融合 通过多张不同视角的照片,结合视角一致性约束,生成无缝且细节丰富的纹理贴图。
  • UV展开与自动映射 自动展开模型的UV坐标,将二维纹理准确映射到三维表面,保证纹理不变形、不拉伸。
  • 程序化纹理生成 利用程序算法(如噪声函数、分形算法)生成自然纹理(木纹、石材、布料等),适合无参考图的场景。

2. 材质属性预测与生成

  • 物理基渲染材质(PBR)参数生成 AI模型预测材质的关键参数,如漫反射(Albedo)、法线贴图(Normal Map)、金属度(Metalness)、粗糙度(Roughness)、环境光遮蔽(AO)等,支持真实感渲染。
  • 材质分类与风格迁移 通过深度学习识别物体材质类别(木头、金属、布料等),并进行风格迁移,生成符合特定风格的材质效果。
  • 多通道材质生成 同时生成多种材质贴图通道,保证材质在不同光照条件下表现一致且真实。

3. 纹理与材质的优化与修复

  • 纹理无缝拼接 解决多张纹理拼接处的接缝问题,保证纹理连续自然。
  • 细节增强与去噪 利用超分辨率、去噪网络提升纹理清晰度和细节表现。
  • 自动修复缺失纹理 对纹理缺失或损坏区域进行自动补全和修复。

4. 多模态融合与交互式调整

  • 结合几何信息优化纹理 利用模型的法线、曲率等几何信息指导纹理细节分布,增强真实感。
  • 用户交互式编辑 提供用户界面,允许用户调整纹理参数、选择材质风格,实现个性化定制。

5. 典型技术与工具

  • Neural Texture Synthesis:基于神经网络的纹理生成与迁移。
  • PBR材质库与自动匹配:结合现有材质库,自动匹配和生成相应参数。
  • UV自动展开算法:如基于图割(Graph Cut)和优化的UV展开方法。

AI生3D生成的三维模型如何进行后期编辑?


1. 模型几何编辑

  • 顶点/边/面编辑 通过手动或自动工具调整模型的顶点位置、边界形状和面片结构,修正形状缺陷或优化结构。
  • 拓扑重建与优化 重新构建模型拓扑,改善网格均匀性和流线,方便后续动画绑定和物理模拟。
  • 细节雕刻 使用数字雕刻工具(如ZBrush、Blender Sculpt Mode)添加或修饰细节,如皱褶、纹理凹凸等。
  • 布尔运算 进行模型的加减运算,合并多个模型或切割出复杂形状。

2. 纹理与材质调整

  • UV展开与调整 优化UV布局,减少纹理拉伸和接缝,提升纹理贴图质量。
  • 纹理绘制与修复 利用绘图软件(Substance Painter、Mari等)手工绘制或修复纹理,增强细节和真实感。
  • 材质参数调节 调整PBR材质参数(如金属度、粗糙度、透明度等),实现理想的视觉效果。

3. 骨骼绑定与动画准备

  • 骨骼绑定(Rigging) 为模型添加骨骼系统,方便后续动画制作。
  • 权重绘制 调整顶点对骨骼的影响权重,保证动画变形自然。
  • 形态混合(Blend Shapes) 制作表情或形态变化的关键帧,丰富动画表现。

4. 模型优化与修复

  • 网格简化 减少多余面数,提升渲染效率,适应实时应用需求。
  • 法线与切线修正 优化光照效果,避免渲染瑕疵。
  • 错误检测与修复 自动检测并修复自交、非流形边、翻转法线等问题。

5. AI辅助编辑工具

  • 智能修复与补全 利用AI自动补全缺失部分,修复破损网格。
  • 风格迁移与细节增强 AI辅助纹理风格转换,自动添加细节纹理。
  • 语义编辑 通过自然语言指令调整模型结构或材质,实现更直观的编辑体验。

6. 导出与格式转换

  • 多格式支持 根据应用需求导出为OBJ、FBX、GLTF、USD等格式。
  • LOD生成 自动生成不同细节层级(Level of Detail)模型,适应不同性能需求。

AI生3D如何结合深度学习提升生成效果?


1. 数据驱动的三维形状生成

  • 基于体素(Voxel)和点云(Point Cloud)的生成 利用3D卷积神经网络(3D CNN)、PointNet、PointNet++等网络结构,直接从噪声或条件输入生成三维体素网格或点云数据,实现粗略形状的快速生成。
  • 隐式函数表示(Implicit Function) 通过神经隐式表示(如DeepSDF、NeRF、Occupancy Networks),用神经网络学习连续的三维形状函数,生成高分辨率、光滑且细节丰富的模型。
  • 基于网格的生成与变形 使用图神经网络(GNN)或变形网络对已有网格进行生成和细节补全,提升模型拓扑结构的合理性和细节表现。

2. 条件生成与多模态融合

  • 文本到3D(Text-to-3D)生成 结合自然语言处理模型(如Transformer),将文本描述转化为三维模型,实现语义驱动的3D内容创作。
  • 图像到3D(Image-to-3D)重建 利用卷积神经网络(CNN)和生成模型,从单张或多张图片中恢复三维形状和纹理。
  • 多模态融合 融合语音、图像、文本等多种输入信息,提升生成模型的多样性和准确性。

3. 细节增强与纹理生成

  • 超分辨率与细节补全 通过生成对抗网络(GAN)和自编码器,提升模型细节分辨率,自动补全缺失部分。
  • 纹理与材质生成 利用深度学习生成高质量纹理贴图和PBR材质参数,实现真实感渲染。
  • 风格迁移 将特定艺术风格或材质风格迁移到三维模型上,丰富视觉表现。

4. 优化与修复

  • 自动拓扑优化 通过学习模型预测合理的网格结构,自动修复自交、非流形等拓扑错误。
  • 物理合理性约束 结合物理模拟与深度学习,生成结构稳定且符合物理规律的模型。
  • 迭代生成与反馈机制 利用强化学习或生成-判别网络的反馈机制,逐步优化生成结果。

5. 交互式与智能编辑

  • 语义驱动编辑 通过自然语言或手势指令,智能调整模型形状和材质。
  • 智能辅助设计 AI根据用户输入自动推荐设计方案或细节修改建议,提高设计效率。

6. 典型模型与框架

  • GAN系列(3D-GAN, PointGAN等) 用于生成多样化的三维形状。
  • 变分自编码器(VAE) 用于学习三维形状的潜在空间,支持插值和变形。
  • NeRF及其变体 用于高质量的三维场景重建和渲染。
  • Graph Neural Networks (GNN) 用于网格结构的生成和优化。

AI生3D如何解决生成模型中的细节缺失问题?


1. 多分辨率生成与逐步细化

  • 粗到细生成策略 先生成低分辨率或粗糙的三维形状,再通过后续网络逐步细化细节。例如,先用低分辨率体素或隐式函数生成大致形状,再用细节增强网络补充高频信息。
  • 金字塔结构网络 采用多尺度特征提取和融合,保证模型在不同尺度上都能捕捉到细节信息。

2. 利用隐式表示提升细节

  • 神经隐式表面(Neural Implicit Surfaces) 通过连续函数表示三维形状,避免传统网格或体素的分辨率限制,能生成更平滑且细节丰富的模型。
  • 高频细节编码 在隐式函数中引入高频编码(如Fourier特征映射),增强网络对细节的表达能力。

3. 细节补全与超分辨率技术

  • 细节补全网络 训练专门的细节补全模块,自动修复和补充缺失的纹理和几何细节。
  • 超分辨率生成 类似图像超分辨率技术,提升三维模型的分辨率和细节层次。

4. 多视角与多模态融合

  • 多视角信息融合 利用多张不同角度的图片或扫描数据,融合多视角信息,恢复更多细节。
  • 多模态数据辅助 结合纹理、法线贴图、深度图等多种数据源,丰富细节表现。

5. 纹理与法线贴图增强

  • 高质量纹理生成 通过GAN等深度学习方法生成细节丰富的纹理贴图,弥补几何细节不足。
  • 法线贴图与凹凸贴图 利用法线贴图模拟表面细节,增强视觉上的细节感。

6. 数据增强与训练策略

  • 丰富训练数据 使用高质量、多样化的训练数据,提升模型对细节的学习能力。
  • 损失函数设计 引入感知损失、边缘损失等专门针对细节的损失函数,强化细节还原。

7. 后期细节修饰

  • 数字雕刻与手工修饰 结合传统3D雕刻工具对AI生成模型进行细节补充和修饰。
  • AI辅助编辑 利用AI智能推荐和自动细节增强工具,快速提升模型细节。

AI生3D生成的模型如何进行质量评估?


1. 定量评估指标

(1)几何相似性指标

  • Chamfer Distance (CD) 测量生成模型点云与真实模型点云之间的平均最近点距离,数值越小表示几何形状越接近。
  • Earth Mover’s Distance (EMD) 衡量两个点云之间的最小运输成本,反映点云分布的相似度。
  • Hausdorff Distance 计算两个点集之间的最大距离,评估最差匹配情况。

(2)拓扑与网格质量指标

  • 网格连通性 检查模型是否存在非流形边、孔洞、自交等拓扑错误。
  • 面片质量 评估三角形或多边形的形状(如角度、长宽比),避免过扁或畸形面片。
  • 多边形数量(面数) 衡量模型复杂度,平衡细节与计算效率。

(3)纹理与材质质量

  • 纹理分辨率与清晰度 通过图像质量指标(如PSNR、SSIM)评估纹理贴图的清晰度和保真度。
  • PBR材质参数合理性 检查金属度、粗糙度等参数是否符合物理规律。

2. 定性评估方法

  • 视觉检查 通过渲染和观察模型,评估形状准确性、细节丰富度、纹理自然度等。
  • 用户主观评价 让专业设计师或目标用户对模型进行打分或反馈,结合实际应用需求。
  • 动画与交互测试 检查模型在绑定、变形、物理模拟等动态环境下的表现。

3. 自动化评估工具与框架

  • 3D模型对比工具 如MeshLab、CloudCompare等,支持多种几何和拓扑指标计算。
  • 深度学习评估网络 训练判别器或质量评估网络,自动判别生成模型的真实性和质量。

4. 任务驱动评估

  • 下游任务性能 根据模型应用场景(如游戏、虚拟现实、工业设计),评估模型在渲染效率、交互响应、物理模拟等方面的表现。
  • 兼容性测试 检查模型在不同平台、软件中的兼容性和稳定性。

AI生3D如何处理大规模三维数据?


1. 数据压缩与表示优化

  • 稀疏表示 利用稀疏体素(Sparse Voxel Octrees, SparseConvNet)或点云稀疏编码,减少无效数据存储和计算。
  • 隐式表示 采用神经隐式函数(如DeepSDF、NeRF)将三维数据压缩为网络权重,避免显式存储高分辨率网格或体素。
  • 多分辨率层次结构 通过八叉树(Octree)、KD树等空间划分结构,分层管理数据,实现快速访问和处理。

2. 分布式与并行计算

  • 分布式训练与推理 利用多GPU、多节点集群并行处理大规模数据,提升训练速度和模型容量。
  • 数据并行与模型并行 结合数据切分和模型拆分,优化资源利用率。
  • 流式处理 对数据进行分块加载和处理,避免一次性加载全部数据导致内存瓶颈。

3. 数据预处理与增强

  • 数据清洗与降噪 自动过滤冗余、错误或低质量数据,提升训练数据质量。
  • 数据增强 通过旋转、缩放、裁剪等方式扩充数据集,提高模型泛化能力。

4. 高效存储与索引

  • 专用三维数据库 使用支持空间索引和快速查询的数据库系统(如TileDB、PointDB)管理大规模三维数据。
  • 压缩格式与编码 采用高效压缩格式(如Draco、glTF)减少存储空间和传输带宽。

5. 模型设计优化

  • 轻量级网络结构 设计参数量小、计算效率高的网络,适应大规模数据处理需求。
  • 增量学习与在线更新 支持模型在新数据到来时快速更新,避免重复训练。

6. 应用示例

  • 大规模场景重建 利用分块隐式表示和多视角融合,实现城市级别的三维重建。
  • 云端渲染与交互 通过云计算平台处理和渲染大规模三维数据,客户端只需接收渲染结果。
相关文章
  • 一款很Nice的3D生成工具,包括文生3D、图生3D、3D生3D等众多功能!
    749
  • AI|微信公众号可以AI生图了
    273
  • AI研究也能借鉴印象派?这些栩栩如生的人竟然是3D模型
    251
  • Optane,3D NAND,朋友一生一起走!
    601
  • AI智能生图技术的未来趋势
    1.1K
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
领券