
微软最新开源了 TRELLIS.2。

一张图,1 分钟内,就能直接生成可商用的 3D 模型。
它生成的不是那种只能看的“土块”,是带材质、带透明通道、高精度的游戏级资产模型。
更离谱的是,它在 H100 上生成一个基础质量的模型只需要 3 秒。
能输出带完整 PBR 材质的 .glb 文件,然后直接拖进 Blender/Unity/Unreal Engine 直接使用。
TRELLIS.2 使用的是 4B 参数规模的 DiT(Diffusion Transformer),但真正的关键不在参数量,而在架构设计。
稀疏 3D VAE + 16 倍空间下采样,把高分辨率 3D 资产,编码进一个紧凑的潜在空间,在保证细节的同时,大幅降低计算成本。
可以生成512³–1536³分辨率。H100上,生成512³分辨率约3s,1024³约17s,1536³约1min。
TRELLIS.2 引入了一种新的表示方式:O-Voxel。
专治各种“疑难杂症”结构,突破了等值面场的限制。
这意味着,它生成的模型不再是“看起来像”,而是结构上“站得住脚”。
很多 3D 生成模型,生成后只有一张颜色贴图,渲染一开就“塑料感”满满。
TRELLIS.2 不是。
它直接生成 PBR 四件套:
可以直接丢进真实渲染管线,你生成的玻璃杯在 Unity 里是真的透明的,生成的金属盔甲是真的会反光的。
几乎零后处理,整个流程被压缩到极致:
一句话总结就是:拍一张图 → 跑模型 → 拿走 glb,用就完了。
微软官方在抱抱脸上部署了 Space 可直接使用(需魔法)。
Demo地址:https://huggingface.co/spaces/microsoft/TRELLIS.2
打开网页,只需上传一张主体图片(人物、动物或其他物体),然后点击生成即可。
我这里上传一张兰陵王的图片体验了一下。

真的整个过程不超过20s,生成完成后可以切换纹理显示,整个3D效果很完美。然后就可以下载GLB导入到3D软件进行再处理了。
如果需要自行部署,需要至少配备 24GB 显存的 NVIDIA GPU 的电脑或服务器。
提前下载预训练模型TRELLIS.2-4B。
克隆项目&安装依赖
git clone -b main https://github.com/microsoft/TRELLIS.2.git --recursive
cd TRELLIS.2
. ./setup.sh --new-env --basic --flash-attn --nvdiffrast --nvdiffrec --cumesh --o-voxel --flexgemm图像到3D代码示例:
import os
os.environ['OPENCV_IO_ENABLE_OPENEXR'] = '1'
os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "expandable_segments:True" # Can save GPU memory
import cv2
import imageio
from PIL import Image
import torch
from trellis2.pipelines import Trellis2ImageTo3DPipeline
from trellis2.utils import render_utils
from trellis2.renderers import EnvMap
import o_voxel
# 1. Setup Environment Map
envmap = EnvMap(torch.tensor(
cv2.cvtColor(cv2.imread('assets/hdri/forest.exr', cv2.IMREAD_UNCHANGED), cv2.COLOR_BGR2RGB),
dtype=torch.float32, device='cuda'
))
# 2. Load Pipeline
pipeline = Trellis2ImageTo3DPipeline.from_pretrained("microsoft/TRELLIS.2-4B")
pipeline.cuda()
# 3. Load Image & Run
image = Image.open("assets/example_image/T.png")
mesh = pipeline.run(image)[0]
mesh.simplify(16777216) # nvdiffrast limit
# 4. Render Video
video = render_utils.make_pbr_vis_frames(render_utils.render_video(mesh, envmap=envmap))
imageio.mimsave("sample.mp4", video, fps=15)
# 5. Export to GLB
glb = o_voxel.postprocess.to_glb(
vertices = mesh.vertices,
faces = mesh.faces,
attr_volume = mesh.attrs,
coords = mesh.coords,
attr_layout = mesh.layout,
voxel_size = mesh.voxel_size,
aabb = [[-0.5, -0.5, -0.5], [0.5, 0.5, 0.5]],
decimation_target = 1000000,
texture_size = 4096,
remesh = True,
remesh_band = 1,
remesh_project = 0,
verbose = True
)
glb.export("sample.glb", extension_webp=True)脚本执行后,会生成以下文件:
注意:文件默认以透明模式.glb导出OPAQUE。虽然纹理贴图中保留了 Alpha 通道,但初始状态下并未激活。要启用透明度,请将资源导入到您的 3D 软件中,并手动将纹理的 Alpha 通道连接到材质的透明度或 Alpha 输入。
Web 演示
python app.py如果说过去的 Image-to-3D 更像是AI 艺术实验,那 TRELLIS.2 已经非常接近于3D 资产自动化生产工具了。
它不再只是生成一个模糊的形状让你看着玩,而是交付了结构准确、材质丰富、甚至包含透明通道的专业资产。
对于电商、游戏、VR/AR 行业的从业者来说,这不仅是工具的升级,更是生产力的释放。
如果你手里有几张想要立体化的照片,可以先去 Hugging Face 试一试!
Hugging Face:https://huggingface.co/microsoft/TRELLIS.2-4B
GitHub:https://github.com/microsoft/TRELLIS.2

如果本文对您有帮助,也请帮忙点个 赞👍 + 在看 哈!❤️
在看你就赞赞我!
