我是一个神经网络的工作人员,它使用tensorflow从单个图像进行人脸重建。
我正在尝试弄清楚如何在python中将网络(这是一个3D网格)的输出渲染成图像。
我发现的大多数库都是实时的3D渲染,我只希望渲染和单帧。
我还需要一些快速的东西,因为这可能是实时网络预处理的一部分(将网络应用于实时视频。
网格非常简单,它是一个简单的面,大约有30k个顶点和50k个三角形。
发布于 2019-04-05 06:01:11
我刚刚遇到了一个类似的问题,并用pyrender和它的屏幕外渲染器解决了它。
看一看这里的最小工作示例PyrenderOSMesaSample.ipynb。构建自己的网格并获得场景的渲染RGB非常简单。
UPD:这是我的MWE
import os
# switch to "osmesa" or "egl" before loading pyrender
os.environ["PYOPENGL_PLATFORM"] = "osmesa"
import numpy as np
import pyrender
import trimesh
import matplotlib.pyplot as plt
# generate mesh
sphere = trimesh.creation.icosphere(subdivisions=4, radius=0.8)
sphere.vertices+=1e-2*np.random.randn(*sphere.vertices.shape)
mesh = pyrender.Mesh.from_trimesh(sphere, smooth=False)
# compose scene
scene = pyrender.Scene(ambient_light=[.1, .1, .3], bg_color=[0, 0, 0])
camera = pyrender.PerspectiveCamera( yfov=np.pi / 3.0)
light = pyrender.DirectionalLight(color=[1,1,1], intensity=2e3)
scene.add(mesh, pose= np.eye(4))
scene.add(light, pose= np.eye(4))
c = 2**-0.5
scene.add(camera, pose=[[ 1, 0, 0, 0],
[ 0, c, -c, -2],
[ 0, c, c, 2],
[ 0, 0, 0, 1]])
# render scene
r = pyrender.OffscreenRenderer(512, 512)
color, _ = r.render(scene)
plt.figure(figsize=(8,8)), plt.imshow(color);发布于 2017-05-20 01:24:42
根据您的预期结果,有几个开源和商业选项可供选择。我从你的问题中推断出,你已经在利用GPU,并且你打算利用它们的性能加速来产生你的单帧结果。有了这些假设,这里是我最重要的两个建议:
1)如果你正在构建一个概念验证,我会利用Blender (特别是Lux渲染器)。
2)如果你计划开发一个商业产品,我会推荐使用nVidia的iRay渲染器。您可以获得SDK访问权限,并利用支持团队的知识来帮助您优化渲染的细节。
我很乐意根据任何反馈(或您的GitHub项目)修改此答案。
如果我的假设有误,这个答案可能会有帮助:3D Scene Renderer for Python ;-)
发布于 2019-02-04 15:56:41
nVidia的iRay非常优秀,但是对于任何渲染引擎来说,50k以上的三角形都是一个严重的任务。
如果您正在寻找照片逼真的质量,您将看到在一个简单的光源下,每次渲染50k三角形需要几分钟。
照明变得越复杂,这个过程就越慢。一个简单的基于纹理的阴影渲染要快得多,并且可以实时完成,结果仅限于UV映射纹理的质量。
您是从单个图像中捕捉表面材质,还是将预贴图的UV表面材质应用于标准的50k三角形模型网格?
https://stackoverflow.com/questions/43724600
复制相似问题